EP4078941A2 - Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data - Google Patents

Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data

Info

Publication number
EP4078941A2
EP4078941A2 EP20841885.5A EP20841885A EP4078941A2 EP 4078941 A2 EP4078941 A2 EP 4078941A2 EP 20841885 A EP20841885 A EP 20841885A EP 4078941 A2 EP4078941 A2 EP 4078941A2
Authority
EP
European Patent Office
Prior art keywords
image data
output
neural network
brightness
cnn11
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20841885.5A
Other languages
German (de)
French (fr)
Inventor
Christian Scharfenberger
Michelle Karg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Publication of EP4078941A2 publication Critical patent/EP4078941A2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the invention relates to a machine learning method, a method and a device for converting input image data from a plurality of vehicle cameras of an all-round vision system into optimized output image data.
  • Today's vehicles are increasingly equipped with surround view and / or assistance systems that monitor the areas in front of, next to or behind the vehicle. This is used either to recognize objects to avoid collisions, to recognize road boundaries, to keep the vehicle within the lane or simply to display the surroundings to assist with a parking process.
  • DE 102014210323 A1 shows a device and a method for adaptive image correction of at least one image parameter of a camera image with: several cameras for generating camera images, the camera images from adjacent cameras each having overlapping image areas; and with an image processing unit which combines the camera images generated by the cameras to form a composite overall image; wherein the image processing unit has an image correction component that calculates a plurality of average image parameter levels of the image parameter in the overlapping image areas of the camera image for each received camera image and sets the respective image parameter as a function of the calculated average image parameter levels.
  • a prominent example is driving on an unlit country road at night.
  • the vehicle is equipped with a surround view system, which is supposed to offer both assistance and display functions while driving. While the vehicle illuminates the front and rear area through the front and rear headlights, the area next to the vehicle is almost unlit.
  • Another example is parking a vehicle in a dark corner of a parking garage.
  • the case occurs especially in parking positions next to walls or other vehicles in which too little or no light is available for the side cameras.
  • a system would therefore be desirable which algorithmically enables good upgrading of the unlit areas without additional lighting.
  • a method for machine learning of the conversion of input image data from several vehicle cameras of a panoramic system into optimized output image data by means of an artificial neural network provides that the learning is carried out with a large number of training image pairs in such a way that at the input of the artificial neural network one first image of a first brightness or color distribution and a second image of the same scene with a different second brightness or color distribution is provided as the target output image.
  • the artificial neural network can be, for example, a convolutional neural network (“folding neural network”, CNN).
  • the vehicle cameras are preferably arranged and configured in such a way that, taken together, they capture and image the area of the vehicle environment surrounding the vehicle.
  • the training image pairs are generated by recording a first image with a first and a second image with a second brightness at the same time or immediately following one another with different exposure times.
  • a first, shorter exposure time leads to a darker training image and a second, longer exposure time to a lighter training image.
  • the respective vehicle camera is stationary (immobile) in relation to the surroundings to be recorded during the generation of the training data.
  • the training data can be recorded with at least one vehicle camera of a stationary vehicle, for example.
  • the scene captured by the vehicle camera can, for example, contain a static environment, that is to say without moving objects.
  • one artificial neural network is trained jointly or simultaneously for all vehicle cameras.
  • a sequence of successive images can be used for each individual camera for joint training.
  • the time correlation of images can be profitably taken into account during training and / or when using the trained network.
  • At least one factor d is determined as a measure for the difference between the second and the first brightness or color distribution of a training image pair and is provided to the artificial neural network as part of the training.
  • the factor d can be determined, for example, as the ratio of the second brightness or color distribution to the first brightness or color distribution.
  • the brightness can in particular be determined as the mean brightness of an image or on the basis of a luminance histogram of an image.
  • the artificial neural network has a common input interface for two separate output interfaces.
  • the common input interface has shared feature representation layers.
  • Converted image data are output at the first output interface.
  • ADAS-relevant detections of at least one ADAS detection function are output at the second output interface.
  • ADAS stands for advanced systems for assisted or automated driving (English: Advanced Driver Assistance Systems).
  • ADAS-relevant detections are e.g. objects, objects, road users, which represent important input variables for ADAS / AD systems.
  • the artificial neural network includes ADAS detection functions, e.g. lane recognition, object recognition, depth recognition (3D estimation of the image components), semantic recognition, or the like. As part of the training, the outputs of both output interfaces are optimized.
  • a method for converting input image data from a plurality of vehicle cameras of an all-round vision system into optimized output image data comprises the steps: a) input image data of a current brightness or color distribution recorded by the vehicle cameras are provided to a trained artificial neural network, b) the trained artificial one The neural network is configured to convert the input image data with the current brightness or color distribution into output image data with a different output brightness or color distribution, and c) the trained artificial neural network is configured to output the output image data.
  • the output image data optimized in terms of their brightness or color distribution advantageously enable the images from the individual vehicle cameras to be better combined to form a combined image which can be displayed to the driver.
  • a factor d is additionally provided to the trained artificial neural network and in step b) the (strength or degree of) conversion is controlled as a function of factor d.
  • the conversion in step b) takes place in such a way that an improvement in vision with regard to overexposure is achieved. For example, during the training course, people learned to reduce the brightness of overexposed images or to adjust the color distribution.
  • step b) the input image data with the current brightness are converted into output image data with a longer (virtual) exposure time. This offers the advantage of avoiding motion blur.
  • the factor d is estimated and in the estimation the brightness or color distribution of the current captured image data (e.g. illuminance histogram or average brightness) or the previously captured image data or the history of the factor d is taken into account.
  • the current captured image data e.g. illuminance histogram or average brightness
  • too high a brightness indicates overexposure
  • too low a brightness indicates underexposure. Both can be determined by means of corresponding threshold values and corrected by a corresponding conversion
  • a separate factor d is estimated or determined for each of the vehicle cameras. This enables the individual conversion for image data from the individual vehicle cameras, in particular as a function of the current brightness or color distribution of the image from the respective vehicle camera.
  • a different factor d is estimated or determined for each of the image regions. If there are image regions with different illumination intensities, the factor d can thus vary within an image and image regions with different factors d are determined via brightness estimates. The brightness improvement can thus be adapted to individual image regions.
  • a development of factor d over time can be taken into account when determining or estimating factor d.
  • the development of factor d over time and a sequence of input images are included in the estimate.
  • Information about the temporal development of the brightness can also be used for image regions with different factors d.
  • information about the current surroundings of the vehicle is taken into account when determining the factor d.
  • the estimate of the factor d can take into account further scene information, such as information about the surroundings (country road, city, motorway, tunnel, underpass), which is obtained via image processing from the sensor data or data from a navigation system (e.g. GPS receiver with digital map).
  • the factor d can be estimated based on information about the surroundings and from the chronological sequence of images as well as from the history of the factor d.
  • the estimation of the factor d when using a trained artificial neural network can thus take place dynamically.
  • the converted image data is output to at least one ADAS detection function which determines and outputs ADAS-relevant detections.
  • ADAS detection functions can include known edge or pattern recognition methods as well as recognition methods which can recognize and optionally classify relevant image objects by means of an artificial neural network.
  • the approach can be expanded and the artificial neural network for converting the image data can be combined with a neural network for ADAS detection functions, for example lane detection, object detection, depth detection, semantic detection.
  • ADAS detection functions for example lane detection, object detection, depth detection, semantic detection.
  • the invention further relates to a device with at least one data processing unit configured to convert input image data from a plurality of vehicle cameras of a panoramic vision system into optimized output image data.
  • the device comprises: an input interface, a trained artificial neural network and a (first) output interface.
  • the input interface is configured to receive input image data of a current brightness or color distribution from the vehicle cameras.
  • the trained artificial neural network is configured to convert the input image data, which have a first brightness or color distribution, into output image data with a different output brightness or color distribution.
  • the (first) output interface is configured to output the converted image data.
  • the device or the data processing unit can in particular be a microcontroller or processor, a central processing unit (CPU), a graphic processing unit (GPU), a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable) Gate array) and the like, as well as software for carrying out the corresponding method steps.
  • CPU central processing unit
  • GPU graphic processing unit
  • DSP digital signal processor
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable
  • the data processing unit is implemented in a hardware-based image preprocessing stage (Image Signal Processor, ISP).
  • ISP Image Signal Processor
  • the trained artificial neural network for converting input image data into output image data with optimized brightness or color distribution is part of an ADAS detection neural network in the vehicle, e.g. for semantic segmentation, lane detection or object detection, with a divided input interface (Input or feature representation layers), and two separate output interfaces (output layers).
  • the first output interface is for Output of the converted output image data and the second output interface is configured to output the ADAS detections (image recognition data).
  • the invention further relates to a computer program element which, when a data processing unit is programmed with it, instructs the data processing unit to carry out a method for converting input image data from the vehicle cameras into optimized output image data.
  • the invention also relates to a computer-readable storage medium on which such a program element is stored.
  • the invention also relates to the use of a method for machine learning conversion of input image data from a plurality of vehicle cameras of a panoramic vision system into optimized output image data for training an artificial neural network of a device with at least one data processing unit.
  • the present invention can thus be implemented in digital electronic circuitry, computer hardware, firmware, or software.
  • FIG. 1 shows a first schematic representation of a device according to the invention in one embodiment
  • FIG. 5 shows a neural network for improving the view of an input image, which shares feature representation layers with a second network for the detection functions and has two outputs; and
  • FIG. 6 shows a modified approach based on FIG. 5.
  • a device according to the invention for 1 for converting input image data from several vehicle cameras of an all-round viewing system into optimized output image data can be several units or Have circuit components.
  • the device for adaptive image correction has a plurality of vehicle cameras 2-i which each generate camera images or video data.
  • the device 1 has four vehicle cameras 2-i for generating camera images.
  • the number of vehicle cameras 2-i can vary for different applications.
  • the device 1 according to the invention has at least two vehicle cameras for generating camera images.
  • the camera images from neighboring vehicle cameras 2-i typically have overlapping image areas.
  • the device 1 contains a data processing unit 3 which combines the camera images generated by the vehicle cameras 2-i to form a composite overall image.
  • the data processing unit 3 has a system for image conversion 4.
  • the image conversion system 4 uses the input image data (Ini) of the vehicle cameras (2-i) to generate output or output image data (Opti) which have an optimized brightness or color distribution.
  • the optimized output image data from the individual vehicle cameras are combined to form a composite overall image (so-called stitching).
  • the overall image composed of the optimized image data (Opti) by the image processing unit 3 is then displayed to a user by a display unit 5.
  • the image conversion system 4 is formed by an independent hardware circuit which converts the brightness or the color distribution.
  • the system executes program instructions when performing an image conversion method.
  • the data processing unit 3 can have one or more image processing processors, converting the camera images or video data received from the various vehicle cameras 2-i and then putting them together to form a composite overall image (stitching).
  • the image conversion system 4 is formed by a processor provided for this purpose, which converts the brightness or the color distribution in parallel with the other processor or processors of the data processing unit 3.
  • the parallel data processing reduces the time required to process the image data.
  • Figure 2 shows a further schematic representation of a device 1 according to the invention in one embodiment.
  • the device 1 shown in FIG. 2 is used in a surround view system of a vehicle 10, in particular a passenger car or a truck.
  • the four different vehicle cameras 2-1, 2-2, 2-3, 2-4 can be located on different sides of the vehicle 10 and have corresponding viewing areas (dashed lines) in front of V, behind H, left L and right R the or . of the vehicle (s) 10.
  • the first vehicle camera 2-1 is located on a front side of the vehicle 10
  • the second vehicle camera 2-2 is located on a rear side of the vehicle 10
  • the third vehicle camera 2-3 is located on the left side of the vehicle 10
  • the fourth vehicle camera 2-4 is on the right side of the vehicle 10.
  • the camera images from two adjacent vehicle cameras 2-i have overlapping image areas VL, VR, HL, HR.
  • the vehicle cameras 2-i are so-called fisheye cameras which have a viewing angle of at least 185 °.
  • the vehicle cameras 2 - i can transmit the camera images or camera image frames or video data in one possible embodiment to the data processing unit 3 via an Ethernet connection.
  • the data processing unit 3 calculates a composite surround view camera image from the camera images of the vehicle cameras 2-i, which is displayed on the display 5 of the vehicle 10 to the driver and / or a passenger.
  • the light conditions in the surroundings deviate from each other in the front vehicle camera 2-1 and in the rear vehicle camera 2-2 while driving, for example when entering a vehicle tunnel or when driving into a vehicle garage.
  • the activated front headlights illuminate the front area V in front of vehicle 10 with white light and relatively high intensity
  • the rear headlights illuminate the rear area H behind the vehicle with red light and medium intensity.
  • the areas to the left L and right R next to the vehicle 10 are virtually unlit.
  • ground truth data are preferably used in a first application, which have a brightness and balance used for all target cameras 2-1, 2-2, 2-3, 2-4.
  • the ground truth data for all target cameras 2-1, 2-2, 2-3, 2-4 are balanced in such a way that, for example, in a surround view application, no differences in brightness are discernible in the ground truth data.
  • a neural network CNN1, CNN10, CNN11, CNN12 is created with regard to an optimal parameter set trained for the network.
  • This data record can consist, for example, of images with white and red headlights for the front cameras 2-1 and rear cameras 2-2, and dark images for the side cameras 2-3, 2-4.
  • Data with differently illuminated side areas L, R are also conceivable, for example when the vehicle 10 is located next to a street lamp or the vehicle 10 has an additional light source on one side.
  • the neural network for the common cameras 2-i can be trained to the effect that even in the case of missing training data and ground truth data for a camera, for example a side camera 2-3 or 2-4, the network can set the parameters for this camera 2-3 or 2-4 is trained and optimized with the missing data based on the training data of the other cameras 2-1, 2-2 and 2-4 or 2-3.
  • This can be achieved, for example, as a restriction (or constraint) in the training of the network, for example as an assumption that the correction and training must always be the same due to similar lighting conditions of the side cameras 2-3 and 2-4.
  • the neural network uses training and ground truth data that differ over time and that are correlated with the cameras 2-i and that were recorded by the various cameras 2-i at different points in time.
  • information from features or objects and their ground truth data can be used which, for example, were recorded at a point in time t by the front camera 2-1 and at a point in time t + n by the side cameras 2-3, 2-4.
  • These features or objects and their ground truth data can replace missing information in the training and basic truth data of the respective other cameras if they are used in the images of the other cameras 2-i and then by the network as training data.
  • the network can set the parameters for Optimize all side cameras 2-3, 2-4 and, if necessary, compensate for missing information in the training data.
  • An essential component is an artificial neural network CNN1, which learns in a training phase to assign a set of corresponding vision-improved images Out (Out1, Out2, Out3, ...) to a set of training images In (In1, In2, In3, ...) .
  • Assigning means here that the neural network CNN1 learns to generate an image with improved vision.
  • a training image (In1, In2, In3, ...) can contain, for example, a street scene at dusk, on which the human eye can only see another vehicle immediately in front of the vehicle and the sky.
  • On the corresponding image with improved visibility (Out1, Out2, Out3, ...) the contours of the other vehicle, a sidewalk as a lane boundary and adjacent buildings can also be seen.
  • a factor d is preferably used as an additional input variable for the neural network CNN1.
  • the factor d is a measure of the degree of visibility improvement.
  • the factor d for an image pair consisting of the training image and the image with improved vision can be determined in advance and made available to the neural network CNN1.
  • a factor d can be used to control how strongly the neural network CNN1 "brightens” or “darkens” an image - one can also think of factor d as an external regression parameter (not just bright - dark, but with any gradation). Since the factor d can be subject to possible fluctuations in the range of +/- 10%, this is taken into account during training.
  • the factor d can be noisy during the training by approx. +/- 10% (e.g. during the different epochs of the training of the neural network), in order to be robust against incorrect estimates of the factor d in the range of approx. +/- during the inference in the vehicle.
  • the necessary accuracy of factor d is in the range of +/- 10% - thus the neural network CNN1 is robust against deviations in estimates from this parameter.
  • One possibility for generating the training data (training images (In1, In2, In3, ...) and associated vision-enhanced images (Out1, Out2, Out3, ...)) is to record image data of a scene, each with a short and simultaneous or . in immediate succession with a long exposure time.
  • image pairs (In1, Out1; In2, Out2; In3, Out3; ...) with different factors d can be recorded for a scene in order to learn a continuous spectrum for the improvement of vision depending on the parameter or factor d.
  • the vehicle camera 2-i is preferably stationary (immobile) with respect to the surroundings to be recorded during the generation of the training data.
  • the training data can be recorded by means of a vehicle camera 2 - i of a stationary vehicle 10.
  • the scene captured by the vehicle camera 2-i can in particular contain a static environment, that is to say without moving objects.
  • CNN1 visually enhanced source / output image.
  • the trained neural network CNN1 receives original input image data (Ini) from the multiple cameras 2-i as input.
  • a factor d can be specified or determined by the neural network CNN1 itself on the basis of the input image data (Ini).
  • the factor d specifies (controls) how strongly the input image data should be converted.
  • the neural network calculates image data (Opti) with improved visibility from the multiple cameras 2-i.
  • the optimized image data (Opti) of the multiple cameras 2-i are output.
  • FIGS. 5 and 6 show exemplary embodiments for possible combinations of a first network for improving visibility with one or more networks of the functions for driver assistance functions and automated driving.
  • FIG. 5 shows a neural network CNN10 for improving the view of an input image (Ini), possibly controlled by a factor d, which Share feature representation layers (as input or lower layers) with a network for detection functions (fn1, fn2, fn3, fn4).
  • the detection functions (fn1, fn2, fn3, fn4) are image processing functions that detect objects, structures, properties (generally: features) in the image data that are relevant for ADAS or AD functions.
  • Many such detection functions (fn1, fn2, fn3, fn4), which are based on machine learning, have already been developed or are the subject of current developments (e.g. traffic sign classification, object classification, semantic segmentation, depth estimation, lane marking recognition and localization).
  • Detection functions (fn1, fn2, fn3, fn4) of the second neural network CNN2 deliver better results on visually enhanced images (Opti) than on the original input image data (Ini) in poor visibility conditions.
  • Opti visually enhanced images
  • Ini original input image data
  • the neural network CNN10 with divided input layers and two separate outputs has a first output CNN 11 for outputting the visually enhanced output / output image (Opti) and a second output CNN 12 for outputting the detections: objects, depth, trace, semantics, etc. .
  • the feature representation layers are optimized during training with regard to both the vision improvement and the detection functions (fn1, fn2, fn3, fn4), an optimization of the vision improvement also leads to an improvement in the detection functions (fn1, fn2, fn3, fn4).
  • FIG. 6 shows an approach based on the system of FIG. 5 for neural network-based vision improvement by optimizing the features.
  • the features for the detection functions (fn1, fn2, fn3, fn4) are optimized during training with regard to improved visibility and with regard to the detection functions (fn1, fn2, fn3, fn4).
  • the detection functions (fn1, fn2, fn3, fn4) - as already explained - are improved by the joint training of vision improvement and detection functions compared to a system with only one neural network (CNN2) for detection functions (fn1, fn2, fn3, fn4) , in which only the detection functions (fn1, fn2, fn3, fn4) have been optimized during training.
  • an additional output interface (CNN11) outputs the improved brightness image (Opti) and compares it with the ground truth (the corresponding training image with improved visibility).
  • This output (CNN11) can continue to be used in the test phase or during runtime, or it can be cut off to save computing time.
  • the weights for the detection functions (fn1, fn2, fn3, fn4) are modified in this training with the additional output (CNN11) so that they take into account the brightness improvements for the detection functions (fn1, fn2, fn3, fn4).
  • the weights of the detection functions (fn1, fn2, fn3, fn4) thus implicitly learn the information about the brightness improvement.
  • an assistance system based on surround view cameras which algorithmically converts the image data, despite darkness and lack of color information, into a representation that corresponds to a recording with illumination or daylight are set out below.
  • the converted image can either be used for display purposes only or as input for feature-based recognition algorithms.
  • the calculation in a system is based, for example, on a neural network which, upstream of a detection or display unit, converts a very dark input image with little contrast and color information into a, for example, daylight representation.
  • the neural network was trained with a data set consisting of “dark input images” and the associated “daylight images”.
  • This training can be carried out individually for each vehicle camera, so that a conversion takes place individually for each individual vehicle camera.
  • Individual training for each vehicle camera offers the advantage of redundancy in the overall system.
  • the neural network can reproduce processes such as white balancing, gamma correction and histogram equalization in a very ideal way, and additional ones stored in the network structure Use information to automatically add missing color or contrast information. In this way, very dark images can be converted into a representation which is advantageous for feature-based recognition and viewing.
  • ground truth data enables the network to learn to convert the different images from the individual vehicle cameras into images with optimized brightness and / or color distribution. For example, it can be considered optimal that the brightness or color distribution in the overlapping field of view of adjacent vehicle cameras are the same or almost the same.
  • ground truth data for all vehicle cameras which all correspond to the optimized image of the front camera in terms of brightness or color distribution, the converted images from all vehicle cameras are always ideal later when the trained neural network is used, in order to use stitching to create a composite image for the display unit to create.
  • the training can provide ground truth data which are the result of an image simulation or an image synthesis.
  • the target output images from the side vehicle cameras can be simulated or synthesized taking real front and rear images into account.
  • this method can be integrated in a hardware-based image preprocessing stage, the ISP (Image Signal Processor).
  • the ISP Image Signal Processor
  • this ISP is supplemented by a small, trained neural network, which carries out the corresponding conversion and provides the processed information with the original data for possible detection or display methods.
  • This method can be used in a further application in such a way that, as with a surround view system, it calculates images with different lighting profiles to form an overall image with balanced lighting.
  • An example is the display of the vehicle surroundings on a display on an unlit country road, where the areas of the front and rear vehicle cameras are illuminated by headlights, but the lateral areas are not illuminated by headlights.
  • system with the neural network can be trained to use information from the better-lit areas in order to further improve the conversion for the unlit areas.
  • the network is trained less with individual images for each vehicle camera, but rather as an overall system consisting of several camera systems.
  • the computing efficiency is optimized. No separate neural network is required for the reconstruction of the night images with improved visibility; instead, one of the operational networks in the vehicle is used for this purpose, e.g. a network for semantic segmentation, lane recognition, object recognition or a multi-task network.
  • One or more further output layer (s) is added to this network, which is responsible for the reconstruction of the vision-enhanced night images.
  • the training data for the night vision improvement is used for the calculation of this initial layer.
  • the output layers of the functions and the vision enhancements contain separate neurons for the function or the visual enhancement
  • the training of the network includes data for the function and the visibility improvement.
  • This setup makes it possible for the feature representation of the commonly used layers to contain information about the visibility improvement and for this information to be made available to the functions. At runtime, there is thus the possibility of using the network only for the calculation of the functions which for this purpose work on visualized feature representations. This is a computation-time-efficient implementation that is particularly suitable for operation on embedded systems.
  • the additional computational effort at runtime in this embodiment is either only the calculation of the initial layer (s) if the vision-enhanced night images are made available to other functions in the vehicle, or no additional computing effort if the vision enhancement is integrated into the algorithms of the functions and only the Output of these functions is further used, for example, lane recognition, object recognition, semantic segmentation and / or depth estimation.
  • the visibility improvement can be extended with regard to overexposure.
  • a common network for improving visibility can be learned, which enhances both the quality of overexposed and underexposed images.
  • a fusion of these two applications in a network enables a computationally efficient implementation in the vehicle.
  • the computational efficiency can be increased if this network fusion is also expanded to include functions such as object recognition, lane recognition, depth estimation, semantic segmentation.
  • the network calculates an image with improved visibility, which corresponds to a picture with a longer exposure time.
  • the exposure time is limited, especially for night photos, so that the quality of the recording is not impaired by the driving speed or in curves (including motion blur).
  • images with longer exposure times are calculated without being affected by e.g. the driving speed.
  • the estimate of the ratio (or factor d) can be obtained from the current image, the previous image or a sequence of images.
  • An example of this is the change from an illuminated city center to the country road.
  • a control loop can be set up in which the properties of the luminance histogram are tracked. If there is a deviation from the mean expected distribution, the ratio can be increased or decreased.
  • This adjustment of the ratio is relevant during runtime in the vehicle.
  • the relationships between the exposure times are known, and the mean expected distribution for improved visibility can be calculated from the ground truth images of the training data for various scenes.
  • the scene types can be obtained from the functions during runtime in the vehicle, e.g. semantic segmentation.
  • the ratio to the improvement in visibility during runtime a) can be a constant, b) depending on the luminance histogram, c) depending on the street scene, or d) depending on the luminance histogram and the street scene.
  • deviations from a fixed visibility improvement factor d can occur in dynamic scenes such as road traffic scenes.
  • this factor it is possible to improve the visibility for a large number of different traffic scenes during runtime in the vehicle.
  • the main advantages are: - Very efficient method for improving the image quality when it is insufficient

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a machine learning method, to a method and to a device for converting input image data (Ini) from a plurality of vehicle cameras (2-i) of a surround-view system into optimised output image data (Opti). The method for converting input image data from a plurality of vehicle cameras (2-i) of a surround-view system into optimised output image data comprises the following steps: a) input image data (Ini) captured by the vehicle cameras (2-i) and having a current brightness or colour distribution are provided to a trained artificial neural network (CNN1, CNN10, CNN11, CNN12); b) the trained artificial neural network (CNN1, CNN10, CNN11, CNN12) is configured to convert the input image data (Ini) having the current brightness or colour distribution into optimised output image data (Opti) having different output brightness or colour distribution; and c) the trained artificial neural network (CNN1, CNN10, CNN11, CNN12) is configured to output the output image data (Opti).

Description

Umwandlung von Eingangs-Bilddaten einer Mehrzahl von Fahrzeugkameras eines Conversion of input image data from a plurality of vehicle cameras
Rundumsichtsystems in optimierte Ausgangs-Bilddaten All-round vision system in optimized output image data
Die Erfindung bezieht sich auf ein maschinelles Lernverfahren, ein Verfahren und eine Vorrichtung zur Umwandlung von Eingangs-Bilddaten einer Mehrzahl von Fahrzeugkameras eines Rundumsichtsystems in optimierte Ausgangs-Bilddaten. The invention relates to a machine learning method, a method and a device for converting input image data from a plurality of vehicle cameras of an all-round vision system into optimized output image data.
Heutige Fahrzeuge sind zunehmend mit Surroundview- und/oder Assistenzsystemen ausgestattet, welche die Bereiche vor, neben oder hinter dem Fahrzeug überwachen. Dies dient entweder der Erkennung von Objekten zur Vermeidung von Kollisionen, der Erkennung von Straßenbegrenzungen, zum Halten des Fahrzeuges innerhalb der Fahrspur oder einfach nur der Anzeige der Umgebung zur Unterstützung bei einem Parkvorgang. Today's vehicles are increasingly equipped with surround view and / or assistance systems that monitor the areas in front of, next to or behind the vehicle. This is used either to recognize objects to avoid collisions, to recognize road boundaries, to keep the vehicle within the lane or simply to display the surroundings to assist with a parking process.
Diese Systeme arbeiten mit hochauflösenden Kameras, welche heute einen immer höheren dynamischen Bereich besitzen. Von letzterem profitieren insbesondere Anzeige- und Erkennungsfunktionen in Situationen mit unterschiedlichen Helligkeitsstufen und Kontrast. These systems work with high-resolution cameras, which today have an ever higher dynamic range. Display and recognition functions in particular benefit from the latter in situations with different levels of brightness and contrast.
DE 102014210323 A1 zeigt eine Vorrichtung und ein Verfahren zur adaptiven Bildkorrektur von mindestens einem Bildparameter eines Kamerabildes mit: mehreren Kameras zur Erzeugung von Kamerabildern, wobei die Kamerabilder von benachbarten Kameras jeweils überlappende Bildbereiche aufweisen; und mit einer Bildverarbeitungseinheit, welche die von den Kameras erzeugten Kamerabilder zu einem zusammengesetzten Gesamtbild zusammensetzt; wobei die Bildverarbeitungseinheit eine Bildkorrekturkomponente aufweist, die für jedes empfangene Kamerabild mehrere durchschnittliche Bildparameterpegel des Bildparameters in den überlappenden Bildbereichen des Kamerabildes berechnet und den jeweiligen Bildparameter in Abhängigkeit von den berechneten durchschnittlichen Bildparameterpegeln einstellt. DE 102014210323 A1 shows a device and a method for adaptive image correction of at least one image parameter of a camera image with: several cameras for generating camera images, the camera images from adjacent cameras each having overlapping image areas; and with an image processing unit which combines the camera images generated by the cameras to form a composite overall image; wherein the image processing unit has an image correction component that calculates a plurality of average image parameter levels of the image parameter in the overlapping image areas of the camera image for each received camera image and sets the respective image parameter as a function of the calculated average image parameter levels.
Die oben genannten Systeme zeigen eine sehr gute Performance bei Szenarien, die durch Tageslicht, Straßenbeleuchtung oder Scheinwerferlicht eines Fahrzeuges hinreichend ausgeleuchtet sind. Degradation sowohl in der Erkennung von Objekten als auch bei der Darstellung der Umgebung oder von Objekten tritt jedoch ein, sobald in einer Situation nur wenig bis gar kein Umgebungslicht zum Ausleuchten des Szenarios zur Verfügung steht. The systems mentioned above show a very good performance in scenarios that are sufficiently illuminated by daylight, street lighting or headlights of a vehicle. However, degradation both in the detection of objects and in the representation of the environment or objects occurs as soon as in In a situation there is little or no ambient light available to illuminate the scenario.
Als ein prominentes Beispiel sei die Fahrt auf einer unbeleuchteten Landstraße bei Nacht genannt. Das Fahrzeug sei mit einem Surroundview-System ausgestattet, welches während der Fahrt sowohl Assistenz- als auch Anzeigefunktion bieten soll. Während das Fahrzeug durch die Front- und Heckscheinwerfer den vorderen und hinteren Bereich ausleuchtet, ist der Bereich neben dem Fahrzeug nahezu unbeleuchtet. A prominent example is driving on an unlit country road at night. The vehicle is equipped with a surround view system, which is supposed to offer both assistance and display functions while driving. While the vehicle illuminates the front and rear area through the front and rear headlights, the area next to the vehicle is almost unlit.
Als ein weiteres Beispiel sei das Parken eines Fahrzeuges in einer dunklen Ecke in einem Parkhaus genannt. Auch hier tritt gerade bei Parkpositionen neben Wänden oder anderen Fahrzeugen der Fall ein, in denen zu wenig bis gar kein Licht für die Seitenkameras zur Verfügung steht. Another example is parking a vehicle in a dark corner of a parking garage. Here, too, the case occurs especially in parking positions next to walls or other vehicles in which too little or no light is available for the side cameras.
Abhilfe schaffen zusätzliche Lampen, welche in die Seitenbereiche des Fahrzeuges eingebaut die kritischen Bereiche neben dem Fahrzeug ausleuchten. Für ein vollständiges Ausleuchten ist jedoch eine hohe Anzahl an Lampen notwendig, welches neben kritischen Designeinschränkungen zu erheblichen Mehrkosten im Fahrzeug führen können. This can be remedied by additional lamps, which are installed in the side areas of the vehicle and illuminate the critical areas next to the vehicle. For complete illumination, however, a large number of lamps is necessary, which, in addition to critical design restrictions, can lead to considerable additional costs in the vehicle.
Bekannte algorithmische Verfahren wie eine Gammakorrektur, ein automatischer Weißabgleich oder ein Histogrammausgleich (Histogram Equalization) können die Bilder algorithmisch aufhellen und verbessern. Letztere zeigen jedoch gerade bei Dunkelheit signifikante Performanceeinbußen durch fehlende Farbinformationen im Bild. Well-known algorithmic processes such as gamma correction, automatic white balance or histogram equalization can algorithmically brighten and improve the images. The latter, however, show significant performance losses, especially in the dark, due to a lack of color information in the image.
Ein System wäre daher wünschenswert, welches ohne zusätzliche Beleuchtung algorithmisch eine gute Aufwertung der unausgeleuchteten Bereiche ermöglicht. A system would therefore be desirable which algorithmically enables good upgrading of the unlit areas without additional lighting.
Es ist Aufgabe der vorliegenden Erfindung, Lösungen hierfür bereitzustellen. It is the object of the present invention to provide solutions for this.
Die Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen sind Gegenstand der abhängigen Ansprüche, der folgenden Beschreibung sowie der Figuren. Ein Verfahren zum maschinellen Lernen einer Umwandlung von Eingangs-Bilddaten mehrerer Fahrzeugkameras eines Rundumsichtsystems in optimierte Ausgabe-Bilddaten mittels eines künstlichen neuronalen Netzwerks sieht vor, dass das Lernen mit einer Vielzahl von Trainings-Bildpaaren derart erfolgt, dass am Eingang des künstlichen neuronalen Netzwerks jeweils ein erstes Bild einer ersten Helligkeit oder Farbverteilung und als Soll-Ausgabe-Bild ein zweites Bild derselben Szene mit einer abweichenden zweiten Helligkeit oder Farbverteilung bereitgestellt wird. Das künstliche neuronale Netzwerk kann beispielsweise ein Convolutional Neural Network („faltendes neuronales Netzwerk“, CNN) sein. Die Fahrzeugkameras sind derart bevorzugt derart angeordnet und konfiguriert, dass sie zusammengenommen den das Fahrzeug umgebenden Bereich der Fahrzeugumgebung erfassen und abbilden. The object is achieved by the subjects of the independent claims. Advantageous embodiments are the subject matter of the dependent claims, the following description and the figures. A method for machine learning of the conversion of input image data from several vehicle cameras of a panoramic system into optimized output image data by means of an artificial neural network provides that the learning is carried out with a large number of training image pairs in such a way that at the input of the artificial neural network one first image of a first brightness or color distribution and a second image of the same scene with a different second brightness or color distribution is provided as the target output image. The artificial neural network can be, for example, a convolutional neural network (“folding neural network”, CNN). The vehicle cameras are preferably arranged and configured in such a way that, taken together, they capture and image the area of the vehicle environment surrounding the vehicle.
In einer Ausführungsform werden die Trainings-Bildpaare erzeugt, indem jeweils ein erstes Bild mit erster und ein zweites Bild mit zweiter Helligkeit zeitgleich oder unmittelbar aufeinander folgend mit unterschiedlichen Belichtungszeiten aufgenommen werden. Eine erste kürzere Belichtungszeit führt zu einem dunkleren Trainingsbild und eine zweite längere Belichtungszeit zu einem helleren Trainingsbild. Beispielsweise ist die jeweilige Fahrzeugkamera während der Erzeugung der Trainingsdaten stationär (unbewegt) gegenüber der zu erfassenden Umgebung. Hierzu können die Trainingsdaten beispielsweise mit mindestens einer Fahrzeugkamera eines stehenden Fahrzeugs erfasst werden. Die von der Fahrzeugkamera erfasste Szene kann beispielsweise eine statische Umgebung beinhalten, also ohne bewegte Objekte. In one embodiment, the training image pairs are generated by recording a first image with a first and a second image with a second brightness at the same time or immediately following one another with different exposure times. A first, shorter exposure time leads to a darker training image and a second, longer exposure time to a lighter training image. For example, the respective vehicle camera is stationary (immobile) in relation to the surroundings to be recorded during the generation of the training data. For this purpose, the training data can be recorded with at least one vehicle camera of a stationary vehicle, for example. The scene captured by the vehicle camera can, for example, contain a static environment, that is to say without moving objects.
In einer Ausführungsform wird (nur) ein künstliches neuronales Netzwerk für alle Fahrzeugkameras gemeinsam bzw. gleichzeitig trainiert. In one embodiment (only) one artificial neural network is trained jointly or simultaneously for all vehicle cameras.
Es kann jeweils eine Folge von aufeinanderfolgenden Bildern für jede Einzelkamera für das gemeinsame Training verwendet werden. A sequence of successive images can be used for each individual camera for joint training.
Die zeitliche Korrelation von Bildern kann beim Training und/oder beim Einsatz des trainierten Netzwerks gewinnbringend berücksichtigt werden. The time correlation of images can be profitably taken into account during training and / or when using the trained network.
Informationen über Bildmerkmale und deren Soll-Ausgabe-Bilddaten können verwendet werden, die zu einem Zeitpunkt t von einer Frontkamera und zu einem späteren Zeitpunkt von einer seitlichen Kamera oder der Rückkamera aufgenommen werden. Dadurch kann trainiert werden, dass ein Objekt mit bestimmten Bildmerkmalen in den Ausgabe-Bildern aller Einzelkameras eine identische Helligkeit und Farbigkeit aufweist. Gemäß einer Ausführungsform wird mindestens ein Faktor d als Maß für den Unterschied zwischen der zweiten und der ersten Helligkeit oder Farbverteilung eines Trainings-Bildpaars ermittelt wird und dem künstlichen neuronalen Netzwerk im Rahmen des Trainings bereitgestellt. Information about image features and their desired output image data can be used, which are recorded at a point in time t by a front camera and at a later point in time by a side camera or the rear camera. In this way it can be trained that an object with certain image features has an identical brightness and color in the output images of all individual cameras. According to one embodiment, at least one factor d is determined as a measure for the difference between the second and the first brightness or color distribution of a training image pair and is provided to the artificial neural network as part of the training.
Der Faktor d kann beispielsweise ermittelt werden als Verhältnis von zweiter Helligkeit oder Farbverteilung zu erster Helligkeit oder Farbverteilung. Die Helligkeit kann insbesondere als mittlere Helligkeit eines Bildes oder anhand eines llluminanzhistogramms eines Bildes ermittelt werden. The factor d can be determined, for example, as the ratio of the second brightness or color distribution to the first brightness or color distribution. The brightness can in particular be determined as the mean brightness of an image or on the basis of a luminance histogram of an image.
In einer Ausführungsform weist das künstliche neuronale Netz eine gemeinsame Eingangsschnittstelle für zwei separate Ausgangsschnittstellen auf. Die gemeinsame Eingangsschnittstelle weist geteilte Merkmalsrepräsentationsschichten auf. An der ersten Ausgangsschnittstelle werden umgewandelte Bilddaten ausgegeben. An der zweiten Ausgangsschnittstelle werden ADAS-relevante Detektionen mindestens einer ADAS-Detektionsfunktion ausgegeben. ADAS steht für fortschrittliche Systeme zum assistierten oder automatisierten Fahren (Englisch: Advanced Driver Assistance Systems). ADAS-relevante Detektionen sind somit z.B. Objekte, Gegenstände, Verkehrsteilnehmer, die für ADAS/AD Systeme wichtige Eingangsgrößen darstellen. Das künstliche neuronalen Netzwerk umfasst ADAS-Detektionsfunktionen, z.B. eine Spurerkennung, eine Objekterkennung, eine Tiefenerkennung (3D-Schätzung der Bildbestandteilee), semantische Erkennung, oder dergleichen mehr. Im Rahmen des Trainings werden die Ausgaben beider Ausgangsschnittstellen optimiert. In one embodiment, the artificial neural network has a common input interface for two separate output interfaces. The common input interface has shared feature representation layers. Converted image data are output at the first output interface. ADAS-relevant detections of at least one ADAS detection function are output at the second output interface. ADAS stands for advanced systems for assisted or automated driving (English: Advanced Driver Assistance Systems). ADAS-relevant detections are e.g. objects, objects, road users, which represent important input variables for ADAS / AD systems. The artificial neural network includes ADAS detection functions, e.g. lane recognition, object recognition, depth recognition (3D estimation of the image components), semantic recognition, or the like. As part of the training, the outputs of both output interfaces are optimized.
Ein Verfahren zur Umwandlung von Eingangs-Bilddaten einer Mehrzahl von Fahrzeugkameras eines Rundumsichtsystems in optimierte Ausgabe-Bilddaten umfasst die Schritte: a) von den Fahrzeugkameras aufgenommene Eingangs-Bilddaten einer aktuellen Helligkeit oder Farbverteilung werden einem trainierten künstlichen neuronalen Netzwerk bereitgestellt, b) das trainierte künstliche neuronale Netzwerk ist dazu konfiguriert, die Eingangs-Bilddaten mit der aktuellen Helligkeit oder Farbverteilung in Ausgabe-Bilddaten mit abweichender Ausgabehelligkeit oder -farbverteilung umzuwandeln, und c) das trainierte künstliche neuronale Netzwerk ist dazu konfiguriert, die Ausgabe-Bilddaten auszugeben. Die in ihrer Helligkeit bzw. Farbverteilung optimierten Ausgabe-Bilddaten ermöglichen vorteilhafterweise ein besseres Zusammensetzen der Bilder der einzelnen Fahrzeugkameras zu einem zusammengesetzten Bild, welches dem Fahrer angezeigt werden kann. A method for converting input image data from a plurality of vehicle cameras of an all-round vision system into optimized output image data comprises the steps: a) input image data of a current brightness or color distribution recorded by the vehicle cameras are provided to a trained artificial neural network, b) the trained artificial one The neural network is configured to convert the input image data with the current brightness or color distribution into output image data with a different output brightness or color distribution, and c) the trained artificial neural network is configured to output the output image data. The output image data optimized in terms of their brightness or color distribution advantageously enable the images from the individual vehicle cameras to be better combined to form a combined image which can be displayed to the driver.
In einer Ausführungsform wird in Schritt a) zusätzlich ein Faktor d dem trainierten künstlichen neuronalen Netzwerk bereitgestellt wird und in Schritt b) die (Stärke bzw. der Grad der) Umwandlung in Abhängigkeit von dem Faktor d gesteuert. In one embodiment, in step a) a factor d is additionally provided to the trained artificial neural network and in step b) the (strength or degree of) conversion is controlled as a function of factor d.
Gemäß einer Ausführungsform erfolgt die Umwandlung in Schritt b) derart, dass eine Sichtverbesserung hinsichtlich Überbelichtung erzielt wird. Beispielsweise wurde im Rahmen des Trainings gelernt, überbelichtete Bilder in der Helligkeit zu reduzieren bzw. in der Farbverteilung anzupassen. According to one embodiment, the conversion in step b) takes place in such a way that an improvement in vision with regard to overexposure is achieved. For example, during the training course, people learned to reduce the brightness of overexposed images or to adjust the color distribution.
In einer Ausführungsform werden in Schritt b) die Eingangs-Bilddaten mit aktueller Helligkeit in Ausgangs-Bilddaten mit einer längeren (virtuellen) Belichtungszeit umgewandelt. Das bietet den Vorteil einer Vermeidung von Bewegungsunschärfe („motion blur“). In one embodiment, in step b) the input image data with the current brightness are converted into output image data with a longer (virtual) exposure time. This offers the advantage of avoiding motion blur.
Gemäß einer Ausführungsform wird der Faktor d geschätzt und bei der Schätzung wird die Helligkeit oder Farbverteilung der aktuellen erfassten Bilddaten (z.B. Illuminanzhistogramm oder mittlere Helligkeit) oder der vorhergehend erfassten Bilddaten oder die Historie des Faktors d berücksichtigt. According to one embodiment, the factor d is estimated and in the estimation the brightness or color distribution of the current captured image data (e.g. illuminance histogram or average brightness) or the previously captured image data or the history of the factor d is taken into account.
Eine zu hohe Helligkeit spricht beispielsweise für eine Überbelichtung, eine zu niedrige Helligkeit für eine Unterbelichtung. Beides kann mittels entsprechender Schwellwerte festgestellt und durch eine entsprechende Umwandlung behoben werden For example, too high a brightness indicates overexposure, while too low a brightness indicates underexposure. Both can be determined by means of corresponding threshold values and corrected by a corresponding conversion
In einer Ausführungsform wird für jede der Fahrzeugkameras ein eigener Faktor d geschätzt bzw. bestimmt. Dies ermöglicht die individuelle Umwandlung für Bilddaten der einzelnen Fahrzeugkameras insbesondere in Abhängigkeit von der aktuellen Helligkeit bzw. Farbverteilung des Bildes der jeweiligen Fahrzeugkamera. In one embodiment, a separate factor d is estimated or determined for each of the vehicle cameras. This enables the individual conversion for image data from the individual vehicle cameras, in particular as a function of the current brightness or color distribution of the image from the respective vehicle camera.
In einer Ausführungsform wird nach einer Erkennung, dass mindestens zwei Bildregionen eines aktuell erfassten Bildes, eine (deutlich) unterschiedliche Bildhelligkeit aufweisen, für jede der Bildregionen ein unterschiedlicher Faktor d geschätzt oder bestimmt werden. Beim Vorliegen von Bildregionen mit unterschiedlichen Beleuchtungsintensitäten kann somit der Faktor d innerhalb eines Bildes variieren und Bildregionen mit unterschiedlichen Faktoren d werden über Helligkeitsschätzungen bestimmt. Die Helligkeitsverbesserung kann somit an einzelne Bildregionen angepasst werden. In one embodiment, after a detection that at least two image regions of a currently captured image have (significantly) different image brightness, a different factor d is estimated or determined for each of the image regions. If there are image regions with different illumination intensities, the factor d can thus vary within an image and image regions with different factors d are determined via brightness estimates. The brightness improvement can thus be adapted to individual image regions.
Gemäß einer Ausführungsform kann bei der Bestimmung bzw. Schätzung des Faktors d eine zeitliche Entwicklung des Faktors d berücksichtigt werden. According to one embodiment, a development of factor d over time can be taken into account when determining or estimating factor d.
Hierzu gehen in die Schätzung die zeitliche Entwicklung des Faktors d und eine Sequenz von Eingangsbildern ein. Information über die zeitliche Entwicklung der Helligkeit kann auch für Bildregionen mit unterschiedlichen Faktoren d herangezogen werden. For this purpose, the development of factor d over time and a sequence of input images are included in the estimate. Information about the temporal development of the brightness can also be used for image regions with different factors d.
Gemäß einer Ausführungsform werden bei der Bestimmung des Faktors d Informationen über die aktuelle Umgebung des Fahrzeugs berücksichtigt. Die Schätzung des Faktors d kann weitere Szeneninformationen berücksichtigen, wie Umgebungsinformationen (Landstraße, Stadt, Autobahn, Tunnel, Unterführung), die über Bildverarbeitung aus den Sensordaten oder Daten eines Navigationssystems (bspw. GPS Empfänger mit digitaler Karte) gewonnen werden. According to one embodiment, information about the current surroundings of the vehicle is taken into account when determining the factor d. The estimate of the factor d can take into account further scene information, such as information about the surroundings (country road, city, motorway, tunnel, underpass), which is obtained via image processing from the sensor data or data from a navigation system (e.g. GPS receiver with digital map).
Beispielsweise kann der Faktor d basierend auf Umgebungsinformationen und aus der zeitlichen Reihenfolge von Bildern als auch aus der Historie des Faktors d geschätzt werden. For example, the factor d can be estimated based on information about the surroundings and from the chronological sequence of images as well as from the history of the factor d.
Die Schätzung des Faktors d beim Einsatz eines trainierten künstlichen neuronalen Netzwerks kann somit dynamisch erfolgen. The estimation of the factor d when using a trained artificial neural network can thus take place dynamically.
In einer Ausführungsform erfolgt eine Ausgabe der umgewandelten Bilddaten an mindestens eine ADAS-Detektionsfunktion, welche ADAS-relevante Detektionen ermittelt und ausgibt. ADAS-Detektionsfunktionen können bekannte Kanten- bzw. Mustererkennungsverfahren umfassen sowie Erkennungsverfahren, die mittels eines künstlichen neuronalen Netzwerks relevante Bildobjekte erkennen und optional klassifizieren können. In one embodiment, the converted image data is output to at least one ADAS detection function which determines and outputs ADAS-relevant detections. ADAS detection functions can include known edge or pattern recognition methods as well as recognition methods which can recognize and optionally classify relevant image objects by means of an artificial neural network.
In einer alternativen Ausführungsform kann der Ansatz erweitert werden und das künstliche neuronale Netzwerk zur Umwandlung der Bilddaten kann mit einem neuronalen Netzwerk für ADAS-Detektionsfunktionen, z.B. Spurerkennung, Objekterkennung, Tiefenerkennung, semantische Erkennung, kombiniert werden. Somit wird kaum zusätzlicher Aufwand in der Rechenzeit verursacht. Nach dem Training kann die (erste) Ausgangsschnittstelle für die Ausgabe der umgewandelten Bilddaten eliminiert werden, so dass bei Einsatz im Fahrzeug nur die (zweite) Ausgangsschnittstelle für die ADAS-Detektionen vorhanden ist. In an alternative embodiment, the approach can be expanded and the artificial neural network for converting the image data can be combined with a neural network for ADAS detection functions, for example lane detection, object detection, depth detection, semantic detection. This means that there is hardly any additional effort in computing time. After the training, the (first) output interface for outputting the converted image data can be eliminated so that only the (second) output interface for the ADAS detections is available when used in the vehicle.
Die Erfindung betrifft weiterhin eine Vorrichtung mit mindestens einer Datenverarbeitungseinheit konfiguriert zur Umwandlung von Eingangs-Bilddaten einer Mehrzahl von Fahrzeugkameras eines Rundumsichtsystems in optimierte Ausgabe-Bilddaten. Die Vorrichtung umfasst: eine Eingangsschnittstelle, ein trainiertes künstliches neuronales Netzwerk und eine (erste) Ausgangsschnittstelle. The invention further relates to a device with at least one data processing unit configured to convert input image data from a plurality of vehicle cameras of a panoramic vision system into optimized output image data. The device comprises: an input interface, a trained artificial neural network and a (first) output interface.
Die Eingangsschnittstelle ist konfiguriert zum Empfangen von Eingangs-Bilddaten einer aktuellen Helligkeit oder Farbverteilung von den Fahrzeugkameras. Das trainierte künstliche neuronale Netzwerk ist dazu konfiguriert, die Eingangs-Bilddaten, die eine erste Helligkeit oder Farbverteilung aufweisen, in Ausgabe-Bilddaten mit abweichender Ausgabehelligkeit oder -farbverteilung umzuwandeln. The input interface is configured to receive input image data of a current brightness or color distribution from the vehicle cameras. The trained artificial neural network is configured to convert the input image data, which have a first brightness or color distribution, into output image data with a different output brightness or color distribution.
Die (erste) Ausgangsschnittstelle ist dazu konfiguriert, die umgewandelten Bilddaten auszugeben. The (first) output interface is configured to output the converted image data.
Die Vorrichtung bzw. die Datenverarbeitungseinheit kann insbesondere einen Mikrocontroller oder -Prozessor, eine Zentrale Verarbeitungseinheit (CPU), ein Grafische Verarbeitungseinheit (GPU), einen Digital Signal Processor (DSP), einen ASIC (Application Specific Integrated Circuit), einen FPGA (Field Programmable Gate Array) und dergleichen mehr sowie Software zur Durchführung der entsprechenden Verfahrensschritte umfassen. The device or the data processing unit can in particular be a microcontroller or processor, a central processing unit (CPU), a graphic processing unit (GPU), a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable) Gate array) and the like, as well as software for carrying out the corresponding method steps.
Gemäß einer Ausführungsform ist die Datenverarbeitungseinheit in eine hardwarebasierter Bildvorverarbeitungsstufe (Image Signal Processor, ISP) implementiert. According to one embodiment, the data processing unit is implemented in a hardware-based image preprocessing stage (Image Signal Processor, ISP).
In einer Ausführungsform ist das trainierte künstliche neuronale Netzwerk zur Umwandlung von Eingangs-Bilddaten in Ausgangs-Bilddaten mit optimierter Helligkeit oder Farbverteilung ein Bestandteil eines fahrzeugseitigen ADAS-Detektions-Neuronalen-Netzwerks, z.B. zur semantischen Segmentierung, Fahrspurdetektion bzw. Objektdetektion, mit einer geteilten Eingangsschnittstelle (Eingangs- bzw. Merkmalsrepräsentationsschichten), und zwei separaten Ausgangsschnittstellen (Ausgangsschichten) ist. Die erste Ausgangsschnittstelle ist zur Ausgabe der umgewandelten Ausgabebilddaten und die zweite Ausgangsschnittstelle ist zur Ausgabe der ADAS-Detektionen (Bilderkennungsdaten) konfiguriert. In one embodiment, the trained artificial neural network for converting input image data into output image data with optimized brightness or color distribution is part of an ADAS detection neural network in the vehicle, e.g. for semantic segmentation, lane detection or object detection, with a divided input interface (Input or feature representation layers), and two separate output interfaces (output layers). The first output interface is for Output of the converted output image data and the second output interface is configured to output the ADAS detections (image recognition data).
Die Erfindung betrifft weiterhin ein Computer Programmelement, welches, wenn damit eine Datenverarbeitungseinheit programmiert wird, die Datenverarbeitungseinheit dazu anweist, ein Verfahren zur Umwandlung von Eingangs-Bilddaten der Fahrzeugkameras in optimierte Ausgabe-Bilddaten durchzuführen. The invention further relates to a computer program element which, when a data processing unit is programmed with it, instructs the data processing unit to carry out a method for converting input image data from the vehicle cameras into optimized output image data.
Die Erfindung betrifft weiterhin ein Computerlesbares Speichermedium, auf dem ein solches Programmelement gespeichert ist. The invention also relates to a computer-readable storage medium on which such a program element is stored.
Die Erfindung betrifft weiterhin die Verwendung eines Verfahrens zum maschinellen Lernen einer Umwandlung von Eingangs-Bilddaten mehrerer Fahrzeugkameras eines Rundumsichtsystems in optimierte Ausgabe-Bilddaten zum Trainieren eines künstlichen neuronalen Netzwerks einer Vorrichtung mit mindestens einer Datenverarbeitungseinheit. The invention also relates to the use of a method for machine learning conversion of input image data from a plurality of vehicle cameras of a panoramic vision system into optimized output image data for training an artificial neural network of a device with at least one data processing unit.
Die vorliegende Erfindung kann somit in digitalen elektronischen Schaltkreisen, Computer-Hardware, Firmware oder Software implementiert sein. The present invention can thus be implemented in digital electronic circuitry, computer hardware, firmware, or software.
Im Folgenden werden Ausführungsbeispiele und Fig. näher beschrieben. Dabei zeigen Fig. 1: eine erste schematische Darstellung einer erfindungsgemäßen Vorrichtung in einer Ausgestaltung; Exemplary embodiments and figures are described in more detail below. 1 shows a first schematic representation of a device according to the invention in one embodiment;
Fig. 2: eine zweite schematische Darstellung einer erfindungsgemäßen Vorrichtung in einer Ausgestaltung in einem Fahrzeug; 2: a second schematic representation of a device according to the invention in an embodiment in a vehicle;
Fig. 3: schematisch eine allgemeine Übersicht eines Systems zur Umwandlung bzw. Sichtverbesserung von Fahrzeugkamerabildern; 3: schematically, a general overview of a system for converting or improving the visibility of vehicle camera images;
Fig. 4: ein System mit einem ersten neuronale Netz zur Sichtverbesserung; 4: a system with a first neural network for improving visibility;
Fig. 5: ein neuronales Netzwerk für die Sichtverbesserung eines Eingangsbildes, welches Merkmalsrepräsentationsschichten mit einem zweiten Netzwerk für die Detektionsfunktionen teilt und zwei Ausgänge aufweist; und Fig. 6: einen auf Fig. 5 basierenden abgewandelten Ansatz. 5 shows a neural network for improving the view of an input image, which shares feature representation layers with a second network for the detection functions and has two outputs; and FIG. 6 shows a modified approach based on FIG. 5.
Wie man aus Fig. 1 erkennen kann, kann eine erfindungsgemäße Vorrichtung zur 1 zur Umwandlung von Eingangs-Bilddaten von mehreren Fahrzeugkameras eines Rundumsichstsystems in optimierte Ausgabe-Bilddaten mehrere Einheiten bzw. Schaltungskomponenten aufweisen. Bei dem in Fig. 1 dargestellten Ausführungsbeispiel weist die Vorrichtung zur adaptiven Bildkorrektur mehrere Fahrzeugkameras 2-i auf, die jeweils Kamerabilder bzw. Videodaten erzeugen. Bei dem in Fig. 1 dargestellten Ausführungsbeispiel weist die Vorrichtung 1 vier Fahrzeugkameras 2-i zur Erzeugung von Kamerabildern auf. Die Anzahl der Fahrzeugkameras 2-i kann für unterschiedliche Anwendungen variieren. Die erfindungsgemäße Vorrichtung 1 weist mindestens zwei Fahrzeugkameras zur Erzeugung von Kamerabildern auf. Die Kamerabilder von benachbarten Fahrzeugkameras 2-i weisen typischerweise überlappende Bildbereiche auf. As can be seen from FIG. 1, a device according to the invention for 1 for converting input image data from several vehicle cameras of an all-round viewing system into optimized output image data can be several units or Have circuit components. In the exemplary embodiment shown in FIG. 1, the device for adaptive image correction has a plurality of vehicle cameras 2-i which each generate camera images or video data. In the exemplary embodiment shown in FIG. 1, the device 1 has four vehicle cameras 2-i for generating camera images. The number of vehicle cameras 2-i can vary for different applications. The device 1 according to the invention has at least two vehicle cameras for generating camera images. The camera images from neighboring vehicle cameras 2-i typically have overlapping image areas.
Die Vorrichtung 1 enthält eine Datenverarbeitungseinheit 3, welche die von den Fahrzeugkameras 2-i erzeugten Kamerabilder zu einem zusammengesetzten Gesamtbild zusammensetzt. Wie in Fig. 1 dargestellt, weist die Datenverarbeitungseinheit 3 ein System zur Bildumwandlung 4 auf. Das System zur Bildumwandlung 4 erzeugt aus den Eingangsbilddaten (Ini) der Fahrzeugkameras (2-i) Ausgangs- bzw. Ausgabebilddaten (Opti), die eine optimierte Helligkeit bzw. Farbverteilung aufweisen. Die optimierten Ausgabebilddaten der einzelnen Fahrzeugkameras werden zu einem zusammengesetzten Gesamtbild zusammengesetzt (sogenanntes Stitching). Das von der Bildverarbeitungseinheit 3 aus den optimierten Bilddaten (Opti) zusammengesetzte Gesamtbild wird anschließend durch eine Anzeigeeinheit 5 einem Nutzer angezeigt. Bei einer möglichen Ausführungsform wird für das System zur Bildumwandlung 4 durch eine eigenständige Hardwareschaltung gebildet, welche die Umwandlung der Helligkeit bzw. der Farbverteilung vornimmt. Bei einer alternativen Ausführungsform führt das System Programmbefehle bei Durchführung eines Verfahrens zur Bildumwandlung aus. The device 1 contains a data processing unit 3 which combines the camera images generated by the vehicle cameras 2-i to form a composite overall image. As shown in FIG. 1, the data processing unit 3 has a system for image conversion 4. The image conversion system 4 uses the input image data (Ini) of the vehicle cameras (2-i) to generate output or output image data (Opti) which have an optimized brightness or color distribution. The optimized output image data from the individual vehicle cameras are combined to form a composite overall image (so-called stitching). The overall image composed of the optimized image data (Opti) by the image processing unit 3 is then displayed to a user by a display unit 5. In one possible embodiment, the image conversion system 4 is formed by an independent hardware circuit which converts the brightness or the color distribution. In an alternative embodiment, the system executes program instructions when performing an image conversion method.
Die Datenverarbeitungseinheit 3 kann einen oder mehrere Bildverarbeitungsprozessoren aufweisen, wobei sie die von den verschiedenen Fahrzeugkameras 2-i empfangenen Kamerabilder bzw. Videodaten umwandelt und anschließend zu einem zusammengesetzten Gesamtbild zusammensetzt (Stitching). Bei einer möglichen Ausführungsform wird das System zur Bildumwandlung 4 durch einen dafür vorgesehenen Prozessor gebildet, welcher die Umwandlung der Helligkeit bzw. der Farbverteilung parallel zu dem oder den übrigen Prozessoren der Datenverarbeitungseinheit 3 vornimmt. Durch die parallele Datenverarbeitung wird die benötigte Zeit zur Verarbeitung der Bilddaten gesenkt. Figur 2 zeigt eine weitere schematische Darstellung einer erfindungsgemäßen Vorrichtung 1 in einer Ausgestaltung. Die in Fig. 2 dargestellte Vorrichtung 1 wird in einem Surround View System eines Fahrzeugs 10, insbesondere eines Personenkraftwagens oder eines Lastkraftwagens, eingesetzt. Hierbei können sich die vier verschiedenen Fahrzeugkameras 2-1 , 2-2, 2-3, 2-4 an verschiedenen Seiten des Fahrzeugs 10 befinden und weisen entsprechende Sichtbereiche (gestrichelte Linien) vor V, hinter H, links L und rechts R dem bzw. des Fahrzeug(s) 10 auf. The data processing unit 3 can have one or more image processing processors, converting the camera images or video data received from the various vehicle cameras 2-i and then putting them together to form a composite overall image (stitching). In one possible embodiment, the image conversion system 4 is formed by a processor provided for this purpose, which converts the brightness or the color distribution in parallel with the other processor or processors of the data processing unit 3. The parallel data processing reduces the time required to process the image data. Figure 2 shows a further schematic representation of a device 1 according to the invention in one embodiment. The device 1 shown in FIG. 2 is used in a surround view system of a vehicle 10, in particular a passenger car or a truck. The four different vehicle cameras 2-1, 2-2, 2-3, 2-4 can be located on different sides of the vehicle 10 and have corresponding viewing areas (dashed lines) in front of V, behind H, left L and right R the or . of the vehicle (s) 10.
Beispielsweise befindet sich die erste Fahrzeugkamera 2-1 an einer Vorderseite des Fahrzeugs 10, die zweite Fahrzeugkamera 2-2 an einer Hinterseite des Fahrzeugs 10, die dritte Fahrzeugkamera 2-3 an der linken Seite des Fahrzeugs 10 und die vierte Fahrzeugkamera 2-4 an der rechten Seite des Fahrzeugs 10. Die Kamerabilder von zwei benachbarten Fahrzeugkameras 2-i weisen überlappende Bildbereiche VL, VR, HL, HR auf. Bei den Fahrzeugkameras 2-i handelt es sich bei einer möglichen Ausführungsform um sogenannte Fischaugenkameras, die einen Blickwinkel von mindestens 185° aufweisen. Die Fahrzeugkameras 2-i können die Kamerabilder bzw. Kamera-Bild-Frames bzw. Videodaten bei einer möglichen Ausführungsform über eine Ethernet-Verbindung an die Datenverarbeitungseinheit 3 übertragen. Die Datenverarbeitungseinheit 3 berechnet aus den Kamerabildern der Fahrzeugkameras 2-i ein zusammengesetztes Surround-View-Kamerabild, das auf der Anzeige 5 des Fahrzeugs 10 dem Fahrer und/oder einem Passagier angezeigt wird. In manchen Fällen weichen die Lichtverhältnisse in der Umgebung bei der vorderen Fahrzeugkamera 2-1 und bei der hinteren Fahrzeugkamera 2-2 während der Fahrt voneinander ab, beispielsweise bei der Einfahrt in einen Fahrzeugtunnel oder beim Einfahren in eine Fahrzeuggarage. For example, the first vehicle camera 2-1 is located on a front side of the vehicle 10, the second vehicle camera 2-2 is located on a rear side of the vehicle 10, the third vehicle camera 2-3 is located on the left side of the vehicle 10, and the fourth vehicle camera 2-4 is on the right side of the vehicle 10. The camera images from two adjacent vehicle cameras 2-i have overlapping image areas VL, VR, HL, HR. In one possible embodiment, the vehicle cameras 2-i are so-called fisheye cameras which have a viewing angle of at least 185 °. The vehicle cameras 2 - i can transmit the camera images or camera image frames or video data in one possible embodiment to the data processing unit 3 via an Ethernet connection. The data processing unit 3 calculates a composite surround view camera image from the camera images of the vehicle cameras 2-i, which is displayed on the display 5 of the vehicle 10 to the driver and / or a passenger. In some cases, the light conditions in the surroundings deviate from each other in the front vehicle camera 2-1 and in the rear vehicle camera 2-2 while driving, for example when entering a vehicle tunnel or when driving into a vehicle garage.
Bei einer dunklen Umgebung des Fahrzeugs 10 leuchten die aktivierten Frontscheinwerfer den vorderen Bereich V vor dem Fahrzeug 10 mit weißem Licht und relativ hoher Intensität aus, die Heckscheinwerfer den hinteren Bereich H hinter dem Fahrzeug mit rotem Licht und mittlerer Intensität. Dagegen sind die Bereiche links L und rechts R neben dem Fahrzeug 10 nahezu unbeleuchtet. When the surroundings of vehicle 10 are dark, the activated front headlights illuminate the front area V in front of vehicle 10 with white light and relatively high intensity, and the rear headlights illuminate the rear area H behind the vehicle with red light and medium intensity. In contrast, the areas to the left L and right R next to the vehicle 10 are virtually unlit.
Bei einem gleichzeitigen bzw. gemeinsamen Training eines künstlichen neuronalen Netzwerks mit dunklen Bildern (beispielsweise für die Seitenkameras 2-3, 2-4) und hellen Bildern (beispielsweise für die Front- 2-1 und Rearviewkameras 2-2) lernt das neuronale Netz optimale Parameter. Bei dem gemeinsamen Training für mehrere Fahrzeugkameras 2-i werden in einer ersten Anwendung bevorzugt Groundtruth-Daten verwendet, welche eine für alle Zielkameras 2-1 , 2-2, 2-3, 2-4 angewandte Helligkeit und Balance aufweisen. Mit anderen Worten sind die Groundtruth-Daten für alle Zielkameras 2-1, 2-2, 2-3, 2-4 derart ausbalanciert, dass beispielsweise bei einer Surroundview-Anwendung keine Helligkeitsunterschiede in den Groundtruth-Daten erkennbar sind. Mit diesen Groundtruth-Daten als Referenz und den Eingangsdaten der Zielkameras 2-1 , 2-2, 2-3, 2-4, die unterschiedliche Helligkeiten haben können, wird ein neuronales Netz CNN1, CNN10, CNN11, CNN12, hinsichtlich eines optimalen Parametersets für das Netz trainiert. Dieser Datensatz kann beispielsweise aus Bildern mit weißem und rotem Scheinwerferlicht für die Frontkameras 2-1 und Rückkameras 2-2, und dunklen Bildern für die Seitenkameras 2-3, 2-4 bestehen. Denkbar sind ebenfalls Daten mit unterschiedlich ausgeleuchteten Seitenbereichen L, R, beispielsweise wenn sich das Fahrzeug 10 neben einer Straßenlaterne befindet, oder das Fahrzeug 10 auf einer Seite eine zusätzliche Lichtquelle aufweist. With a simultaneous or joint training of an artificial neural network with dark images (for example for the side cameras 2-3, 2-4) and bright images (for example for the front 2-1 and rearview cameras 2-2), the neural network learns optimally Parameter. In the joint training for a plurality of vehicle cameras 2-i, ground truth data are preferably used in a first application, which have a brightness and balance used for all target cameras 2-1, 2-2, 2-3, 2-4. In other words, the ground truth data for all target cameras 2-1, 2-2, 2-3, 2-4 are balanced in such a way that, for example, in a surround view application, no differences in brightness are discernible in the ground truth data. With this ground truth data as a reference and the input data from the target cameras 2-1, 2-2, 2-3, 2-4, which can have different brightnesses, a neural network CNN1, CNN10, CNN11, CNN12 is created with regard to an optimal parameter set trained for the network. This data record can consist, for example, of images with white and red headlights for the front cameras 2-1 and rear cameras 2-2, and dark images for the side cameras 2-3, 2-4. Data with differently illuminated side areas L, R are also conceivable, for example when the vehicle 10 is located next to a street lamp or the vehicle 10 has an additional light source on one side.
In einer weiteren Anwendung kann das neuronale Netz für die gemeinsamen Kameras 2-i dahingehend trainiert werden, dass auch im Falle von fehlenden Trainingsdaten und Groundtruth-Daten für eine Kamera, beispielsweise einer Seitenkamera 2-3 oder 2-4, das Netz die Parameter für diese Kamera 2-3 oder 2-4 mit den fehlenden Daten basierend auf den Trainingsdaten der anderen Kameras 2-1 , 2-2 und 2-4 oder 2-3 trainiert und optimiert. Dies kann beispielsweise als Einschränkung (bzw. Constraint) im Training des Netzes erreicht werden, beispielsweise als Annahme, dass die Korrektur und Training aufgrund ähnlicher Lichtverhältnisse der Seitenkameras 2-3 und 2-4 immer gleich sein muss. In a further application, the neural network for the common cameras 2-i can be trained to the effect that even in the case of missing training data and ground truth data for a camera, for example a side camera 2-3 or 2-4, the network can set the parameters for this camera 2-3 or 2-4 is trained and optimized with the missing data based on the training data of the other cameras 2-1, 2-2 and 2-4 or 2-3. This can be achieved, for example, as a restriction (or constraint) in the training of the network, for example as an assumption that the correction and training must always be the same due to similar lighting conditions of the side cameras 2-3 and 2-4.
In einem letzten Beispiel nutzt das neuronale Netz zeitlich unterschiedliche und mit den Kameras 2-i korrelierte Trainings- und Groundtruth-Daten, welche durch die verschiedenen Kameras 2-i zu unterschiedlichen Zeitpunkten aufgenommen wurde. Dazu können Informationen von Features oder Objekten und deren Groundtruth-Daten verwendet werden, welche beispielsweise zu einem Zeitpunkt t von der Frontkamera 2-1 und zu einem Zeitpunkt t+n von den Seitenkameras 2-3, 2-4 aufgenommen wurden. Diese Feature oder Objekte und deren Groundtruth-Daten können fehlende Informationen in den Training- und Grorundtruth-Daten der jeweils anderen Kameras ersetzen, wenn sie in den Bildern der anderen Kameras 2-i und dann vom Netz als Trainingsdaten verwendet werden. Auf diese Weise kann das Netz die Parameter für alle Seitenkameras 2-3, 2-4 optimieren, und gegebenenfalls fehlende Informationen in den Trainingsdaten kompensieren. In a final example, the neural network uses training and ground truth data that differ over time and that are correlated with the cameras 2-i and that were recorded by the various cameras 2-i at different points in time. For this purpose, information from features or objects and their ground truth data can be used which, for example, were recorded at a point in time t by the front camera 2-1 and at a point in time t + n by the side cameras 2-3, 2-4. These features or objects and their ground truth data can replace missing information in the training and basic truth data of the respective other cameras if they are used in the images of the other cameras 2-i and then by the network as training data. In this way the network can set the parameters for Optimize all side cameras 2-3, 2-4 and, if necessary, compensate for missing information in the training data.
Dies führt bei der Verwendung von mehreren Fahrzeugkameras 2-i zu einer angepassten Helligkeit und Balance für alle Fahrzeugkameras 2-i, da die individuellen Beleuchtungsprofile im Außenraum im Gesamtverbund explizit erfasst und trainiert werden. When using several vehicle cameras 2-i, this leads to an adapted brightness and balance for all vehicle cameras 2-i, since the individual lighting profiles in the exterior space are explicitly recorded and trained in the overall network.
Fig. 3 zeigt schematisch eine allgemeine Übersicht eines Systems zur Umwandlung bzw. Sichtverbesserung von Kamerabildern. Wesentlicher Bestandteil ist ein künstliches neuronales Netzwerk CNN1, welches in einer Trainingsphase lernt, einem Satz von Trainingsbildern In (In1, In2, In3, ...) einen Satz von korrespondieren sichtverbesserten Bildern Out (Out1, Out2, Out3, ...) zuzuordnen. Zuordnen heißt hierbei, dass das neuronale Netz CNN1 lernt, ein sichtverbessertes Bild zu generieren. Ein Trainingsbild (In1, In2, In3, ...) kann z.B. eine Straßenszene bei Dämmerung enthalten, auf dem mit dem menschlichen Auge nur ein unmittelbar vor dem Fahrzeug befindliches weiteres Fahrzeug und der Himmel erkennbar sind. Auf dem korrespondierenden sichtverbesserten Bild (Out1, Out2, Out3, ...) sind zusätzlich die Konturen des weiteren Fahrzeugs, ein Bürgersteig als Fahrbahnbegrenzung und angrenzende Gebäude erkennbar. 3 schematically shows a general overview of a system for converting or improving the view of camera images. An essential component is an artificial neural network CNN1, which learns in a training phase to assign a set of corresponding vision-improved images Out (Out1, Out2, Out3, ...) to a set of training images In (In1, In2, In3, ...) . Assigning means here that the neural network CNN1 learns to generate an image with improved vision. A training image (In1, In2, In3, ...) can contain, for example, a street scene at dusk, on which the human eye can only see another vehicle immediately in front of the vehicle and the sky. On the corresponding image with improved visibility (Out1, Out2, Out3, ...), the contours of the other vehicle, a sidewalk as a lane boundary and adjacent buildings can also be seen.
Vorzugsweise dient ein Faktor d als zusätzliche Eingangsgröße für das neuronale Netz CNN1. Der Faktor d ist ein Maß für den Grad der Sichtverbesserung. Beim Training kann der Faktor d für ein Bildpaar aus Trainingsbild und sichtverbessertem Bild (In1, Out1 ; In2, Out2; In3, Out3; ...) vorab ermittelt und dem neuronalen Netz CNN1 bereitgestellt werden. Beim Einsatz des trainierten neuronalen Netzes CNN1 kann über die Vorgabe eines Faktors d gesteuert werden, wie stark das neuronale Netz CNN1 ein Bild „erhellt“ bzw. „abdunkelt“ - man kann sich den Faktor d auch als einen externen Regressionsparameter vorstellen (nicht nur hell - dunkel, sondern mit einer beliebigen Abstufung). Da der Faktor d möglichen Schwankungen im Bereich von +/- 10% unterliegen kann, wird dies während des Trainings berücksichtigt. Der Faktor d kann während des Trainings um circa +/- 10% verrauscht werden (z.B., während der verschiedenen Epochen des Trainings des neuronalen Netzwerkes), um währen der Inferenz im Fahrzeug robust gegenüber Fehlschätzungen des Faktors d im Bereich von ca. +/- 10% zu sein. Mit anderen Worten liegt Ddie nötige Genauigkeit von Faktor d liegt im Bereich von +/- 10% - somit ist das neuronale Netz CNN1 robust gegenüber Abweichungen bei Schätzungen von diesem Parameter. Eine Möglichkeit zur Erzeugung der Trainingsdaten (Trainingsbilder (In1, In2, In3, ...) und zugeordnete sichtverbesserte Bilder (Out1, Out2, Out3, ...)) besteht in der Aufnahme von Bilddaten einer Szene mit jeweils einer kurzen und zeitgleich bzw. unmittelbar aufeinander folgend mit einer langen Belichtungszeit. Darüberhinausgehend können für eine Szene Bildpaare (In1, Out1; In2, Out2; In3, Out3; ...) mit verschiedenen Faktoren d aufgenommen werden, um so ein kontinuierliches Spektrum für die Sichtverbesserung abhängig von dem Parameter bzw. Faktor d zu lernen. Vorzugsweise ist die Fahrzeugkamera 2-i während der Erzeugung der Trainingsdaten stationär (unbewegt) gegenüber der zu erfassenden Umgebung. Beispielsweise können die Trainingsdaten mittels einer Fahrzeukamera 2-i eines stehenden Fahrzeugs 10 erfasst werden. Die von der Fahrzeugkamera 2-i erfasste Szene kann insbesondere eine statische Umgebung beinhalten, also ohne bewegte Objekte. A factor d is preferably used as an additional input variable for the neural network CNN1. The factor d is a measure of the degree of visibility improvement. During training, the factor d for an image pair consisting of the training image and the image with improved vision (In1, Out1; In2, Out2; In3, Out3; ...) can be determined in advance and made available to the neural network CNN1. When using the trained neural network CNN1, a factor d can be used to control how strongly the neural network CNN1 "brightens" or "darkens" an image - one can also think of factor d as an external regression parameter (not just bright - dark, but with any gradation). Since the factor d can be subject to possible fluctuations in the range of +/- 10%, this is taken into account during training. The factor d can be noisy during the training by approx. +/- 10% (e.g. during the different epochs of the training of the neural network), in order to be robust against incorrect estimates of the factor d in the range of approx. +/- during the inference in the vehicle. To be 10%. In other words, the necessary accuracy of factor d is in the range of +/- 10% - thus the neural network CNN1 is robust against deviations in estimates from this parameter. One possibility for generating the training data (training images (In1, In2, In3, ...) and associated vision-enhanced images (Out1, Out2, Out3, ...)) is to record image data of a scene, each with a short and simultaneous or . in immediate succession with a long exposure time. In addition, image pairs (In1, Out1; In2, Out2; In3, Out3; ...) with different factors d can be recorded for a scene in order to learn a continuous spectrum for the improvement of vision depending on the parameter or factor d. The vehicle camera 2-i is preferably stationary (immobile) with respect to the surroundings to be recorded during the generation of the training data. For example, the training data can be recorded by means of a vehicle camera 2 - i of a stationary vehicle 10. The scene captured by the vehicle camera 2-i can in particular contain a static environment, that is to say without moving objects.
Wenn das neuronale Netz CNN1 trainiert ist, erfolgt eine Sichtverbesserung nach folgendem Schema: When the neural network CNN1 has been trained, the vision is improved according to the following scheme:
Eingangsbild Faktor d - CNN1 Input image Factor d - CNN1
CNN1 sichtverbessertes Ausgangs-/Ausgabebild. CNN1 visually enhanced source / output image.
Fig. 4 zeigt ein System mit einem trainierten neuronalen Netz CNN1 zur Sichtverbesserung. Das trainierte neuronale Netz CNN1 erhält ursprüngliche Eingangsbilddaten (Ini) der mehreren Kameras 2-i als Input. Ein Faktor d kann vorgegeben oder durch das neuronale Netz CNN1 selbst anhand der Eingangsbilddaten (Ini) bestimmt werden. Der Faktor d gibt vor (steuert), wie stark die Eingangsbilddaten umgewandelt werden sollen. Das neuronale Netz berechnet sichtverbesserte Bilddaten (Opti) der mehreren Kameras 2-i. Die optimierten Bilddaten (Opti) der mehreren Kameras 2-i werden ausgegeben. 4 shows a system with a trained neural network CNN1 for improving visibility. The trained neural network CNN1 receives original input image data (Ini) from the multiple cameras 2-i as input. A factor d can be specified or determined by the neural network CNN1 itself on the basis of the input image data (Ini). The factor d specifies (controls) how strongly the input image data should be converted. The neural network calculates image data (Opti) with improved visibility from the multiple cameras 2-i. The optimized image data (Opti) of the multiple cameras 2-i are output.
Die Fig. 5 und 6 zeigen Ausführungsbeispiele für mögliche Kombinationen eines ersten Netzwerks für die Sichtverbesserung mit einem oder mehreren Netzwerken der Funktionen für Fahrerassistenzfunktionen und Automatisiertes Fahren. FIGS. 5 and 6 show exemplary embodiments for possible combinations of a first network for improving visibility with one or more networks of the functions for driver assistance functions and automated driving.
Fig. 5 zeigt ein neuronales Netzwerk CNN10 für die Sichtverbesserung eines Eingangsbildes (Ini) ggfs gesteuert durch einen Faktor d, welches Merkmalsrepräsentationsschichten (als Eingangs- bzw. untere Schichten) mit einem Netzwerk für Detektionsfunktionen (fn1, fn2, fn3, fn4) teilt. Die Detektionsfunktionen (fn1 , fn2, fn3, fn4) sind hierbei Bildverarbeitungsfunktionen, die für ADAS oder AD-Funktionen relevante Objekte, Strukturen, Eigenschaften (allgemein: Merkmale) in den Bilddaten detektieren. Viele solcher Detektionsfunktionen (fn1, fn2, fn3, fn4), die auf maschinellem Lernen beruhen, sind bereits entwickelt oder Gegenstand aktueller Entwicklung (z.B: Verkehrszeichenklassifikation, Objektklassifikation, semantische Segmentierung, Tiefenschätzung, Fahrspurmarkierungserkennung und -lokalisierung). Auf sichtverbesserten Bildern (Opti) liefern Detektionsfunktionen (fn1, fn2, fn3, fn4) des zweiten neuronalen Netzes CNN2 bessere Ergebnisse als auf den ursprünglichen Eingangsbilddaten (Ini) bei schlechten Sichtverhältnissen. In den Merkmalsrepräsentationsschichten des neuronalen Netzwerks CNN 10 werden gemeinsame Merkmale für die Sichtverbesserung und für die Detektionsfunktionen gelernt. 5 shows a neural network CNN10 for improving the view of an input image (Ini), possibly controlled by a factor d, which Share feature representation layers (as input or lower layers) with a network for detection functions (fn1, fn2, fn3, fn4). The detection functions (fn1, fn2, fn3, fn4) are image processing functions that detect objects, structures, properties (generally: features) in the image data that are relevant for ADAS or AD functions. Many such detection functions (fn1, fn2, fn3, fn4), which are based on machine learning, have already been developed or are the subject of current developments (e.g. traffic sign classification, object classification, semantic segmentation, depth estimation, lane marking recognition and localization). Detection functions (fn1, fn2, fn3, fn4) of the second neural network CNN2 deliver better results on visually enhanced images (Opti) than on the original input image data (Ini) in poor visibility conditions. In the feature representation layers of the neural network CNN 10, common features for the improvement of vision and for the detection functions are learned.
Das neuronale Netz CNN10 mit geteilten Eingangsschichten und zwei separaten Ausgängen weist einen erster Ausgang CNN 11 zur Ausgabe des sichtverbesserten Ausgangs-/Ausgabebildes (Opti) sowie einen zweiten Ausgang CNN 12 zur Ausgabe der Detektionen: Objekte, Tiefe, Spur, Semantik, etc. auf. The neural network CNN10 with divided input layers and two separate outputs has a first output CNN 11 for outputting the visually enhanced output / output image (Opti) and a second output CNN 12 for outputting the detections: objects, depth, trace, semantics, etc. .
Dadurch, dass beim Training die Merkmalsrepräsentationsschichten sowohl hinsichtlich der Sichtverbesserung als auch der Detektionsfunktionen (fn1, fn2, fn3, fn4) optimiert werden, bewirkt eine Optimierung der Sichtverbesserung zugleich eine Verbesserung der Detektionsfunktionen (fn1 , fn2, fn3, fn4). Because the feature representation layers are optimized during training with regard to both the vision improvement and the detection functions (fn1, fn2, fn3, fn4), an optimization of the vision improvement also leads to an improvement in the detection functions (fn1, fn2, fn3, fn4).
Falls nun eine Ausgabe des sichtverbesserten Bildes (Opti) nicht gewünscht bzw. nicht erforderlich ist, kann der Ansatz weiter variiert werden, wie anhand von Fig. 5 erläutert wird. If an output of the visually improved image (Opti) is not desired or not required, the approach can be varied further, as is explained with reference to FIG. 5.
Fig. 6 zeigt einen auf dem System der Fig. 5 basierenden Ansatz zur neuronalen-Netz-basierten Sichtverbesserung durch Optimierung der Merkmale. Um Rechenzeit zu sparen, werden die Merkmale für die Detektionsfunktionen (fn1, fn2, fn3, fn4) während des Trainings hinsichtlich Sichtverbesserung und hinsichtlich der Detektionsfunktionen (fn1 , fn2, fn3, fn4) optimiert. FIG. 6 shows an approach based on the system of FIG. 5 for neural network-based vision improvement by optimizing the features. In order to save computing time, the features for the detection functions (fn1, fn2, fn3, fn4) are optimized during training with regard to improved visibility and with regard to the detection functions (fn1, fn2, fn3, fn4).
Zur Laufzeit, d.h. beim Einsatz des trainierten neuronalen Netzes (CNN10, CNN11, CNN 12), werden keine sichtverbesserten Bilder (Opti) berechnet. Dennoch sind die Detektionsfunktionen (fn1, fn2, fn3, fn4) - wie bereits erläutert - durch das gemeinsame Training von Sichtverbesserung und Detektionsfunktionen verbessert verglichen mit einem System mit nur einem neuronalen Netz (CNN2) für Detektionsfunktionen (fn1, fn2, fn3, fn4), bei dem im Training auch nur die Detektionsfunktionen (fn1 , fn2, fn3, fn4) optimiert worden sind. During runtime, ie when using the trained neural network (CNN10, CNN11, CNN 12), no visually enhanced images (Opti) are calculated. Nevertheless, the detection functions (fn1, fn2, fn3, fn4) - as already explained - are improved by the joint training of vision improvement and detection functions compared to a system with only one neural network (CNN2) for detection functions (fn1, fn2, fn3, fn4) , in which only the detection functions (fn1, fn2, fn3, fn4) have been optimized during training.
In der Trainingsphase wird durch eine zusätzliche Ausgangsschnittstelle (CNN11) das helligkeitsverbesserte Bild (Opti) ausgegeben und mit der Ground Truth (dem korrespondierenden sichtverbesserten Trainingsbild) verglichen. In der Testphase bzw. zur Laufzeit kann dieser Ausgang (CNN11) weiterverwendet werden oder, um Rechenzeit zu sparen, abgeschnitten werden. Die Gewichte für die Detektionsfunktionen (fn1, fn2, fn3, fn4) werden bei diesem Training mit dem zusätzlichen Ausgang (CNN11) dahingehend modifiziert, dass sie die Helligkeitsverbesserungen für die Detektionsfunktionen (fn1, fn2, fn3, fn4) berücksichtigen. Die Gewichte der Detektionsfunktionen (fn1, fn2, fn3, fn4) lernen somit implizit die Information über die Helligkeitsverbesserung. In the training phase, an additional output interface (CNN11) outputs the improved brightness image (Opti) and compares it with the ground truth (the corresponding training image with improved visibility). This output (CNN11) can continue to be used in the test phase or during runtime, or it can be cut off to save computing time. The weights for the detection functions (fn1, fn2, fn3, fn4) are modified in this training with the additional output (CNN11) so that they take into account the brightness improvements for the detection functions (fn1, fn2, fn3, fn4). The weights of the detection functions (fn1, fn2, fn3, fn4) thus implicitly learn the information about the brightness improvement.
Weitere Aspekte und Ausführungsformen eines auf Surroundviewkameras basierten Assistenzsystems, welches die Bilddaten trotz Dunkelheit und fehlenden Farbinformationen algorithmisch in eine Darstellung umrechnet, welche eine Aufnahme bei Ausleuchtung oder Tageslicht entspricht, werden im Folgenden dargelegt. Das umgerechnete Bild kann entweder zu reinen Anzeigezwecken oder als Input für featurebasierte Erkennungsalgorithmen dienen. Further aspects and embodiments of an assistance system based on surround view cameras, which algorithmically converts the image data, despite darkness and lack of color information, into a representation that corresponds to a recording with illumination or daylight are set out below. The converted image can either be used for display purposes only or as input for feature-based recognition algorithms.
1a) In einer ersten Ausführung basiert die Berechnung in einem System beispielsweise auf einem neuronalen Netz, welches einer Detektions- oder Anzeigeeinheit vorgelagert ein sehr dunkles Eingangsbild mit wenig Kontrast und Farbinformationen in eine beispielsweise taghelle Repräsentation umwandelt. Für diese Aufgabe wurde das neuronale Netz mit einem Datensatz bestehend aus „dunklen Eingangsbildern“ und den dazugehörigen „taghellen Bildern“ trainiert. 1a) In a first embodiment, the calculation in a system is based, for example, on a neural network which, upstream of a detection or display unit, converts a very dark input image with little contrast and color information into a, for example, daylight representation. For this task, the neural network was trained with a data set consisting of “dark input images” and the associated “daylight images”.
Dieses Training kann für jede Fahrzeugkamera individuell durchgeführt werden, so dass eine Umrechnung für jede einzelne Fahrzeugkamera individuell stattfindet. Ein individuelles Training für jede Fahrzeugkamera bietet den Vorteil einer Redundanz im Gesamtsystem. Je nach Art des Trainings kann das neuronale Netz Verfahren wie White Balancing, Gamma Correction und Histogram Equalization in einer sehr idealen Weise nachbilden, und zusätzliche, in der Netzwerkstruktur gespeicherten Informationen nutzen, um fehlende Färb- oder Kontrastinformationen automatisch zu ergänzen. Auf diese Art lassen sich sehr dunkle Bilder in eine Darstellung umwandeln, welche für eine featurebasierte Erkennung und eine Betrachtung vorteilhaft ist. This training can be carried out individually for each vehicle camera, so that a conversion takes place individually for each individual vehicle camera. Individual training for each vehicle camera offers the advantage of redundancy in the overall system. Depending on the type of training, the neural network can reproduce processes such as white balancing, gamma correction and histogram equalization in a very ideal way, and additional ones stored in the network structure Use information to automatically add missing color or contrast information. In this way, very dark images can be converted into a representation which is advantageous for feature-based recognition and viewing.
1b) In einem alternativen Training können auch alle Fahrzeugkameras gleichzeitig trainiert werden. Dies hätte den Vorteil, dass das Netz bei einem gleichzeitigen Training mit dunklen Bildern (beispielsweise für die Seitenkameras) und hellen Bildern (beispielsweise für die Front- und Rearviewkameras) optimale Parameter lernt. Dies führt bei der Verwendung von mehreren Fahrzeugkameras zu einer angepassten Helligkeit und Balance für alle Fahrzeugkameras, da die individuellen Beleuchtungsprofile im Außenraum im Gesamtverbund explizit erfasst und trainiert werden. 1b) In an alternative training, all vehicle cameras can also be trained at the same time. This would have the advantage that the network learns optimal parameters when training with dark images (for example for the side cameras) and bright images (for example for the front and rearview cameras) at the same time. When using several vehicle cameras, this leads to an adapted brightness and balance for all vehicle cameras, since the individual lighting profiles in the exterior are explicitly recorded and trained in the overall network.
Beim Training wird durch eine Vorgabe entsprechender Soll-Ausgabe-Bilder (Ground Truth Daten) ermöglicht, dass das Netzwerk lernt, die unterschiedlichen Bilder der einzelnen Fahrzeugkameras umzuwandeln in Bilder mit optimierter Helligkeit und/oder Farbverteilung. Als optimal kann beispielsweise gelten, dass Helligkeit bzw. Farbverteilung im überlappenden Sichtbereich benachbarter Fahrzeugkameras gleich oder nahezu gleich sind. Indem Ground Truth Daten für sämtliche Fahrzeugkameras verwendet werden, die alle in Helligkeit bzw. Farbverteilung dem optimierten Bild der Frontkamera entsprechen, sind später bei Einsatz des trainierten neuronalen Netzes stets die umgewandelten Bilder aller Fahrzeugkameras ideal, um daraus mittels Stitching ein zusammengesetztes Bild für die Anzeigeeinheit zu erzeugen. During training, the specification of corresponding target output images (ground truth data) enables the network to learn to convert the different images from the individual vehicle cameras into images with optimized brightness and / or color distribution. For example, it can be considered optimal that the brightness or color distribution in the overlapping field of view of adjacent vehicle cameras are the same or almost the same. By using ground truth data for all vehicle cameras, which all correspond to the optimized image of the front camera in terms of brightness or color distribution, the converted images from all vehicle cameras are always ideal later when the trained neural network is used, in order to use stitching to create a composite image for the display unit to create.
Das Training kann in einer Ausführungsform Ground Truth Daten vorsehen, die Ergebnis einer Bildsimulation oder einer Bildsynthese sind. Beispielsweise können die Soll-Ausgabe-Bilder der seitlichen Fahrzeugkameras unter Berücksichtigung realer Front- und Rückbilder simuliert oder synthetisiert werden. In one embodiment, the training can provide ground truth data which are the result of an image simulation or an image synthesis. For example, the target output images from the side vehicle cameras can be simulated or synthesized taking real front and rear images into account.
2) In einer weiteren Ausführung kann dieses Verfahren in einer hardwarebasierten Bildvorverarbeitungsstufe, der ISP (Image Signal Processor), integriert sein. Diese ISP wird hardwareseitig um ein kleines trainiertes neuronales Netz ergänzt, welches die entsprechende Umwandlung vornimmt und die aufbereiteten Informationen mit den Originaldaten möglichen Detektions- oder Anzeigeverfahren zur Verfügung stellt. 3) Dieses Verfahren kann in einer weiteren Anwendung dahingehend angewandt werden, dass es wie bei einem Surroundviewsystem vorkommend Bilder mit unterschiedlichen Beleuchtungsprofilen zu einem Gesamtbild mit ausgewogener Beleuchtung verrechnet. Als Beispiel sei die Anzeige der Fahrzeugumgebung auf einem Display bei einer unbeleuchteten Landstraße genannt, wo die Bereiche der vorderen und hinteren Fahrzeugkameras durch Scheinwerfer ausgeleuchtet sind, die seitlichen Bereiche allerdings keine Aufhellung durch Scheinwerfer erfahren. 2) In a further embodiment, this method can be integrated in a hardware-based image preprocessing stage, the ISP (Image Signal Processor). On the hardware side, this ISP is supplemented by a small, trained neural network, which carries out the corresponding conversion and provides the processed information with the original data for possible detection or display methods. 3) This method can be used in a further application in such a way that, as with a surround view system, it calculates images with different lighting profiles to form an overall image with balanced lighting. An example is the display of the vehicle surroundings on a display on an unlit country road, where the areas of the front and rear vehicle cameras are illuminated by headlights, but the lateral areas are not illuminated by headlights.
4) In einer weiteren Ausführung kann das System mit dem neuronalen Netz dahingehend trainiert werden, dass es Informationen aus den besser beleuchteten Bereichen nutzt, um die Umrechnung für die unbeleuchteten Bereiche weiter zu verbessern. Hier wird das Netz dann weniger mit Einzelbildern für jede Fahrzeugkamera individuell trainiert, sondern als Gesamtsystem bestehend aus mehreren Kamerasystemen. 4) In a further embodiment, the system with the neural network can be trained to use information from the better-lit areas in order to further improve the conversion for the unlit areas. Here, the network is trained less with individual images for each vehicle camera, but rather as an overall system consisting of several camera systems.
5) In einer weiteren Anwendung können dem Netz zum Trainieren neben Beleuchtungsinformationen und Bilddaten Informationen zur Bildqualität zur Verfügung gestellt werden. Dahingehend kann das System und das Verfahren dahingehend optimiert werden, dass es für Computer Vision und Human Vision optimierte Bilddaten berechnet. 5) In a further application, in addition to lighting information and image data, information on image quality can be made available to the network for training purposes. To this end, the system and the method can be optimized in such a way that it calculates image data optimized for computer vision and human vision.
6) In einer weiteren Ausführung wird die Recheneffizienz optimiert. Hierzu wird kein separates neuronales Netzwerk für die Rekonstruktion der sichtverbesserten Nachtbilder benötigt, stattdessen wird eines der operativen Netzwerke im Fahrzeug hierzu herangezogen, z.B. ein Netzwerk für die semantische Segmentierung, die Fahrspurerkennung, die Objekterkennung oder ein Multi-Task-Netzwerk. 6) In a further embodiment, the computing efficiency is optimized. No separate neural network is required for the reconstruction of the night images with improved visibility; instead, one of the operational networks in the vehicle is used for this purpose, e.g. a network for semantic segmentation, lane recognition, object recognition or a multi-task network.
Diesem Netzwerk wird eine oder mehrere weitere Ausgangsschicht(en) hinzugefügt, welche für die Rekonstruktion der sichtverbesserten Nachtbilder zuständig ist. Während des Trainings werden die Trainingsdaten für die Nachtsichtverbesserung für die Berechnung dieser Ausgangsschicht verwendet. One or more further output layer (s) is added to this network, which is responsible for the reconstruction of the vision-enhanced night images. During the training, the training data for the night vision improvement is used for the calculation of this initial layer.
Während der Laufzeit im Fahrzeug sind zwei unterschiedliche Ausführungen umsetzbar: a) Die Rekonstruktion der sichtverbesserten Aufnahmen wird weiteren Funktionen zur Verfügung gestellt: Hier wird die Ausgabe der erweiterten Ausgangschichten benötigt. Diese Ausgabe wird berechnet und die sichtverbesserten Bilder werden den Funktionen zur Verfügung gestellt, z.B. für eine Anzeige für den Fahrer. b) Die direkte Rekonstruktion der sichtverbesserten Aufnahmen wird nicht benötigt: Da ein gemeinsames Netzwerk für die Funktion(en) und die Sichtverbesserung verwendet wird, findet in diesem Falle während des Trainings eine signifikante Verbesserung der Merkmalsrepräsentation der einzelnen Schichten für die Funktionen statt. Dies wird durch folgenden Netzwerkaufbau erzielt: During the runtime in the vehicle, two different versions can be implemented: a) The reconstruction of the visually enhanced recordings is made available to additional functions: Here, the output of the extended output layers is required. This output is calculated and the visually improved images are made available to the functions, e.g. for a display for the driver. b) The direct reconstruction of the vision-enhanced recordings is not required: Since a common network is used for the function (s) and the vision enhancement, in this case a significant improvement in the feature representation of the individual layers for the functions takes place during the training. This is achieved by the following network structure:
- die Netzwerkschichten werden sowohl für die Funktionen als auch für die Verbesserung der Sicht erzielt, - the network layers are achieved both for the functions and for the improvement of the visibility,
- nur die Ausgangschichten der Funktionen und der Sichtverbesserungen enthalten separate Neuronen für die Funktion oder die Sichtverbesserung, und- only the output layers of the functions and the vision enhancements contain separate neurons for the function or the visual enhancement, and
- das Training des Netzwerkes umfasst Daten für die Funktion und die Sichtverbesserung. - The training of the network includes data for the function and the visibility improvement.
Dieses Setup macht es möglich, dass die Merkmalsrepräsentation der gemeinsam verwendeten Schichten Information über die Sichtverbesserung enthält und diese Information den Funktionen zur Verfügung gestellt wird. Zur Laufzeit besteht somit die Möglichkeit, das Netzwerk nur für die Berechnung der Funktionen zu verwenden, welche hierzu auf sichtverbesserte Merkmalsrepräsentationen arbeiten. Dies ist eine rechenzeit-effiziente Umsetzung, die insbesondere für den Betrieb auf eingebetteten Systemen geeignet ist. This setup makes it possible for the feature representation of the commonly used layers to contain information about the visibility improvement and for this information to be made available to the functions. At runtime, there is thus the possibility of using the network only for the calculation of the functions which for this purpose work on visualized feature representations. This is a computation-time-efficient implementation that is particularly suitable for operation on embedded systems.
Der zusätzliche Rechenaufwand zur Laufzeit beträgt bei dieser Ausführung entweder nur die Berechnung der Ausgangsschicht(en), wenn die sichtverbesserten Nachtbilder weiteren Funktionen im Fahrzeug zur Verfügung gestellt werden, oder keinen zusätzlichen Rechenaufwand, wenn die Sichtverbesserung in die Algorithmen der Funktionen integriert ist und nur die Ausgabe dieser Funktionen weiterverwendet wird, z.B., Spurerkennung, Objekterkennung, semantische Segmentierung und/oder Tiefenschätzung. The additional computational effort at runtime in this embodiment is either only the calculation of the initial layer (s) if the vision-enhanced night images are made available to other functions in the vehicle, or no additional computing effort if the vision enhancement is integrated into the algorithms of the functions and only the Output of these functions is further used, for example, lane recognition, object recognition, semantic segmentation and / or depth estimation.
7) Für die Anwendung im Straßenverkehr kann die Sichtverbesserung erweitert werden hinsichtlich Überbelichtung. Mit den hier beschriebenen Methoden kann ein gemeinsames Netzwerk zur Sichtverbesserung gelernt werden, welches sowohl die Qualität von überbelichteten als auch unterbelichteten Aufnahmen aufwertet. Eine Fusion dieser beiden Anwendungen in einem Netzwerk ermöglicht eine recheneffiziente Umsetzung im Fahrzeug. Weiterhin kann die Recheneffizienz erhöht werden, wenn diese Netzwerkfusion ebenfalls auf die Funktionen, wie Objekterkennung, Spurerkennung, Tiefenschätzung, semantische Segmentierung, erweitert wird. 7) For use in road traffic, the visibility improvement can be extended with regard to overexposure. With the methods described here, a common network for improving visibility can be learned, which enhances both the quality of overexposed and underexposed images. A fusion of these two applications in a network enables a computationally efficient implementation in the vehicle. Furthermore, the computational efficiency can be increased if this network fusion is also expanded to include functions such as object recognition, lane recognition, depth estimation, semantic segmentation.
8) Zur Laufzeit werden nur die Aufnahmen der Fahrzeugkameras benötigt und optional eine Abschätzung des Verhältnisses/Faktors d, welcher die erreichte Sichtverbesserung zwischen Eingangsbild und Ausgangsbild beschreibt. Dies kann beispielsweise durch das Verhältnis der Belichtungszeit zwischen Eingangs- und Ausgangsbild beschrieben werden. Auch andere Verhältnisse zum Messen eines solchen Verhältnisses sind denkbar. 8) At runtime, only the recordings of the vehicle cameras are required and optionally an estimate of the ratio / factor d, which describes the improvement in visibility achieved between the input image and the output image. This can be described, for example, by the ratio of the exposure time between the input and output image. Other ratios for measuring such a ratio are also conceivable.
D.h. das Netzwerk berechnet basierend auf den Eingangsdaten (=eine Aufnahme mit kurzer Belichtungszeit) ein sichtverbessertes Bild, welches einer Aufnahme mit längerer Belichtungszeit entspricht. In other words, based on the input data (= a picture with a short exposure time), the network calculates an image with improved visibility, which corresponds to a picture with a longer exposure time.
Im Fahrzeug ist die Belichtungszeit insbesondere bei Nachtaufnahmen begrenzt, um die Qualität der Aufnahme durch die Fahrgeschwindigkeit oder in Kurven nicht zu beeinträchtigen (u.a. motion blur). In Kombination mit dem vorgeschlagenen Netzwerk zur Sichtverbesserung werden Bilder mit längerer Belichtungszeit berechnet, ohne dass diese durch z.B. die Fahrgeschwindigkeit beeinträchtigt werden. In the vehicle, the exposure time is limited, especially for night photos, so that the quality of the recording is not impaired by the driving speed or in curves (including motion blur). In combination with the proposed network for improving visibility, images with longer exposure times are calculated without being affected by e.g. the driving speed.
Die Abschätzung des Verhältnisses (bzw. Faktors d) kann aus dem jetzigen Bild, dem vorherigen Bild oder einer Bilderfolge gewonnen werden. Ein Beispiel hierzu sei der Wechsel aus einer beleuchteten Innenstadt auf die Landstraße. The estimate of the ratio (or factor d) can be obtained from the current image, the previous image or a sequence of images. An example of this is the change from an illuminated city center to the country road.
Hierzu kann ein Regelkreis aufgesetzt werden, in dem die Eigenschaften des llluminanzhistogramms verfolgt werden. Tritt eine Abweichung von der mittleren erwarteten Verteilung auf, kann das Verhältnis erhöht oder erniedrigt werden. For this purpose, a control loop can be set up in which the properties of the luminance histogram are tracked. If there is a deviation from the mean expected distribution, the ratio can be increased or decreased.
Diese Anpassung des Verhältnisses ist zur Laufzeit im Fahrzeug relevant. Beim Training sind die Verhältnisse der Belichtungszeiten bekannt, und die mittlere erwartete Verteilung für die Sichtverbesserung kann aus den Ground Truth Bildern der Trainingsdaten für verschiedene Szenen berechnet werden. Die Szenentypen können zur Laufzeit im Fahrzeug aus den Funktionen gewonnen werden, z.B. der semantischen Segmentierung. This adjustment of the ratio is relevant during runtime in the vehicle. During training, the relationships between the exposure times are known, and the mean expected distribution for improved visibility can be calculated from the ground truth images of the training data for various scenes. The scene types can be obtained from the functions during runtime in the vehicle, e.g. semantic segmentation.
Somit kann das Verhältnis zur Sichtverbesserung zur Laufzeit a) eine konstante, b) abhängig vom llluminanzhistogramm, c) abhängig von der Straßenszene, oder d) abhängig vom llluminanzhistogramm und der Straßenszene sein. Thus, the ratio to the improvement in visibility during runtime a) can be a constant, b) depending on the luminance histogram, c) depending on the street scene, or d) depending on the luminance histogram and the street scene.
Zusammenfassend können in dynamischen Szenen wie Straßenverkehrsszenen Abweichungen von einem festen Sichtverbesserungsfaktor d auftreten. Mit einer Regulierung dieses Faktors lässt sich die Sichtverbesserung für eine große Anzahl an verschiedenen Verkehrsszenen zur Laufzeit im Fahrzeug erreichen. In summary, deviations from a fixed visibility improvement factor d can occur in dynamic scenes such as road traffic scenes. By regulating this factor, it is possible to improve the visibility for a large number of different traffic scenes during runtime in the vehicle.
Wesentliche Vorteile sind: - Sehr effiziente Methode zur Aufbesserung der Bildqualität bei unzureichenderThe main advantages are: - Very efficient method for improving the image quality when it is insufficient
Beleuchtung lighting
- Deutliche Verbesserung der Bildqualität bei der Anzeige von Nachtbildern- Significant improvement in the image quality when displaying night images
- Es wird keine zusätzliche Beleuchtung benötigt, welche Fahrzeugbereiche wie die seitlichen Bereiche mit fehlender Beleuchtung aufhellt. Dies kann ein Alleinstellungsmerkmal für ADAS darstellen. - No additional lighting is required, which brightens areas of the vehicle such as the side areas with no lighting. This can represent a unique selling proposition for ADAS.
- Generierung eines Bilddatenstromes für Human und Computer Vision aus einem Netzwerk - Generation of an image data stream for human and computer vision from a network
Neben Kraftfahrzeugen sind alternative Anwendungsgebiete beispielsweise Flugzeuge, Schiffe, Drohnen, Busse und Bahnen. In addition to motor vehicles, alternative areas of application are, for example, airplanes, ships, drones, buses and trains.

Claims

Patentansprüche Claims
1. Verfahren zum maschinellen Lernen einer Umwandlung von Eingangs-Bilddaten einer Mehrzahl von Fahrzeugkameras (2-i) eines Rundumsichtsystems in optimierte Ausgabe-Bilddaten mittels mindestens eines künstlichen neuronalen Netzwerks (CNN1, CNN10, CNN11, CNN12), wobei das Lernen mit einer Vielzahl von Trainings-Bildpaaren (In1, Out1; In2, Out2; In3, Out3; ...) derart erfolgt, dass am Eingang des künstlichen neuronalen Netzwerks (CNN1 , CNN10) jeweils ein erstes Bild (In1 , In2, In3, ...) einer ersten Helligkeit oder Farbverteilung und als Soll-Ausgabe-Bild ein zweites Bild (Out1, Out2, Out3, ...) derselben Szene mit einer abweichenden zweiten Helligkeit oder Farbverteilung bereitgestellt wird. 1. A method for machine learning of a conversion of input image data from a plurality of vehicle cameras (2-i) of an all-round vision system into optimized output image data by means of at least one artificial neural network (CNN1, CNN10, CNN11, CNN12), the learning with a plurality of training image pairs (In1, Out1; In2, Out2; In3, Out3; ...) takes place in such a way that at the input of the artificial neural network (CNN1, CNN10) a first image (In1, In2, In3, ... ) a first brightness or color distribution and a second image (Out1, Out2, Out3, ...) of the same scene with a different second brightness or color distribution is provided as the target output image.
2. Verfahren nach Anspruch 1, wobei die Trainings-Bildpaare (In1, Out1; In2, Out2; In3, Out3; ...) für jede der Fahrzeugkameras (2-i) erzeugt werden, indem jeweils ein erstes Bild (In1, In2, In3, ...) mit erster und ein zweites Bild (Out1 , Out2, Out3, ...) mit zweiter Helligkeit zeitgleich oder unmittelbar aufeinander folgend mit unterschiedlichen Belichtungszeiten aufgenommen werden. 2. The method according to claim 1, wherein the training image pairs (In1, Out1; In2, Out2; In3, Out3; ...) are generated for each of the vehicle cameras (2-i) by a first image (In1, In2 , In3, ...) with a first and a second image (Out1, Out2, Out3, ...) with a second brightness can be recorded simultaneously or in direct succession with different exposure times.
3. Verfahren nach Anspruch 1 oder 2, wobei ein künstliches neuronales Netzwerk (CNN1 ; CNN10, CNN11, CNN12) für alle Fahrzeugkameras (2-i) gemeinsam trainiert wird. 3. The method according to claim 1 or 2, wherein an artificial neural network (CNN1; CNN10, CNN11, CNN12) for all vehicle cameras (2-i) is trained together.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei mindestens ein Faktor d als Maß für den Unterschied zwischen der zweiten und der ersten Helligkeit eines Trainings-Bildpaars (In1, Out1; In2, Out2; In3, Out3; ...) ermittelt wird und dem künstlichen neuronalen Netzwerk (CNN1, CNN10, CNN11, CNN12) bereitgestellt wird. 4. The method according to any one of the preceding claims, wherein at least one factor d is determined as a measure of the difference between the second and the first brightness of a training image pair (In1, Out1; In2, Out2; In3, Out3; ...) and the artificial neural network (CNN1, CNN10, CNN11, CNN12) is provided.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das künstliche neuronale Netz (CNN1, CNN10, CNN11, CNN12) eine gemeinsame Eingangsschnittstelle für zwei separate Ausgangsschnittstellen (CNN11, CNN 12) aufweist, wobei die gemeinsame Eingangsschnittstelle geteilte Merkmalsrepräsentationsschichten aufweist, wobei an der ersten Ausgangsschnittstelle (CNN11) helligkeitsumgewandelte Bilddaten (Opti) ausgegeben werden, wobei an der zweiten Ausgangsschnittstelle (CNN12) ADAS-relevante Detektionen mindestens einer ADAS-Detektionsfunktion (fn1, fn2, fn3, fn4) ausgegeben werden und wobei im Rahmen des Trainings die Ausgaben beider Ausgangsschnittstellen (CNN11 , CNN12) optimiert werden. 5. The method according to any one of the preceding claims, wherein the artificial neural network (CNN1, CNN10, CNN11, CNN12) has a common input interface for two separate output interfaces (CNN11, CNN 12), the common input interface having shared feature representation layers, with the first Output interface (CNN11) brightness-converted image data (Opti) are output, whereby ADAS-relevant detections of at least one ADAS detection function (fn1, fn2, fn3, fn4) are output at the second output interface (CNN12) and the outputs of both output interfaces (CNN11, CNN12) are optimized as part of the training.
6. Verfahren zur Umwandlung von Eingangs-Bilddaten einer Mehrzahl von Fahrzeugkameras (2-i) eines Rundumsichtsystems in optimierte Ausgabe-Bilddaten mit den Schritten: a) Von den Fahrzeugkameras (2-i) aufgenommene Eingangs-Bilddaten (Ini) einer aktuellen Helligkeit oder Farbverteilung werden einem trainierten künstlichen neuronalen Netzwerk (CNN1, CNN 10, CNN11, CNN 12) bereitgestellt, b) das trainierte künstliche neuronale Netzwerk (CNN1, CNN10, CNN11, CNN12) ist dazu konfiguriert, die Eingangs-Bilddaten (Ini) mit der aktuellen Helligkeit oder Farbverteilung in optimierte Ausgabe-Bilddaten (Opti) mit abweichender Ausgabehelligkeit oder -farbverteilung umzuwandeln, und c) das trainierte künstliche neuronale Netzwerk (CNN1, CNN10, CNN11, CNN12) ist dazu konfiguriert, die optimierten Ausgabe-Bilddaten (Opti) auszugeben. 6. A method for converting input image data from a plurality of vehicle cameras (2-i) of an all-round vision system into optimized output image data with the following steps: a) Input image data (Ini) recorded by the vehicle cameras (2-i) of a current brightness or Color distribution are provided to a trained artificial neural network (CNN1, CNN 10, CNN11, CNN 12), b) the trained artificial neural network (CNN1, CNN10, CNN11, CNN12) is configured to match the input image data (Ini) with the current To convert brightness or color distribution into optimized output image data (Opti) with a different output brightness or color distribution, and c) the trained artificial neural network (CNN1, CNN10, CNN11, CNN12) is configured to output the optimized output image data (Opti).
7. Verfahren nach Anspruch 6, wobei in Schritt a) zusätzlich ein Faktor d dem trainierten künstlichen neuronalen Netzwerk (CNN1, CNN10, CNN11, CNN12) bereitgestellt wird und in Schritt b) die Umwandlung in Abhängigkeit von dem Faktor d gesteuert wird. 7. The method according to claim 6, wherein in step a) a factor d is additionally provided to the trained artificial neural network (CNN1, CNN10, CNN11, CNN12) and in step b) the conversion is controlled as a function of the factor d.
8. Verfahren nach Anspruch 7, wobei der Faktor d geschätzt wird und bei der Schätzung die Helligkeit oder Farbverteilung der aktuellen erfassten Bilddaten, der vorhergehend erfassten Bilddaten und/oder die Historie des Faktors d berücksichtigt wird. 8. The method according to claim 7, wherein the factor d is estimated and, in the estimation, the brightness or color distribution of the current captured image data, the previously captured image data and / or the history of the factor d is taken into account.
9. Verfahren nach Anspruch 7 oder 8, wobei für jede der Fahrzeugkameras (2-i) ein eigener Faktor d geschätzt oder bestimmt wird. 9. The method according to claim 7 or 8, wherein a separate factor d is estimated or determined for each of the vehicle cameras (2-i).
10. Vorrichtung (1) mit mindestens einer Datenverarbeitungseinheit (3) konfiguriert zur Umwandlung von Eingangs-Bilddaten (Ini) einer Mehrzahl von Fahrzeugkameras (2-i) eines Rundumsichtsystems in optimierte Ausgabe-Bilddaten (Opti) umfassend: 10. Device (1) with at least one data processing unit (3) configured for converting input image data (Ini) from a plurality of vehicle cameras (2-i) of an all-round vision system into optimized output image data (Opti) comprising:
- eine Eingangsschnittstelle, die konfiguriert ist zum Empfangen der Eingangs-Bilddaten (Ini) einer aktuellen Helligkeit oder Farbverteilung von den Fahrzeugkameras (2-i),- an input interface which is configured to receive the input image data (Ini) of a current brightness or color distribution from the vehicle cameras (2-i),
- ein trainiertes künstliches neuronales Netzwerk (CNN1 , CNN10, CNN11, CNN12), das dazu konfiguriert ist, die Eingangs-Bilddaten (Ini) mit der aktuellen Helligkeit oder Farbverteilung in Ausgabe-Bilddaten (Opti) mit abweichender Ausgabehelligkeit oder -farbverteilung umzuwandeln und - eine erste Ausgangsschnittstelle (CNN1, CNN11), die dazu konfiguriert ist, die optimierten Ausgabe-Bilddaten (Opti) auszugeben. - a trained artificial neural network (CNN1, CNN10, CNN11, CNN12) which is configured to convert the input image data (Ini) with the current brightness or color distribution into output image data (Opti) with a different output brightness or color distribution and - A first output interface (CNN1, CNN11) which is configured to output the optimized output image data (Opti).
11. Vorrichtung (1) nach Anspruch 10, wobei die Datenverarbeitungseinheit (3) in eine hardwarebasierter Bildvorverarbeitungsstufe implementiert ist. 11. The device (1) according to claim 10, wherein the data processing unit (3) is implemented in a hardware-based image preprocessing stage.
12. Vorrichtung (1) nach Anspruch 10 oder 11 , wobei das trainierte künstliche neuronale Netzwerk (CNN1, CNN10, CNN11) zur Helligkeits- oder Farbverteilungsumwandlung Bestandteil eines fahrzeugseitigen ADAS-Detektions-Neuronalen-Netzwerks (CNN2, CNN 12) mit einer geteilten Eingangsschnittstelle, und zwei separaten Ausgangsschnittstellen ist, wobei die erste Ausgangsschnittstelle (CNN11) zur Ausgabe der optimierten Ausgabebilddaten (Opti) und die zweite Ausgangsschnittstelle (CNN12) zur Ausgabe der ADAS-relevanten Detektionen konfiguriert sind. 12. Device (1) according to claim 10 or 11, wherein the trained artificial neural network (CNN1, CNN10, CNN11) for brightness or color distribution conversion is part of a vehicle-side ADAS detection neural network (CNN2, CNN 12) with a shared input interface , and two separate output interfaces, the first output interface (CNN11) being configured to output the optimized output image data (Opti) and the second output interface (CNN12) being configured to output the ADAS-relevant detections.
13. Computer Programmelement, welches, wenn damit eine Datenverarbeitungseinheit programmiert wird, die Datenverarbeitungseinheit dazu anweist, ein Verfahren nach einem der Ansprüche 6 bis 9 durchzuführen. 13. Computer program element which, when a data processing unit is programmed with it, instructs the data processing unit to carry out a method according to one of claims 6 to 9.
14. Computerlesbares Speichermedium, auf dem ein Programmelement nach Anspruch 13 gespeichert ist. 14. Computer-readable storage medium on which a program element according to claim 13 is stored.
15. Verwendung eines Verfahrens nach Anspruch 1 bis 5 zum Trainieren eines künstlichen neuronalen Netzwerks (CNN1, CNN10, CNN11, CNN12) einer Vorrichtung (1) nach einem der Ansprüche 10 bis 12. 15. Use of a method according to claim 1 to 5 for training an artificial neural network (CNN1, CNN10, CNN11, CNN12) of a device (1) according to one of claims 10 to 12.
EP20841885.5A 2019-12-19 2020-12-09 Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data Pending EP4078941A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019220171.7A DE102019220171A1 (en) 2019-12-19 2019-12-19 Conversion of input image data from a plurality of vehicle cameras of an all-round vision system into optimized output image data
PCT/DE2020/200112 WO2021121491A2 (en) 2019-12-19 2020-12-09 Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data

Publications (1)

Publication Number Publication Date
EP4078941A2 true EP4078941A2 (en) 2022-10-26

Family

ID=74184333

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20841885.5A Pending EP4078941A2 (en) 2019-12-19 2020-12-09 Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data

Country Status (4)

Country Link
US (1) US20230342894A1 (en)
EP (1) EP4078941A2 (en)
DE (2) DE102019220171A1 (en)
WO (1) WO2021121491A2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4049235A4 (en) * 2020-01-23 2023-01-11 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
DE102021119951A1 (en) 2021-08-02 2023-02-02 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method, system and computer program product for detecting the surroundings of a motor vehicle
DE102021208736A1 (en) 2021-08-11 2023-02-16 Zf Friedrichshafen Ag Computer-implemented method for correcting exposure errors and hardware module for automated driving

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100054542A1 (en) * 2008-09-03 2010-03-04 Texas Instruments Incorporated Processing video frames with the same content but with luminance variations across frames
DE102014210323A1 (en) 2014-06-02 2015-12-03 Conti Temic Microelectronic Gmbh Apparatus and method for adaptive image correction of at least one image parameter
CN107636698B (en) * 2015-06-25 2021-10-19 富士通株式会社 Program generation device, program generation method, and generation program
TWI555379B (en) * 2015-11-06 2016-10-21 輿圖行動股份有限公司 An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof
US20170297488A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Surround view camera system for object detection and tracking
KR101832967B1 (en) * 2016-05-16 2018-02-28 엘지전자 주식회사 Control device mounted on vehicle and method for controlling the same
US10430913B2 (en) * 2017-06-30 2019-10-01 Intel Corporation Approximating image processing functions using convolutional neural networks
US10713816B2 (en) * 2017-07-14 2020-07-14 Microsoft Technology Licensing, Llc Fully convolutional color constancy with confidence weighted pooling
US20190095877A1 (en) * 2017-09-26 2019-03-28 Panton, Inc. Image recognition system for rental vehicle damage detection and management
US10475169B2 (en) * 2017-11-28 2019-11-12 Adobe Inc. High dynamic range illumination estimation
US11042156B2 (en) * 2018-05-14 2021-06-22 Honda Motor Co., Ltd. System and method for learning and executing naturalistic driving behavior
US11995800B2 (en) * 2018-08-07 2024-05-28 Meta Platforms, Inc. Artificial intelligence techniques for image enhancement
US20200294194A1 (en) * 2019-03-11 2020-09-17 Nvidia Corporation View synthesis using neural networks
DE102019205962A1 (en) * 2019-04-25 2020-10-29 Robert Bosch Gmbh Method for generating digital image pairs as training data for neural networks

Also Published As

Publication number Publication date
DE102019220171A1 (en) 2021-06-24
WO2021121491A2 (en) 2021-06-24
WO2021121491A3 (en) 2021-08-12
US20230342894A1 (en) 2023-10-26
DE112020006216A5 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
EP4078941A2 (en) Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data
DE102018130821A1 (en) Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product
DE102007034657B4 (en) Image processing device
DE102010030044A1 (en) Restoration device for weather-impaired images and driver assistance system hereby
DE102013112171A1 (en) External environment recognition device
DE102009036844A1 (en) Exposure determining device and image processing device
DE102019220168A1 (en) Brightness conversion of images from a camera
DE102016216795A1 (en) Method for determining result image data
DE102016121755A1 (en) Method for determining a composite image of a surrounding area of a motor vehicle with adaptation of brightness and / or color, camera system and power vehicle
WO2022128014A1 (en) Correction of images from a panoramic-view camera system in the case of rain, incident light and contamination
EP3809691A1 (en) Method for detecting and correcting image errors and image processing unit and computer programme for same
DE102012214637A1 (en) Method for adjusting light emitting characteristic of headlamp to illuminate environment of vehicle, involves determining luminance characteristic of headlamp based on light distribution and default value for light distribution
DE102010014733B4 (en) Chromakey method and chromakey device for taking and editing camera images
DE102014209863A1 (en) Method and device for operating a stereo camera for a vehicle and stereo camera for a vehicle
EP2539851A1 (en) Method and apparatus for analysing an image from an image capture device for a vehicle
DE102014114328A1 (en) Motor vehicle camera device with histogram spread
DE102018201909A1 (en) Method and device for object recognition
DE102013020952A1 (en) Method for setting a parameter relevant to the brightness and / or the white balance of an image representation in a camera system of a motor vehicle, camera system and motor vehicle
DE102013011844A1 (en) Method for adjusting a gamma curve of a camera system of a motor vehicle, camera system and motor vehicle
DE102017100529A1 (en) Method for operating a camera depending on a current state of a surrounding area of the camera, camera and motor vehicle
DE10318499B4 (en) Method and device for adjusting an image sensor
EP1797710A1 (en) Method for displaying an image recorded by a video camera
WO2022083833A1 (en) System for avoiding accidents caused by wild animals crossing at dusk and at night
DE102020213267A1 (en) Brightness conversion of stereo images
DE102018113281A1 (en) Image harmonization method, computer program product, camera system and motor vehicle

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220719

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS