DE102021212569A1 - Method for displaying a model of an environment of a vehicle, computer program, control unit and vehicle - Google Patents
Method for displaying a model of an environment of a vehicle, computer program, control unit and vehicle Download PDFInfo
- Publication number
- DE102021212569A1 DE102021212569A1 DE102021212569.7A DE102021212569A DE102021212569A1 DE 102021212569 A1 DE102021212569 A1 DE 102021212569A1 DE 102021212569 A DE102021212569 A DE 102021212569A DE 102021212569 A1 DE102021212569 A1 DE 102021212569A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- vehicle
- camera image
- area
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
Abstract
Verfahren zur Anzeige eines Umgebungsmodells für den Fahrer eines Fahrzeugs (100), wobei das Fahrzeug (100) mindestens eine erste Kamera (110) und eine zweite Kamera (120) aufweist, welche dazu eingerichtet sind, Kamerabilder von der Umgebung des Fahrzeugs (100) zu erfassen, wobei sich der erste Erfassungsbereich (111) der ersten Kamera (110) und der zweite Erfassungsbereich (121) der zweiten Kamera (120) überlappen, umfassend wenigstens folgenden Verfahrensschritte: Erfassung (510) wenigstens eines ersten Kamerabilds mittels der ersten Kamera (110); Erfassung (520) wenigstens eines zweiten Kamerabilds mittels der zweiten Kamera (120); Bestimmung (530) einer Korrekturmaßnahme in Abhängigkeit des erfassten ersten und zweiten Kamerabilds; und Anzeige (580) des Umgebungsmodells (200) in Abhängigkeit des ersten Kamerabilds und/oder des zweiten Kamerabilds, wobei das Umgebungsmodell (200) in der Repräsentation des Überlappungsbereichs (150) zwischen dem ersten und zweiten Kamerabild einen Nahtbereich (201) aufweist, an welchen das erste und zweite Kamerabild aneinandergefügt werden, wobei eine Anpassung (570) des erfassten ersten Kamerabilds und/oder des erfassten zweiten Kamerabilds in Abhängigkeit der bestimmten Korrekturmaßnahme und in Abhängigkeit einer Gewichtungsfunktion (f(x)) der Entfernung (x) eines jeweiligen Pixels von dem Nahtbereich (201) durchgeführt wird.Method for displaying an environment model for the driver of a vehicle (100), the vehicle (100) having at least a first camera (110) and a second camera (120), which are set up to display camera images of the environment of the vehicle (100) to capture, wherein the first capture area (111) of the first camera (110) and the second capture area (121) of the second camera (120) overlap, comprising at least the following method steps: Capturing (510) at least one first camera image by means of the first camera ( 110); acquisition (520) of at least one second camera image by means of the second camera (120); determining (530) corrective action as a function of the captured first and second camera images; and display (580) of the environment model (200) as a function of the first camera image and/or the second camera image, the environment model (200) having a seam area (201) in the representation of the overlapping area (150) between the first and second camera images which the first and second camera images are joined together, with an adjustment (570) of the captured first camera image and/or the captured second camera image depending on the specific corrective measure and depending on a weighting function (f(x)) of the distance (x) of a respective pixel is carried out by the seam area (201).
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Anzeige eines Modells einer Umgebung eines Fahrzeugs, wobei das Verfahren eine Erfassung mindestens zweier Kamerabilder und eine Anpassung mindestens eines erfassten Kamerabilds in Abhängigkeit einer bestimmten Korrekturmaßnahme und einer Gewichtungsfunktion umfasst. Die Erfindung betrifft auch ein Computerprogramm umfassend Befehle zur Ausführung des Verfahrens und ein Steuergerät mit einer Recheneinheit, die so konfiguriert ist, dass sie die Schritte des Verfahrens ausführt. Ferner betrifft die Erfindung ein Fahrzeug mit dem Steuergerät.The present invention relates to a method for displaying a model of an area surrounding a vehicle, the method comprising capturing at least two camera images and adapting at least one captured camera image as a function of a specific corrective measure and a weighting function. The invention also relates to a computer program comprising instructions for carrying out the method and a control device with a computing unit which is configured in such a way that it carries out the steps of the method. Furthermore, the invention relates to a vehicle with the control device.
Stand der TechnikState of the art
Die Schrift
Die Aufgabe der vorliegenden Erfindung ist es, ein Verfahren zur Anzeige eines Modells einer Umgebung eines Ego-Objektes zu verbessern.The object of the present invention is to improve a method for displaying a model of an environment of an ego object.
Offenbarung der ErfindungDisclosure of Invention
Die vorstehende Aufgabe wird erfindungsgemäß entsprechend der unabhängigen Ansprüche 1, 10, 11 und 12 gelöst.The above object is achieved according to the invention according to
Die vorliegende Erfindung betrifft ein Verfahren zur Anzeige eines Modells einer Umgebung eines Fahrzeugs für den Fahrer, insbesondere zur Anzeige einer Rundumsicht - beziehungsweise Surround View - Darstellung des Fahrzeugs in der Umgebung. Das Fahrzeug weist mindestens eine erste Kamera und eine zweite Kamera auf, welche insbesondere jeweils Weitwinkelobjektive aufweisen. Vorteilhafterweise umfasst das Fahrzeug vier Kameras, welche jeweils Weitwinkelobjektive aufweisen, wobei insbesondere an jeder Seite des Fahrzeugs jeweils eine der vier Kameras angeordnet ist. Die mindestens erste und zweite Kamera sind jeweils dazu eingerichtet, Kamerabilder von der Umgebung des Fahrzeugs zu erfassen, wobei sich die Erfassungsbereiche der ersten und zweiten Kamera beziehungsweise benachbarter Kameras überlappen beziehungsweise überschneiden. Insbesondere sind vier Kameras des Fahrzeugs mittels der Weitwinkelobjektive dazu eingerichtet, Kamerabilder der Umgebung des Fahrzeugs zu erfassen, welche zusammen die Umgebung des Fahrzeugs nahezu vollständig abbilden, wobei sich die Erfassungsbereiche der benachbarten Kameras jeweils überschneiden. Das Verfahren umfasst mindestens eine Erfassung wenigstens eines ersten Kamerabilds mittels der ersten Kamera, wobei insbesondere eine Abfolge von ersten Kamerabildern kontinuierlich erfasst wird. Das Verfahren umfasst des Weiteren mindestens eine Erfassung wenigstens eines zweiten Kamerabilds mittels der zweiten Kamera, wobei insbesondere eine Abfolge von zweiten Kamerabildern kontinuierlich erfasst wird. Anschließend erfolgt eine Bestimmung wenigstens einer Korrekturmaßnahme in Abhängigkeit des ersten und zweiten Kamerabilds. Es kann vorgesehen sein, dass zur Anpassung des ersten Kamerabildes eine erste Korrekturmaßnahme und zur Anpassung des zweiten Kamerabildes eine zweite Korrekturmaßnahme in Abhängigkeit des ersten und zweiten Kamerabilds bestimmt wird. Die Bestimmung der Korrekturmaßnahme oder der Korrekturmaßnahmen erfolgt insbesondere in Abhängigkeit des in dem ersten Kamerabild und dem zweiten Kamerabild abgebildeten Überlappungsbereichs beziehungsweise Überschneidungsbereichs der Erfassungsbereiche. Bei mehr als zwei Kameras des Fahrzeugs wird insbesondere pro Überlappungsbereich beziehungsweise Überschneidungsbereich mindestens eine Korrekturmaßnahme für mindestens eines der Kamerabilder bestimmt, welches den Überlappungsbereich beziehungsweise Überschneidungsbereich aufweist. Danach wird eine Anpassung des erfassten ersten Kamerabilds und/oder des erfassten zweiten Kamerabilds in Abhängigkeit der wenigstens einen bestimmten Korrekturmaßnahme und in Abhängigkeit einer Gewichtungsfunktion der Entfernung eines jeweiligen Pixels von einem Nahtbereich durchgeführt. Die Anpassung des erfassten ersten Kamerabilds und/oder des erfassten zweiten Kamerabilds wird insbesondere bezüglich der Transparenz, der Helligkeit und/oder der Farbe der Pixel des erfassten ersten Kamerabilds und/oder des erfassten zweiten Kamerabilds, insbesondere in dem zugehörigen Überlappungsbereich und/oder in dem restlichen Kamerabild ohne den Überlappungsbereich, durchgeführt. Die Entfernung eines jeweiligen Pixels wird vorteilhafterweise von dem Nahtbereich parallel zur Längs- und/oder Querachse des Fahrzeugs oder rechtwinklig zum Nahtbereich ermittelt. Der Nahtbereich ist dabei der Bereich, in welchem Kamerabilder in der Anzeige des Umgebungsmodells aneinandergefügt werden. Es kann vorteilhafterweise vorgesehen sein, dass die Anpassung des erfassten ersten Kamerabilds und/oder des erfassten zweiten Kamerabilds in Abhängigkeit unterschiedlicher Korrekturmaßnahmen und/oder Gewichtungsfunktionen für unterschiedliche Farbkanäle und/oder die Helligkeit erfolgt. Die Anpassung des erfassten ersten Kamerabilds und/oder des erfassten zweiten Kamerabilds erfolgt insbesondere bezüglich der Transparenz, der Helligkeit und/oder der Farbe für jeden Pixel oder einen Teilbereich der Pixel des jeweiligen Kamerabildes. Anschließend wird das Umgebungsmodell in Abhängigkeit des angepassten ersten Kamerabilds und/oder des angepassten zweiten Kamerabilds angezeigt, wobei das Umgebungsmodell in der Repräsentation des Überlappungsbereichs zwischen dem ersten und zweiten Kamerabild den Nahtbereich aufweist, an welchen die Kamerabilder in der Anzeige des Umgebungsmodells aneinandergefügt werden. Durch das Verfahren resultiert der Vorteil, dass Kamerabilder benachbarter Kameras bezüglich ihrer Helligkeits- und/oder Farbewerte lokal am beziehungsweise in der Nähe des jeweiligen Nahtbereichs aneinander angeglichen werden, so dass eine unauffälliger Nahtbereich beziehungsweise eine realistische Darstellung des Umgebungsmodells angezeigt wird. Die erste und zweite Kamera können beispielsweise eine automatische Helligkeitsoptimierung zur Erfassung des jeweiligen Kamerabildes aufweisen, wobei sich die resultierende Helligkeit der verschiedenen Kamerabilder basierend auf den unterschiedlichen Erfassungsbereichen erheblich unterscheiden können. Durch das Verfahren erfolgt die Anpassung des jeweiligen Kamerabildes voreilhafterweise verstärkt in der Nähe des Nahtbereichs und zunehmend weniger stark mit dem Abstand beziehungsweise der Entfernung eines Pixels des Kamerabildes von der Nahtstelle. Mit anderen Worten weist das Verfahren den Vorteil auf, dass am oder in der Nähe des Nahtbereichs des Überlappungsbereich eine starke Anpassung zwischen dem ersten und zweiten Kamerabild durchgeführt wird, so das für einen Nutzer der Nahtbereich unauffällig angezeigt beziehungsweise kaschiert wird. Weiter entfernt vom Nahtbereich wird vorteilhafterweise eine reduzierte oder keine Anpassung des ersten und/oder zweiten Kamerabilds durchgeführt, so dass beispielsweise die basierend auf den Umgebungsbedingungen automatisch eingestellte Helligkeit und/oder die erfasste Farbe des beziehungsweise der jeweiligen erfassten Kamerabilder im Wesentlichen erhalten bleibt. Durch das Verfahren resultiert mit anderen Worten vorteilhafterweise eine lokale Harmonisierung der Helligkeits- und Farbwerte in der Nähe des jeweiligen Nahtbereichs zwischen jeweils erfassten Kamerabildern benachbarter Kameras, wodurch im Umgebungsmodell, insbesondere in der Repräsentation des Überlappungsbereichs, für den Fahrer Unterschiede bezüglich der Helligkeits- und/oder Farbwerte zwischen den Kamerabildern unterschiedlicher Kameras kaum wahrnehmbar sind, da am Nahtbereich die Unterschiede minimiert werden und die Anpassung mit der Entfernung beziehungsweise dem Abstand vom Nahtbereich kontinuierlich reduziert wird.The present invention relates to a method for displaying a model of an area surrounding a vehicle for the driver, in particular for displaying an all-round view—or surround view—representation of the vehicle in the area. The vehicle has at least a first camera and a second camera, which in particular each have wide-angle lenses. The vehicle advantageously comprises four cameras, each of which has wide-angle lenses, one of the four cameras being arranged in particular on each side of the vehicle. The at least first and second cameras are each set up to capture camera images of the surroundings of the vehicle, with the capture areas of the first and second cameras or neighboring cameras overlapping or overlapping. In particular, four cameras of the vehicle are set up using the wide-angle lenses to capture camera images of the area surrounding the vehicle, which together almost completely depict the area surrounding the vehicle, with the detection areas of the adjacent cameras overlapping in each case. The method includes at least capturing at least one first camera image by means of the first camera, with a sequence of first camera images being captured continuously in particular. The method also includes at least one acquisition of at least one second camera image by means of the second camera, in particular a sequence of second camera images being continuously acquired. At least one corrective measure is then determined as a function of the first and second camera images. Provision can be made for a first corrective measure to be determined for adapting the first camera image and a second corrective measure for adapting the second camera image as a function of the first and second camera images. The corrective measure or measures are determined in particular as a function of the overlapping area or overlapping area of the detection areas depicted in the first camera image and the second camera image. If there are more than two cameras in the vehicle, at least one corrective measure is determined for at least one of the camera images for each overlapping area or overlapping area, which has the overlapping area or overlapping area. Thereafter, the captured first camera image and/or the captured second camera image is adjusted as a function of the at least one specific corrective measure and as a function of a weighting function of the distance of a respective pixel from a seam region. The adjustment of the recorded first camera image and/or the recorded second camera image is carried out in particular with regard to the transparency, the brightness and/or the color of the pixels of the recorded first camera image and/or the recorded second camera image, in particular in the associated overlapping area and/or in the rest of the camera image without the overlap area. The distance of a respective pixel is advantageously determined from the seam area parallel to the longitudinal and/or transverse axis of the vehicle or perpendicular to the seam area. The seam area is the area in which camera images are joined together in the display of the environment model. It can It can advantageously be provided that the captured first camera image and/or the captured second camera image is adapted as a function of different corrective measures and/or weighting functions for different color channels and/or the brightness. The captured first camera image and/or the captured second camera image is adapted in particular with regard to the transparency, the brightness and/or the color for each pixel or a partial area of the pixels of the respective camera image. The environment model is then displayed as a function of the adapted first camera image and/or the adapted second camera image, with the environment model having the seam area in the representation of the overlapping area between the first and second camera images, at which the camera images are joined together in the display of the environment model. The method results in the advantage that camera images from neighboring cameras are matched to one another locally in terms of their brightness and/or color values at or near the respective seam area, so that an inconspicuous seam area or a realistic representation of the environment model is displayed. The first and second cameras can, for example, have automatic brightness optimization for capturing the respective camera image, with the resulting brightness of the various camera images being able to differ significantly based on the different capture areas. The method advantageously adapts the respective camera image to a greater extent in the vicinity of the seam area and to an increasingly lesser extent with the distance or distance of a pixel of the camera image from the seam. In other words, the method has the advantage that a strong adjustment between the first and second camera image is carried out at or in the vicinity of the seam area of the overlapping area, so that the seam area is unobtrusively displayed or concealed for a user. Advantageously, a reduced or no adjustment of the first and/or second camera image is carried out further away from the seam area, so that, for example, the brightness automatically set based on the environmental conditions and/or the captured color of the respective captured camera image(s) is/are essentially retained. In other words, the method advantageously results in a local harmonization of the brightness and color values in the vicinity of the respective seam area between respectively captured camera images of neighboring cameras, as a result of which differences in the environment model, in particular in the representation of the overlapping area, can be seen for the driver with regard to the brightness and/or or color values between the camera images from different cameras are hardly perceptible, since the differences in the seam area are minimized and the adjustment with the distance or distance from the seam area is continuously reduced.
In einer bevorzugten Ausgestaltung ist die Gewichtungsfunktion der Entfernung eine lineare Funktion, eine Polynomfunktion zweiten, dritten oder vierten Grades. Alternativ ist die Gewichtungsfunktion der Entfernung eine Sigmoidfunktion von der Entfernung. Die Gewichtungsfunktionen resultieren vorteilhafterweise jeweils in unterschiedlichen Anpassungsverläufen in Abhängigkeit der Entfernung eines Pixels von dem Nahtbereich. Beispielsweise nimmt ein Funktionswert einer linearen Gewichtungsfunktion der Entfernung schon bei geringen Abstand eines Pixels zum Nahtbereich relativ schnell ab. Für eine sigmoidale Gewichtungsfunktion der Entfernung resultiert dagegen ein zunächst stabilerer Funktionswert, so dass das erste und/oder zweite Kamerabild für Pixel mit relativ großen Abständen zum Nahtbereich merklich angepasst werden.In a preferred embodiment, the distance weighting function is a linear function, a polynomial function of the second, third or fourth degree. Alternatively, the distance weighting function is a sigmoid function of distance. The weighting functions advantageously result in different adaptation profiles depending on the distance of a pixel from the seam area. For example, a function value of a linear weighting function of the distance decreases relatively quickly even if the distance between a pixel and the seam area is small. For a sigmoidal weighting function of the distance, on the other hand, an initially more stable function value results, so that the first and/or second camera image is noticeably adjusted for pixels with relatively large distances to the seam area.
In einer Ausführung des Verfahrens erfolgt die Anpassung des erfassten ersten Kamerabilds und/oder des erfassten zweiten Kamerabilds bezüglich der Transparenz, der Helligkeit und/oder der Farbe durch unterschiedlicher Gewichtungsfunktionen der Entfernung. Beispielsweise kann die Helligkeit des ersten Kamerabildes mit einer anderen Gewichtungsfunktion angepasst werden als die Farbwerte. Dadurch resultieren kaum wahrnehmbaren Unterschiede bezüglich der Helligkeits- und Farbwerte zwischen den Kamerabildern unterschiedlicher Kameras in der Nähe des Überlappungsbereichs.In one embodiment of the method, the captured first camera image and/or the captured second camera image is/are adapted in terms of transparency, brightness and/or color using different weighting functions for the distance. For example, the brightness of the first camera image can be adjusted with a different weighting function than the color values. This results in barely perceptible differences in brightness and color values between the camera images from different cameras in the vicinity of the overlapping area.
In einer Weiterführung wird die Gewichtungsfunktion der Entfernung in Abhängigkeit einer erfassten Fahrzeuggeschwindigkeit und/oder der aktuellen Zeit angepasst. Beispielsweise werden für Tag- und Nachtzeiten unterschiedliche Gewichtungsfunktionen verwendet. Alternativ oder zusätzlich können für Parkvorgänge und Autobahnfahrten unterschiedliche Gewichtungsfunktionen verwendet werden.In a further development, the distance weighting function is adapted as a function of a detected vehicle speed and/or the current time. For example, different weighting functions are used for day and night times. Alternatively or additionally, different weighting functions can be used for parking processes and freeway driving.
In einer anderen Weiterführung wird die Gewichtungsfunktion der Entfernung in Abhängigkeit eines, insbesondere in dem Überlappungsbereich, ermittelten oder erfassten Farbunterschieds und/oder Helligkeitsunterschieds zwischen dem erfassten ersten und zweiten Kamerabild beziehungsweise zwischen den Kamerabildern benachbarter Kameras angepasst.In another development, the weighting function of the distance is adjusted as a function of a color difference and/or brightness difference between the detected first and second camera images or between the camera images of neighboring cameras that is determined or detected, in particular in the overlapping area.
Durch die Weiterführungen werden Unterschiede in den Helligkeits- und Farbwerten der Kamerabilder benachbarter Kameras mit einem Überlappungsbereich unauffälliger für den Fahrer beziehungsweise Nutzer reduziert. In der Nacht und bei Parkvorgängen ist in der Regel mit größeren Helligkeitsunterschieden zu rechnen, beispielsweise neben Laternen oder beim Parken in Garagen, als bei Autobahnfahrten des Fahrzeugs mit großer Geschwindigkeit am Tag. Größere Helligkeits- und/oder Farbunterschiede zwischen den erfassten Kamerabildern können anhand der Pixel in dem Überlappungsbereich bestimmt oder in Abhängigkeit der Tageszeit und/oder der Fahrzeuggeschwindigkeit prognostiziert werden. Bei größeren ermittelten oder prognostizierten Helligkeits- oder Farbunterschieden zwischen erfassten Kamerabildern resultiert vorteilhafterweise die Anwendung einer Sigmoidfunktion als Gewichtungsfunktion in unauffälligeren Helligkeits- oder Farbverläufen des angezeigten Umgebungsmodells mit den angepassten Kamerabildern, das heißt die Sigmoidfunktion als Gewichtungsfunktion ist beispielsweise beim Parken und in der Nacht vorteilhaft. Dagegen resultiert für kleinere ermittelte oder prognostizierte Helligkeits- oder Farbunterschiede zwischen erfassten Kamerabildern eine lineare Gewichtungsfunktion in unauffälligeren Helligkeits- oder Farbverläufen in dem angezeigten Umgebungsmodells, das heißt die lineare Gewichtungsfunktion ist beispielsweise bei einer Autobahnfahrt am Tag vorteilhaft.The continuations eliminate differences in the brightness and color values of the camera images from neighboring cameras with a Reduced overlap area less noticeable for the driver or user. At night and when parking, greater differences in brightness are generally to be expected, for example next to lanterns or when parking in garages, than when the vehicle is driving on the freeway at high speed during the day. Larger differences in brightness and/or color between the captured camera images can be determined using the pixels in the overlapping area or can be predicted as a function of the time of day and/or the vehicle speed. In the case of larger determined or predicted brightness or color differences between captured camera images, the use of a sigmoid function as a weighting function advantageously results in less conspicuous brightness or color gradients of the displayed environment model with the adjusted camera images, i.e. the sigmoid function as a weighting function is advantageous, for example, when parking and at night. On the other hand, for smaller determined or predicted differences in brightness or color between captured camera images, a linear weighting function results in less noticeable brightness or color gradients in the displayed environment model, ie the linear weighting function is advantageous when driving on the freeway during the day, for example.
Es kann vorgesehen sein, dass die Gewichtungsfunktion der Entfernung in Abhängigkeit eines erfassten Abstandes zwischen dem Fahrzeug und einem Objekt in der Umgebung des Fahrzeugs und/oder in Abhängigkeit eines erkannten Objektes und/oder in Abhängigkeit eines erkannten Segments angepasst wird, wobei das erkannte Objektes und/oder das erkannte Segment insbesondere in dem Überlappungsbereich liegt. Objekte und/oder Segmente können durch ein angelerntes maschinelles Erkennungsverfahren, beispielsweise ein neuronales Netz, in Abhängigkeit des ersten und/oder zweiten Kamerabilds erkannt werden. Falls ein Objekt in dem Überlappungsbereich zwischen dem ersten und/oder zweiten Kamerabild ermittelt beziehungsweise erfasst wird, kann beispielsweise der Nahtbereich verschoben werden (siehe im Folgenden). Falls beispielsweise der Nahtbereich an den Rand des Überlappungsbereichs verschoben wird, können Unterschiede in den Helligkeits- und/oder Farbewerten zwischen dem ersten und/oder zweiten Kamerabild unauffälliger in dem Umgebungsmodell dargestellt sein, wenn eine lineare statt einer sigmoidalen Gewichtungsfunktion verwendet wird, wobei eine sigmoidale Gewichtungsfunktion wiederum diese Unterscheide unauffälliger darstellt, wenn der Nahtbereich im Wesentlichen mittig im Überlappungsbereich angeordnet ist.Provision can be made for the weighting function of the distance to be adapted as a function of a detected distance between the vehicle and an object in the vicinity of the vehicle and/or as a function of a detected object and/or as a function of a detected segment, with the detected object and /or the recognized segment lies in particular in the overlapping area. Objects and/or segments can be recognized by a trained machine recognition method, for example a neural network, depending on the first and/or second camera image. If an object is determined or detected in the overlapping area between the first and/or second camera image, the seam area can be shifted, for example (see below). If, for example, the seam area is shifted to the edge of the overlapping area, differences in the brightness and/or color values between the first and/or second camera image can be represented more unobtrusively in the environment model if a linear instead of a sigmoidal weighting function is used, with a sigmoidal In turn, the weighting function represents these differences more unobtrusively if the seam area is arranged essentially in the middle of the overlapping area.
In einer vorteilhaften Ausgestaltung des angezeigten Umgebungsmodells wird in der Repräsentation des Überlappungsbereichs an dem Nahtbereich zusätzlich ein Alpha Blending zwischen dem ersten und zweiten Kamerabild durchgeführt. Das Alpha Blending resultiert in einer teiltransparenten Darstellung beider Kamerabilder im und/oder um den Nahtbereich, wodurch der Übergang zwischen dem ersten und zweiten Kamerabild beziehungsweise den Kamerabildern im Nahtbereich bei der Anzeige des Umgebungsmodells für den Nutzer beziehungsweise Fahrer unauffälliger wird.In an advantageous embodiment of the displayed environment model, alpha blending between the first and second camera images is additionally carried out in the representation of the overlapping area at the seam area. Alpha blending results in a partially transparent display of both camera images in and/or around the seam area, making the transition between the first and second camera image or the camera images in the seam area less noticeable to the user or driver when the environment model is displayed.
In einer besonders bevorzugten Ausgestaltung der Erfindung weist das Fahrzeug mindestens vier Kameras auf, welche so angeordnet sind, dass sie dazu eingerichtet sind, die Umgebung des Fahrzeugs nahezu vollständig zu erfassen. Der Erfassungsbereich einer jeweiligen Kamera überschneidet sich dabei jeweils mit zwei Erfassungsbereichen der benachbarten Kameras. Mit anderen Worten liegt für jeden Erfassungsbereich ein rechter Überlappungsbereich mit dem Erfassungsbereich einer benachbarten rechten Kamera und ein linker Überlappungsbereich mit dem Erfassungsbereich einer benachbarten linken Kamera vor. Die Anpassung des jeweiligen Kamerabilds wird für jeden der Überlappungsbereiche beziehungsweise für jeden Nahtbereich separat durchgeführt. Mit anderen Worten werden die Pixel des jeweiligen Kamerabildes in Abhängigkeit der bestimmten Korrekturmaßnahme für den rechten Überlappungsbereich und in Abhängigkeit einer Gewichtungsfunktion der Entfernung eines jeweiligen Pixels von dem Nahtbereich des rechten Überlappungsbereichs bezüglich der Helligkeits- und/oder Farbwerte angepasst. Zusätzlich oder alternativ werden die Pixel des jeweiligen Kamerabildes, insbesondere des bereits bezüglich des rechten Überlappungsbereiches angepassten Kamerabildes, in Abhängigkeit der bestimmten Korrekturmaßnahme für den linken Überlappungsbereich und in Abhängigkeit einer Gewichtungsfunktion der Entfernung eines jeweiligen Pixels von dem Nahtbereich des linken Überlappungsbereich bezüglich der Helligkeits- und/oder Farbwerte angepasst. In dieser Ausgestaltung resultiert eine Rundumsicht beziehungsweise eine Surround View - Darstellung des Fahrzeugs in der erfassten Umgebung, wobei die Helligkeits- und Farbwertunterschiede zwischen den Kamerabildern vorteilhafterweise unauffällig sind, so dass der Nutzer vorteilhafterweise die Nahtbereiche beziehungsweise Übergänge zwischen den abgebildeten (und angepassten) mindestens vier Kamerabildern der wenigstens vier unterschiedlichen Kameras in dem angezeigten Umgebungsmodell zur Rundumsicht beziehungsweise dem Surround-View - Darstellung nicht oder kaum erkennen kann. Trotz großer Helligkeits- und/oder Farbwertunterschiede zwischen den vier Kamerbildern der vier Kameras kann ein Umgebungsmodell ohne auffällige Helligkeits- und Farbwertunterschiede zwischen den Kamerabildern erzeugt beziehungsweise angezeigt werden.In a particularly preferred embodiment of the invention, the vehicle has at least four cameras, which are arranged in such a way that they are set up to record the surroundings of the vehicle almost completely. The detection area of a respective camera overlaps in each case with two detection areas of the neighboring cameras. In other words, for each detection area there is a right overlapping area with the detection area of an adjacent right camera and a left overlapping area with the detection area of an adjacent left camera. The respective camera image is adjusted separately for each of the overlapping areas or for each seam area. In other words, the pixels of the respective camera image are adjusted with regard to the brightness and/or color values depending on the corrective measure determined for the right overlapping area and depending on a weighting function of the distance of a respective pixel from the seam area of the right overlapping area. Additionally or alternatively, the pixels of the respective camera image, in particular the camera image that has already been adjusted with regard to the right overlapping area, depending on the corrective measure determined for the left overlapping area and depending on a weighting function of the distance of a respective pixel from the seam area of the left overlapping area with regard to the brightness and /or color values adjusted. This configuration results in an all-round view or a surround view - representation of the vehicle in the recorded environment, with the brightness and color value differences between the camera images being advantageously inconspicuous, so that the user can advantageously see the seam areas or transitions between the imaged (and adapted) at least four Camera images of at least four different cameras in the displayed environment model for all-round view or the surround view - representation can not or hardly recognize. Despite large brightness and / or color value differences between the four camera images of the four cameras, an environment model without noticeable brightness and color value differences between the Camera images are generated or displayed.
In einer weiteren Ausführung werden Abstandsdaten zwischen dem Fahrzeug und Objekten in der Umgebung des Fahrzeugs erfasst. Anschließend erfolgt eine Erkennung eines Objektes in Abhängigkeit des ersten und/oder zweiten Kamerabildes und/oder in Abhängigkeit der erfassten Abstandsdaten, wobei das Objekt in dem Überlappungsbereich des ersten Kamerabilds und des zweiten Kamerabilds liegt und, wobei das Objekt einen erfassten Abstand kleiner einem vorgegebenen Schwellenwert von dem Fahrzeug aufweist. Des Weiteren wird in dieser Ausführung eine Verschiebung des Nahtbereiches in Abhängigkeit der Lage des erkannten Objektes durchgeführt. Diese Ausführung reduziert Artefakte in dem angezeigten Umgebungsmodell, welche basierend auf nahe am Fahrzeug befindlichen Objekten im Überlappungsbereich resultieren können, wodurch auch auffällige Helligkeits- und Farbwertunterschiede zwischen den Kamerabildern, welche insbesondere bei naheliegenden Objekten resultieren können, weiter reduziert werden.In a further embodiment, distance data between the vehicle and objects in the vicinity of the vehicle are recorded. An object is then recognized as a function of the first and/or second camera image and/or as a function of the detected distance data, with the object lying in the overlapping area of the first camera image and the second camera image and with the object having a detected distance less than a specified threshold value from the vehicle. Furthermore, in this embodiment, the seam area is shifted depending on the position of the detected object. This embodiment reduces artifacts in the displayed environment model, which can result from objects located close to the vehicle in the overlapping area, which also further reduces conspicuous brightness and color value differences between the camera images, which can result in particular from close-by objects.
Die Erfindung betrifft auch ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Schritte des erfindungsgemäßen Verfahrens auszuführen.The invention also relates to a computer program, comprising instructions which, when the program is executed by a computer, cause the latter to carry out the steps of the method according to the invention.
Die Erfindung betrifft des Weiteren ein Steuergerät. Das Steuergerät weist einen ersten Signaleingang zur Bereitstellung eines ersten Bildsignals auf, welches ein erstes Kamerabild repräsentiert. Mit anderen Worten ist der erste Signaleingang vorteilhafterweise dazu eingerichtet, mit der ersten Kamera verbunden zu sein. Das Steuergerät umfasst außerdem einen zweiten Signaleingang zur Bereitstellung eines zweiten Bildsignals, welches ein zweites Kamerabild repräsentiert. Mit anderen Worten ist der zweite Signaleingang vorteilhafterweise dazu eingerichtet, mit der zweiten Kamera verbunden zu sein. Das Steuergerät umfasst des Weiteren einen Signalausgang zur Ausgabe eines Anzeigesignals für eine Anzeigevorrichtung zur Anzeige eines Umgebungsmodells der Umgebung eines Fahrzeugs. Das Steuergerät weist auch eine Recheneinheit auf, insbesondere ein Prozessor. Die Recheneinheit ist so konfiguriert, dass sie die Schritte des erfindungsgemäßen Verfahrens ausführt.The invention also relates to a control device. The control device has a first signal input for providing a first image signal, which represents a first camera image. In other words, the first signal input is advantageously set up to be connected to the first camera. The control device also includes a second signal input for providing a second image signal, which represents a second camera image. In other words, the second signal input is advantageously set up to be connected to the second camera. The control device also includes a signal output for outputting a display signal for a display device for displaying an environment model of the environment of a vehicle. The control device also has a computing unit, in particular a processor. The processing unit is configured in such a way that it executes the steps of the method according to the invention.
Die Erfindung betrifft auch ein Fahrzeug, umfassend das erfindungsgemäße Steuergerät.The invention also relates to a vehicle comprising the control device according to the invention.
Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen mit Bezug zu den Figuren.
-
1 : Fahrzeug mit erster und zweiter Kamera von vier Kameras -
2 : Ansicht einer angezeigten Rundumsicht -
3 : Aufsicht der angezeigten Rundumsicht -
4 : Gewichtungsfunktionen der Entfernung zur Anpassung der Kamerabilder -
5 : Ablaufdiagramm des Verfahrens als Blockschaltbild
-
1 : Vehicle with first and second camera of four cameras -
2 : View of a displayed surround view -
3 : Top view of the displayed surround view -
4 : Distance weighting functions to adjust camera images -
5 : Flow chart of the method as a block diagram
Ausführungsbeispieleexemplary embodiments
In
In
In
In
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 2015/0138312 A1 [0002]US 2015/0138312 A1 [0002]
Claims (12)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021212569.7A DE102021212569A1 (en) | 2021-11-09 | 2021-11-09 | Method for displaying a model of an environment of a vehicle, computer program, control unit and vehicle |
PCT/EP2022/080579 WO2023083665A1 (en) | 2021-11-09 | 2022-11-02 | Method for displaying a model of surroundings of a vehicle, computer program, control device, and vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021212569.7A DE102021212569A1 (en) | 2021-11-09 | 2021-11-09 | Method for displaying a model of an environment of a vehicle, computer program, control unit and vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021212569A1 true DE102021212569A1 (en) | 2023-05-11 |
Family
ID=84361792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021212569.7A Pending DE102021212569A1 (en) | 2021-11-09 | 2021-11-09 | Method for displaying a model of an environment of a vehicle, computer program, control unit and vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102021212569A1 (en) |
WO (1) | WO2023083665A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012018326A1 (en) | 2012-09-15 | 2014-03-20 | DSP-Weuffen GmbH | Method for imaging driver assistance system for mapping objects in surrounding area of vehicle e.g. land craft, involves enabling dynamic adaptation of joining camera images to approach cover-free circumspection function of objects |
US20150138312A1 (en) | 2013-11-18 | 2015-05-21 | Texas Instruments Incorporated | Method and apparatus for a surround view camera system photometric alignment |
DE102018214602B3 (en) | 2018-08-29 | 2019-11-28 | Robert Bosch Gmbh | A method for displaying a model of an environment, controller and vehicle |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9832378B2 (en) * | 2013-06-06 | 2017-11-28 | Apple Inc. | Exposure mapping and dynamic thresholding for blending of multiple images using floating exposure |
US10992860B2 (en) * | 2019-03-29 | 2021-04-27 | Nio Usa, Inc. | Dynamic seam adjustment of image overlap zones from multi-camera source images |
-
2021
- 2021-11-09 DE DE102021212569.7A patent/DE102021212569A1/en active Pending
-
2022
- 2022-11-02 WO PCT/EP2022/080579 patent/WO2023083665A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012018326A1 (en) | 2012-09-15 | 2014-03-20 | DSP-Weuffen GmbH | Method for imaging driver assistance system for mapping objects in surrounding area of vehicle e.g. land craft, involves enabling dynamic adaptation of joining camera images to approach cover-free circumspection function of objects |
US20150138312A1 (en) | 2013-11-18 | 2015-05-21 | Texas Instruments Incorporated | Method and apparatus for a surround view camera system photometric alignment |
DE102018214602B3 (en) | 2018-08-29 | 2019-11-28 | Robert Bosch Gmbh | A method for displaying a model of an environment, controller and vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2023083665A1 (en) | 2023-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010030044A1 (en) | Restoration device for weather-impaired images and driver assistance system hereby | |
DE102013019138A1 (en) | A method for detecting a hidden state of a camera, camera system and motor vehicle | |
DE102012025322A1 (en) | Motor vehicle with camera monitor system | |
DE102008060770A1 (en) | Driver aiding method for use during parking of car, involves producing representation of trajectory via stored reference circle data in dependent of steering angle, vehicle data, and position and adjustment of camera | |
WO2022128014A1 (en) | Correction of images from a panoramic-view camera system in the case of rain, incident light and contamination | |
DE102013103952B4 (en) | Lane detection at full speed with an all-round vision system | |
EP4078941A2 (en) | Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data | |
DE102018124979A1 (en) | Driver assistance system for determining a distance between two vehicles with a camera | |
DE102012015282B4 (en) | Method for detecting a covered state of an image capturing device of a motor vehicle, camera system and motor vehicle | |
DE102019220168A1 (en) | Brightness conversion of images from a camera | |
DE102013103953B4 (en) | Lane detection at full speed using multiple cameras | |
EP3293971B1 (en) | Method for reproducing a section of an image | |
EP2229770A1 (en) | Method and device for image detection for motor vehicles | |
DE102020125232A1 (en) | Color correction method for a camera system and a camera system | |
DE102021212569A1 (en) | Method for displaying a model of an environment of a vehicle, computer program, control unit and vehicle | |
EP2192550A1 (en) | Method for determining the change in position of a camera system and device for recording and processing images | |
DE102014209863A1 (en) | Method and device for operating a stereo camera for a vehicle and stereo camera for a vehicle | |
DE102017219123A1 (en) | Method for determining object boundaries of an object in an exterior area of a motor vehicle and control device and motor vehicle | |
WO2022128013A1 (en) | Correction of images from a camera in case of rain, incident light and contamination | |
WO2019072451A1 (en) | Method for processing images | |
DE102022120236B3 (en) | Method for the harmonized display of camera images in a motor vehicle and a correspondingly equipped motor vehicle | |
DE102020215696B4 (en) | Method for displaying an environment of a vehicle, computer program product, storage medium, control device and vehicle | |
DE102020213267A1 (en) | Brightness conversion of stereo images | |
DE102021214952A1 (en) | Method for displaying a virtual view of an environment of a vehicle, computer program, control unit and vehicle | |
DE102022119751A1 (en) | Determining an area of interest from camera images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: B60R0001000000 Ipc: B60R0001220000 |
|
R163 | Identified publications notified |