DE102021213882A1 - Method for creating an overall environment model of a multi-camera system of a vehicle - Google Patents
Method for creating an overall environment model of a multi-camera system of a vehicle Download PDFInfo
- Publication number
- DE102021213882A1 DE102021213882A1 DE102021213882.9A DE102021213882A DE102021213882A1 DE 102021213882 A1 DE102021213882 A1 DE 102021213882A1 DE 102021213882 A DE102021213882 A DE 102021213882A DE 102021213882 A1 DE102021213882 A1 DE 102021213882A1
- Authority
- DE
- Germany
- Prior art keywords
- image detection
- detection sensor
- vehicle
- stationary
- environment model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/102—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Abstract
Verfahren zum Erstellen eines gesamtheitlichen Umgebungsmodells eines Multikamerasystems eines Fahrzeugs, wobei das Multikamerasystem wenigstens einen mobile Bilderfassungssensor aufweist, wobei Signale des wenigstens einen mobilen Bilderfassungssensors und wenigstens eines ortsfesten Bilderfassungssensors einer Auswerteeinrichtung zugeführt werden, wobei die Signale in der Auswerteeinrichtung verarbeitet und zu einem gesamtheitlichen Umgebungsmodell zusammengeführt werden, dadurch gekennzeichnet, dass ein dem wenigstens einen ortsfesten Bilderfassungssensor zugeordneter Marker durch den wenigstens einen mobilen Bilderfassungssensor erfasst wird, sodass eine Position des wenigstens einen ortsfesten Bilderfassungssensors in Relation zu dem mobilen Bilderfassungssensor determiniert wird, wobei diese Position bei der Erstellung des gesamtheitlichen Umgebungsmodells berücksichtigt wird.Method for creating an overall environment model of a multi-camera system of a vehicle, the multi-camera system having at least one mobile image acquisition sensor, signals from the at least one mobile image acquisition sensor and at least one stationary image acquisition sensor being fed to an evaluation device, the signals being processed in the evaluation apparatus and combined to form an overall environment model characterized in that a marker assigned to the at least one stationary image detection sensor is detected by the at least one mobile image detection sensor, so that a position of the at least one stationary image detection sensor is determined in relation to the mobile image detection sensor, this position being taken into account when creating the overall environment model becomes.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Erstellen eines gesamtheitlichen Umgebungsmodells eines Multikamerasystems, welches bei Fahrzeugen unterschiedlichster Gattung verwendet wird. Neben (Personen-) Kraft- und Nutzfahrzeugen finden entsprechende Multikamerasysteme und das Verfahren zum Erstellen des Umgebungsmodells in Arbeitsmaschinen, also Forst-, Land- und/oder Baumaschinen, Verwendung. Mit anderen Worten eignet sich das Verfahren sowohl für den Einsatz in Anwendungen auf befestigten Wegen/im Straßenverkehr als auch im Offroad-Einsatz oder auf Betriebs- und Hafengeländen.The present invention relates to a method for creating an overall environment model of a multi-camera system, which is used in vehicles of the most varied types. In addition to (passenger) motor and commercial vehicles, corresponding multi-camera systems and the method for creating the environment model are used in working machines, ie forestry, agricultural and/or construction machines. In other words, the method is suitable both for use in applications on paved roads/in road traffic and for off-road use or on company and port sites.
Aus dem Stand der Technik sind verschiedene Verfahren und Vorrichtungen bekannt, um ein Umgebungsmodell mittels eines Multikamerasystems unter Berücksichtigung FZG-interner und FZG-externer Kameras zu erzeugen.
Aus
Die Aufgabe der vorliegenden Erfindung ist darin zu sehen, ein verbessertes Verfahren zum Erstellen eines gesamtheitlichen Umgebungsmodells eines Multikamerasystems bereitzustellen. Die Aufgabe wird mit dem erfindungsgemäßen Verfahren gelöst. Ferner sind ein Multikamerasystem, ein Computerprogrammprodukt und ein Fahrzeug mit einem Multikamerasystem umfasst.The object of the present invention is to be seen as providing an improved method for creating an overall environment model of a multi-camera system. The object is achieved with the method according to the invention. Furthermore, a multi-camera system, a computer program product and a vehicle with a multi-camera system are included.
Bei dem erfindungsgemäßen Verfahren zum Erstellen eines gesamtheitlichen Umgebungsmodells eines Multikamerasystems eines Fahrzeugs weist ein Multikamerasystem wenigstens einen mobilen Bilderfassungssensor auf. Dabei handelt es sich beispielsweise um eine Kamera, welche an, auf oder in dem Fahrzeug montiert ist und einen Erfassungsbereich abdeckt, beispielsweise einen Rückraum. Bei sogenannten Bird-View-Systemen bzw. 360°-Kamerasystemen oder Surround-View-Systemen ist in der Regel anstatt nur einer Kamera eine Vielzahl von Bilderfassungssensoren vorgesehen, welche zueinander beabstandet umfänglich an, auf oder in dem Fahrzeug angebracht sind und so ein vollständiges Umgebungsmodell des betreffenden Fahrzeugs bereitstellen. Das so generierte Umgebungsmodell kann beispielsweise auf einer Anzeigevorrichtung dargestellt werden.In the method according to the invention for creating an overall environment model of a multi-camera system of a vehicle, a multi-camera system has at least one mobile image acquisition sensor. This is, for example, a camera that is mounted on, on, or in the vehicle and covers a detection area, for example a rear area. In so-called bird view systems or 360° camera systems or surround view systems, instead of just one camera, a large number of image acquisition sensors are usually provided, which are spaced apart from one another and mounted on, on or in the vehicle and thus a complete Provide environment model of the vehicle in question. The environment model generated in this way can be displayed on a display device, for example.
Signale des wenigstens einen mobilen Bilderfassungssensors werden einer Auswerteeinrichtung zugeführt. Neben den Signalen des wenigstens einen mobilen Bilderfassungssensors werden auch Signale von wenigstens einem ortsfesten Bilderfassungssensor der Auswerteeinrichtung zugeführt. Bei einem ortsfesten Bilderfassungssensor handelt es sich im Gegensatz zu dem mobilen Bilderfassungssensor beispielsweise um eine fest in oder an einer Infrastruktur (Gebäude, Licht-/Ampelmast, etc.) installierte Kamera, welche einen räumlich nicht veränderbaren, also nicht beweglichen Erfassungsbereich abdeckt. Das Zuführen der Signale an die Auswerteeinrichtung kann bei den mobilen Bilderfassungssensoren beispielsweise kabelgebunden erfolgen, während die Signale der ortsfesten Bilderfassungssensoren kabellos über geeignete Mittel zugeführt werden. Hierzu weisen ortsfester Bilderfassungssensor und Auswerteeinrichtung entsprechende Sende-/Empfangsmittel auf, um miteinander zu kommunizieren und Daten auszutauschen. Exemplarisch sind hier WLAN, Bluetooth, NFC, Mobilfunk (3G, 4G, 5G) etc. zu nennen.Signals from the at least one mobile image acquisition sensor are fed to an evaluation device. In addition to the signals from the at least one mobile image acquisition sensor, signals from at least one stationary image acquisition sensor are also fed to the evaluation device. In contrast to the mobile image acquisition sensor, a stationary image acquisition sensor is, for example, a camera installed permanently in or on an infrastructure (building, light/traffic light pole, etc.), which covers a spatially unchangeable, i.e. non-movable, acquisition area. In the case of the mobile image detection sensors, the signals can be supplied to the evaluation device, for example, by cable, while the signals of the stationary image detection sensors are supplied wirelessly via suitable means. For this purpose, the stationary image detection sensor and the evaluation device have corresponding transmission/reception means in order to communicate with one another and exchange data. WLAN, Bluetooth, NFC, mobile communications (3G, 4G, 5G) etc. are examples of this.
Die Signale des wenigstens einen ortsfesten und wenigstens einen mobilen Bilderfassungssensors werden in der Auswerteeinrichtung verarbeitet und zu einem gesamtheitlichen Umgebungsmodell zusammengeführt. Hierunter ist zu verstehen, dass die Signale des ortsfesten und des mobilen Sensors miteinander kombiniert werden, insbesondere da die Erfassungsbereiche des mobilen und des ortsfesten Bilderfassungssensor nicht kongruent zueinander sind. Durch das Zusammenführen der Signale und dem Erstellen des gesamtheitlichen Umgebungsmodells kann somit ein größerer Erfassungsbereich abgebildet werden, insbesondere können auch Bereiche in dem Fahrzeug bzw. auf der Anzeigevorrichtung dargestellt werden, welche durch die mobilen Bilderfassungssensoren, beispielsweise aufgrund von räumlichen Hindernissen oder der eigenen Erfassungsgrenzen, nicht einsehbar sind.The signals of the at least one stationary and at least one mobile image acquisition sensor are processed in the evaluation device and become an overall environment model merged. This means that the signals from the stationary and the mobile sensor are combined with one another, in particular since the detection ranges of the mobile and the stationary image detection sensor are not congruent to one another. By merging the signals and creating the overall environment model, a larger detection area can thus be mapped, in particular areas in the vehicle or on the display device can also be displayed which are covered by the mobile image detection sensors, for example due to spatial obstacles or their own detection limits. are not visible.
Erfindungsgemäß ist vorgesehen, dass dem wenigstens einen ortsfesten Bilderfassungssensor ein Marker zugeordnet ist, welcher durch den wenigstens einen mobilen Bilderfassungssensor erfasst wird. Bei dem Marker kann es sich beispielsweise um einen QR-Code, Barcode, AR-Tag etc. handeln. Neben Codierungsinformationen zum Herstellen der Kommunikation zwischen ortsfestem Bilderfassungssensor und Auswerteeinrichtung können auch Positionsangaben in Form von GPS-Koordinaten oder eine Ausrichtung und Erstreckung des Erfassungsbereichs codiert sein. Diese Informationen werden der Auswerteeinrichtung ebenfalls zugeführt und verarbeitet. Insofern GPS-Koordinaten in dem Marker kodiert sind, kann eine Zuordnung der Position in Relation zu dem Fahrzeug erfolgen, beispielsweise indem die GPS-Koordinaten des ortsfesten Bilderfassungssensors und GPS-Koordinaten des Fahrzeugs in Relation zueinander gesetzt und entsprechend verarbeitet werden. Insbesondere kann durch das Erfassen des Markers durch den wenigstens einen mobilen Bilderfassungssensor eine Position des Markers respektive des ortsfesten Bilderfassungssensors determiniert werden. Die Information über die Position des ortsfesten Bilderfassungssensors wird durch die Auswerteeinrichtung dahingehend verarbeitet, dass die Signale des ortsfesten und des mobilen Bilderfassungssensors korrekt zu einem gesamtheitlichen Umgebungsmodell zusammengeführt werden können. Bei dem sogenannten „Stitching“ werden die einzelnen Signalinhalte aneinandergeheftet, mit anderen Worten die Bilder der mobilen und ortsfesten Kamera also zu einem Ganzen zusammengefügt. Insbesondere wird dabei sichergestellt, dass die räumliche Ausrichtung der Bilder in dem gesamtheitlichen Umgebungsmodell korrekt berücksichtigt und wiedergegeben wird, die Inhalte der Signale also an der korrekten Stelle aneinandergeheftet werden und so das reale Umfeld abbilden. In einer optionalen Weiterbildung kann auch dem Fahrzeug bzw. jedem mobilen Bilderfassungssensor des Fahrzeugs ein Marker zugeordnet sein, welcher/welche durch den wenigstens einen ortsfesten Bilderfassungssensor erfasst wird/werden. So können Signale bzw. Signalinhalte und/oder Positionsinformationen zusätzlich plausibilisiert werden. Hierzu ist der/sind die betreffende/n Marker an dem Fahrzeug angebracht. Auch kann in einer alternativen Ausgestaltung oder in einer Fortbildung der Erfindung vorgesehen sein, dass mehrere Fahrzeuge anstatt mit dem wenigstens einen ortsfesten Bilderfassungssensor oder in Ergänzung mit dem wenigstens einen ortsfesten Bilderfassungssensor untereinander in der zuvor beschriebenen Art und Weise interagieren und Signale wenigstens eines weiteren mobilen Bilderfassungssensors eines weiteren Fahrzeugs der Auswerteeinrichtung zugeführt werden.According to the invention it is provided that the at least one stationary image detection sensor is assigned a marker which is detected by the at least one mobile image detection sensor. The marker can be a QR code, barcode, AR tag, etc., for example. In addition to coding information for establishing communication between the stationary image detection sensor and evaluation device, position information in the form of GPS coordinates or an orientation and extent of the detection area can also be coded. This information is also fed to the evaluation device and processed. If GPS coordinates are encoded in the marker, the position can be assigned in relation to the vehicle, for example by relating the GPS coordinates of the stationary imaging sensor and GPS coordinates of the vehicle to one another and processing them accordingly. In particular, a position of the marker or of the stationary image detection sensor can be determined by the detection of the marker by the at least one mobile image detection sensor. The information about the position of the stationary image detection sensor is processed by the evaluation device such that the signals from the stationary and the mobile image detection sensor can be correctly combined to form an overall environment model. In what is known as “stitching”, the individual signal contents are attached to one another, in other words the images from the mobile and stationary cameras are combined to form a whole. In particular, this ensures that the spatial alignment of the images is correctly taken into account and reproduced in the overall environment model, i.e. the contents of the signals are stitched together at the correct point and thus depict the real environment. In an optional development, a marker can also be assigned to the vehicle or to each mobile image detection sensor of the vehicle, which is/are detected by the at least one stationary image detection sensor. In this way, signals or signal contents and/or position information can also be checked for plausibility. For this purpose, the relevant marker(s) is/are attached to the vehicle. In an alternative embodiment or in a further development of the invention, it can also be provided that several vehicles interact with one another in the manner described above instead of with the at least one stationary image detection sensor or in addition to the at least one stationary image detection sensor and signals of at least one further mobile image detection sensor of another vehicle are fed to the evaluation device.
In einer Weiterbildung kann anhand des Markers auch eine relative Ausrichtung zu dem mobilen Bilderfassungssensor bestimmt werden. Dementsprechend erfolgt im Bedarfsfall eine Anpassung der bereitgestellten Inhalte des Signals. Mit anderen Worten wird das erhaltene Signal in der Auswerteeinrichtung entsprechend der Positionsinformationen verarbeitet, dies betrifft vor allen Dingen das Zusammenführen zu dem gesamtheitlichen Umgebungsmodell. Da der wenigstens eine mobile Bilderfassungssensor fest mit dem Fahrzeug verbunden und das System kalibriert ist, kann eine Zuordnung der Position relativ zu dem mobilen Bilderfassungssensor bzw. des Fahrzeugs erfolgen. Insofern die Marker eine genormte oder standardisierte Kontur und Größe aufweisen, kann auch darüber eine Ermittlung einer relativen Position, insbesondere einer Entfernung zu dem mobilen Bilderfassungssensor bzw. zu dem Fahrzeug vorgenommen werden.In one development, a relative orientation to the mobile image detection sensor can also be determined using the marker. If necessary, the provided content of the signal is adjusted accordingly. In other words, the signal received is processed in the evaluation device in accordance with the position information; this relates above all to the merging to form the overall environment model. Since the at least one mobile image capture sensor is permanently connected to the vehicle and the system is calibrated, the position can be assigned relative to the mobile image capture sensor or the vehicle. If the markers have a normalized or standardized contour and size, a relative position, in particular a distance from the mobile image detection sensor or from the vehicle can also be determined.
Bei einer Weiterbildung mit mehreren mobilen Bilderfassungssensoren können sich die betreffenden Erfassungsbereiche überlappen, sodass in Bereichen der Überlappung eine Erfassung des Markers mit mehr als einem mobilen Bilderfassungssensor erfolgen kann. Hierdurch ist die Position des Markers und somit des ortsfesten Bilderfassungssensors noch genauer feststellbar.In a further development with several mobile image detection sensors, the relevant detection areas can overlap, so that the marker can be detected with more than one mobile image detection sensor in overlapping areas. As a result, the position of the marker and thus of the stationary image detection sensor can be determined even more precisely.
Dieser Ansatz kann auch auf mehrere ortsfeste Bilderfassungssensoren angewendet werden, welche auch an verschiedenen Positionen um das Fahrzeug angeordnet sein können. Dabei können neben mehreren ortsfesten auch mehrere mobile Bilderfassungssensoren vorgesehen sein. Die so gewonnenen Positionen werden dann wiederum bei der Erstellung des gesamtheitlichen Umgebungsmodells berücksichtigt.This approach can also be applied to multiple stationary image acquisition sensors, which can also be arranged at different positions around the vehicle. In addition to several stationary image acquisition sensors, several mobile image acquisition sensors can also be provided. The positions obtained in this way are then in turn taken into account when creating the overall environment model.
Die Erfassung des wenigstens einen Markers und die Determinierung der Position des wenigstens einen ortsfesten Bilderfassungssensors erfolgt in einer Ausgestaltung des erfindungsgemäßen Verfahrens initial bei Stillstand des Fahrzeugs. Alternativ dazu erfolgt die Erfassung des wenigstens einen Markers und die Determinierung der Position des wenigstens einen ortsfesten Bilderfassungssensors nach initialer Erfassung fortlaufend während eines Fahrvorgangs.In one embodiment of the method according to the invention, the at least one marker is detected and the position of the at least one stationary image detection sensor is determined initially when the vehicle is stationary. Alternatively, the at least one marker is detected and the position of the at least one stationary image detection sensor after initial detection continuously during a driving process.
Beispielsweise bei initialer Erfassung bei Stillstand des Fahrzeugs erfolgt die Berücksichtigung einer Veränderung der Position in Relation zu dem wenigstens einen mobilen Bilderfassungssensor während eines Fahrvorgangs anhand von geeigneten Sensoren zur Erfassung kinematischer Größen des Fahrzeugs. Anders ausgedrückt wird eine relative Positionsänderung des Fahrzeugs anhand FZG-eigener Sensoren ermittelt und der Auswerteeinrichtung zugeführt, welche die Positionsänderung bei der Erstellung des gesamtheitlichen Umgebungsmodells dann wieder berücksichtigt. For example, in the case of initial detection when the vehicle is stationary, a change in position in relation to the at least one mobile image detection sensor during a driving process is taken into account using suitable sensors for detecting kinematic variables of the vehicle. In other words, a relative change in position of the vehicle is determined using FZG's own sensors and fed to the evaluation device, which then takes the change in position into account again when creating the overall environment model.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Multikamerasystem eines Fahrzeugs mit einer Auswerteeinrichtung umfasst, wobei die Auswerteeinrichtung signalübertragend mit dem wenigstens einen mobilen und wenigstens einen ortsfesten Bilderfassungssensor verbunden ist. Die signalübertragende Verbindung kann dabei kabelgebunden oder kabellos, in Bezug auf den ortsfesten Bilderfassungssensor besonders vorteilhaft kabellos, erfolgen. Die Auswerteeinrichtung ist dazu geeignet und eingerichtet, das erfindungsgemäße Verfahren mit den zuvor beschriebenen Merkmalen für sich oder in beliebiger Kombination der Weiterbildungen auszuführen und ein gesamtheitliches Umgebungsmodell bereitzustellen.According to a further aspect of the present invention, a multi-camera system of a vehicle is included with an evaluation device, the evaluation device being connected to the at least one mobile and at least one stationary image acquisition sensor in a signal-transmitting manner. The signal-transmitting connection can be wired or wireless, particularly advantageously wireless in relation to the stationary image detection sensor. The evaluation device is suitable and set up to carry out the method according to the invention with the features described above alone or in any combination of the developments and to provide an overall environment model.
Weiter umfasst ist ein Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeichertem Programmcode zur Durchführung des erfindungsgemäßen Verfahrens. Dabei wird das Verfahren ausgeführt, wenn der Programmcode auf der Auswerteeinrichtung ausgeführt wird.Also included is a computer program product with a program code stored on a machine-readable carrier for carrying out the method according to the invention. The method is executed when the program code is executed on the evaluation device.
Darüber hinaus ist ein Fahrzeug mit einem erfindungsgemäßen Multikamerasystem von der Erfindung umfasst, wobei das erstellte gesamtheitliche Umgebungsmodell auf einer Anzeigevorrichtung dargestellt wird. In einer möglichen Weiterbildung kann auch eine Objekterkennung in der Auswerteeinrichtung umgesetzt werden, sodass Hindernisse und/oder Gefahrenstellen in dem gesamtheitlichen Umgebungsmodell berücksichtigt und auf der Anzeigevorrichtung dargestellt werden. Ferner kann eine Sicherheitsfunktion dergestalt vorgesehen werden, dass bei Unterschreiten eines vorgegebenen Mindestabstandes zwischen Hindernis und Fahrzeug eine optische, akustische und/oder haptische Warnmeldung ausgegeben wird. Auch kann in einer Weiterbildung vorgesehen sein, dass ein Eingriff in Fahrfunktionen in Form einer Anfahrverhinderung oder einer Notbremsung umgesetzt wird. Dies kann entweder direkt durch die Auswerteeinrichtung erfolgen, oder die Auswerteeinrichtung sendet entsprechende Signale an ein Motorsteuergerät, Bremssteuergerät und/oder Getriebesteuergerät aus.In addition, a vehicle with a multi-camera system according to the invention is covered by the invention, with the created overall environment model being displayed on a display device. In one possible development, object recognition can also be implemented in the evaluation device, so that obstacles and/or danger spots are taken into account in the overall environment model and displayed on the display device. Furthermore, a safety function can be provided in such a way that an optical, acoustic and/or haptic warning message is output if the distance between the obstacle and the vehicle falls below a predetermined minimum. Provision can also be made in a development for an intervention in driving functions to be implemented in the form of a starting prevention or emergency braking. This can either be done directly by the evaluation device, or the evaluation device sends corresponding signals to an engine control unit, brake control unit and/or transmission control unit.
Die Erfindung wird anhand der nachfolgenden Figuren in beispielhaften Ausführungen näher erläutert. Es zeigen:
-
1 : eine schematische Darstellung eines Multikamerasystems eines Fahrzeugs nach dem Stand der Technik; -
2 : eine schematische Darstellung eines erfindungsgemäßen Multikamerasystems eines Fahrzeugs.
-
1 1: a schematic representation of a multi-camera system of a vehicle according to the prior art; -
2 1: a schematic representation of a multi-camera system according to the invention of a vehicle.
In der hier gezeigten Ausführungsform sind ferner vier schraffiert dargestellte Überschneidungsbereiche VR, RH, HL, LV abgebildet. Dies sind die Bereiche des Umgebungsmodells, in welchen sich die Erfassungsbereiche 3 benachbarter mobiler Bilderfassungssensoren 2 überlappen. So wird der Überschneidungsbereich VR durch die Schnittmenge der Kreisausschnitte V und R, der Überschneidungsbereich RH durch die Schnittmenge der Kreisausschnitte R und H, der Überschneidungsbereich HL durch die Schnittmenge der Kreisausschnitte H und L und der Überschneidungsbereich LV durch die Kreisausschnitte L und V gebildet.In the embodiment shown here, four overlapping areas VR, RH, HL, LV shown hatched are also shown. These are the areas of the environment model in which the
Hierdurch kann eine Position, insbesondere eine relative Ausrichtung/Position eines ortsfesten Bilderfassungssensors 4 zu dem Fahrzeug 1 bzw. den mobilen Bilderfassungssensoren 2, besser identifiziert werden, sodass in der nicht gezeigten Auswerteeinrichtung ein Signal des ortsfesten Bilderfassungssensors 4 räumlich besser zugeordnet und räumlich korrekt zusammengefügt bzw. an die Signale der mobilen Bilderfassungssensoren 2 angeheftet werden kann. Hierdurch ergibt sich ein verbessertes ganzheitliches Umgebungsmodell des Multikamerasystems. In der Darstellung gemäß
Vorliegend wird das Signal des ortsfesten Bilderfassungssensors 4 kabellos an die Auswerteeinrichtung in dem Fahrzeug 1 übertragen bzw. dieser zugeführt. Im Ergebnis wird durch das Anheften bzw. Zusammenfügen der Erfassungsbereiche 3 der mobilen und ortsfesten Bilderfassungssensoren 2, 4 der Erfassungsbereich 3 erweitert. Diese gepunktet dargestellte Erweiterung G ergibt sich aus der Differenzmenge des Erfassungsbereichs 3 des ortsfesten Bilderfassungssensors 4 ohne den Erfassungsbereich 3 der mobilen Bilderfassungssensoren 2. Anders ausgedrückt ergibt sich die Erweiterung G aus der Differenzmenge des Kreisausschnitts O ohne die Kreisausschnitte V, R, H, L.In the present case, the signal from the stationary
In hier nicht gezeigten Weiterbildungen können auch mehrere ortsfeste Bilderfassungssensoren 4 berücksichtigt werden, wobei jedem ortsfesten Bilderfassungssensor 4 jeweils ein eindeutig identifizierbarer Marker 5 zugeordnet ist. Die Erweiterung G des Erfassungsbereichs 3 ergibt sich dann in analoger Anwendung der zuvor beschriebenen Vorgehensweise aus den jeweiligen Differenzmengen.In developments not shown here, several stationary
BezugszeichenlisteReference List
- 11
- Fahrzeugvehicle
- 22
- Mobiler BilderfassungssensorMobile image capture sensor
- 33
- Erfassungsbereichdetection range
- 44
- Ortsfester BilderfassungssensorFixed image capture sensor
- 55
- Marker marker
- GG
- Erweiterungextension
- V, R, H, L, OV, R, H, L, O
- Kreisausschnittcircle section
- VR, RH, HL, LVVR, RH, HL, LV
- Überschneidungsbereichoverlap area
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 102009045496 A1 [0002]DE 102009045496 A1 [0002]
- DE 102016224906 A1 [0003]DE 102016224906 A1 [0003]
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021213882.9A DE102021213882A1 (en) | 2021-12-07 | 2021-12-07 | Method for creating an overall environment model of a multi-camera system of a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021213882.9A DE102021213882A1 (en) | 2021-12-07 | 2021-12-07 | Method for creating an overall environment model of a multi-camera system of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021213882A1 true DE102021213882A1 (en) | 2023-06-07 |
Family
ID=86382034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021213882.9A Pending DE102021213882A1 (en) | 2021-12-07 | 2021-12-07 | Method for creating an overall environment model of a multi-camera system of a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021213882A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009045496A1 (en) | 2009-10-08 | 2011-04-14 | Robert Bosch Gmbh | Method for utilizing image information of vehicle-external image preparing device for driver information system or driver assistance system of vehicle, involves preparing image information request at interface |
US20120218125A1 (en) | 2011-02-28 | 2012-08-30 | Toyota Motor Engin. & Manufact. N.A.(TEMA) | Two-way video and 3d transmission between vehicles and system placed on roadside |
DE102013101493A1 (en) | 2013-02-14 | 2014-08-14 | Continental Teves Ag & Co. Ohg | Method for operating navigation system of vehicle, involves connecting environment entity to evaluation unit, and specifying current position of vehicle by satellite-based positioning system based on position data of landmarks |
DE102016224906A1 (en) | 2016-12-14 | 2018-06-14 | Conti Temic Microelectronic Gmbh | An image processing apparatus and method for processing image data from a multi-camera system for a motor vehicle |
DE102017118078A1 (en) | 2017-08-09 | 2019-02-14 | Safran Electronics & Defense | Localization device for a motor vehicle, driver assistance device, motor vehicle and method for locating a motor vehicle |
-
2021
- 2021-12-07 DE DE102021213882.9A patent/DE102021213882A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009045496A1 (en) | 2009-10-08 | 2011-04-14 | Robert Bosch Gmbh | Method for utilizing image information of vehicle-external image preparing device for driver information system or driver assistance system of vehicle, involves preparing image information request at interface |
US20120218125A1 (en) | 2011-02-28 | 2012-08-30 | Toyota Motor Engin. & Manufact. N.A.(TEMA) | Two-way video and 3d transmission between vehicles and system placed on roadside |
DE102013101493A1 (en) | 2013-02-14 | 2014-08-14 | Continental Teves Ag & Co. Ohg | Method for operating navigation system of vehicle, involves connecting environment entity to evaluation unit, and specifying current position of vehicle by satellite-based positioning system based on position data of landmarks |
DE102016224906A1 (en) | 2016-12-14 | 2018-06-14 | Conti Temic Microelectronic Gmbh | An image processing apparatus and method for processing image data from a multi-camera system for a motor vehicle |
DE102017118078A1 (en) | 2017-08-09 | 2019-02-14 | Safran Electronics & Defense | Localization device for a motor vehicle, driver assistance device, motor vehicle and method for locating a motor vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2345021B1 (en) | Method for displaying a warning message in a vehicle | |
EP2764505B1 (en) | Display method and display system for a vehicle | |
DE102008043743A1 (en) | Sensor signals e.g. video sensor signals, evaluating method for detecting e.g. traffic sign in surrounding of vehicle, involves evaluating information based on evaluation specification, and outputting information based on evaluation result | |
DE102008010119A1 (en) | Device for detecting an object and system for communication between vehicles | |
WO2014044632A1 (en) | Method and device for vehicle communication | |
EP3151213B1 (en) | Vehicular apparatus and method of recording an area in the vicinity of a motor vehicle | |
DE102012023498A1 (en) | Method for guiding automatic and/or assistive vehicle i.e. motor car, involves transmitting stored information to vehicle to decide whether track portion is suitable to guide automatic and/or assisting vehicle by environment sensor system | |
DE102009047436A1 (en) | Method for resetting and/or setting blinker system of vehicle i.e. commercial motor vehicle, involves detecting completed and/or forthcoming direction change by comparing location data of vehicle with map data | |
DE102016201667A1 (en) | Method for determining a desired trajectory for a first road user, in particular for a motor vehicle for a road section | |
DE102010015686A1 (en) | Method for operating a motor vehicle and motor vehicle | |
DE102015003847A1 (en) | Method and driver assistance system for detecting and signaling light signals from at least one light signal device of a alternating light signaling system | |
DE102017111468A1 (en) | A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object | |
DE102017223431A1 (en) | A method for assisting a driver of a motor vehicle in an overtaking operation; Motor vehicle; as well as system | |
DE102020123831A1 (en) | Concept for supporting an at least partially automated motor vehicle | |
DE102020211478A1 (en) | Concept for supporting an at least partially automated motor vehicle | |
EP3827277B1 (en) | Method, system and electronic computing device for checking sensor devices of vehicles, in particular of motor vehicles | |
DE102018210852A1 (en) | Procedure for the determination of illegal driving behavior by a vehicle | |
DE102016209242B4 (en) | UNIT SETTING DEVICE AND UNIT SETTING PROCEDURE | |
DE102016215538A1 (en) | Method for transforming sensor data | |
DE102007007283A1 (en) | Vehicle for recording surroundings makes information on surroundings available to a vehicle's control unit so as to change a vehicle's performance | |
DE102021213882A1 (en) | Method for creating an overall environment model of a multi-camera system of a vehicle | |
DE102019206652A1 (en) | Method for determining a vehicle length of a vehicle in a vehicle group | |
DE102017218044A1 (en) | Informing a vehicle parked at a lane boundary about a critical location of the vehicle with respect to the lane boundary | |
DE102017006835A1 (en) | Control system, method and motor vehicle for calculating a motor vehicle trajectory | |
DE102013207456A1 (en) | Method of predicting a particular maneuver |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |