-
Die Erfindung betrifft ein Verfahren zum Auswählen eines Ausschnitts für eine Umfelderfassung durch einen Sensor basierend auf Sensordaten sowie ein Steuergerät.
-
Stand der Technik
-
Fahrzeuge mit automatisierten Fahrfunktionen können ab einem bestimmten Automatisierungsgrad autonom und ohne einen Fahrer betrieben werden. Das Fahrzeug kann beispielsweise automatisch einem Straßenverlauf folgen, andere Verkehrsteilnehmer oder Hindernisse selbständig erkennen und die entsprechenden Steuerbefehle im Fahrzeug berechnen sowie diese an Aktuatoren im Fahrzeug weiterleiten, wodurch der Fahrverlauf des Fahrzeugs korrekt beeinflusst wird. Der Fahrer ist bei einem vollautonomen Fahrzeug nicht am Fahrgeschehen beteiligt.
-
Gegenwärtig verfügbare Fahrzeuge sind nur beschränkt in der Lage im öffentlichen Verkehrsraum autonom zu agieren. Insbesondere besteht die gesetzliche Beschränkung, dass der Fahrzeugführer jederzeit selbst in das Fahrgeschehen eingreifen können muss. Dies erschwert die Umsetzung von autonomen Fahrzeugen. Jedoch gibt es bereits Systeme verschiedener Hersteller in Testphasen, die ein autonomes oder teilautonomes Fahren ermöglichen.
-
Bereits heute werden verschiedene Sensoren in autonomen Fahrzeugen für die Umfelderkennung des Fahrzeugs eingesetzt. Basierend auf Algorithmen können die Sensordaten ausgewertet und beispielsweise Objekte im Umfeld erkannt werden.
-
Die Druckschrift D1
DE 101 54 861 A1 beschreibt ein Verfahren zum Auswählen eines Ausschnitts für eine Umfelderfassung durch einen Sensor basierend auf Sensordaten, wobei ein Umfeld durch mindestens einen zusätzlichen Sensor erfasst wird, basierend auf den ermittelten Sensordaten des mindestens einen zusätzlichen Sensors eine Objekterkennung durchgeführt wird, anhand der Objekterkennung Positionsinformationen von mindestens einem erkannten Objekt in ein Koordinatensystem des Sensors transformiert werden und wobei der Sensor anhand der transformierten Positionsinformationen einen Ausschnitt eines Abtastbereichs für die Umfelderfassung oder einen Bildausschnitt aus bereits erfassten Sensordaten für eine Auswertung verwendet.
-
Die Druckschrift
DE 10 2015 204 529 A1 beschreibt eine Vorrichtung sowie ein Verfahren zur Objekterkennung in einem Fortbewegungsmittel. Das Verfahren umfasst die Schritte: Erfassen eines Umfeldes des Fortbewegungsmittels durch einen Sensor des Fortbewegungsmittels, Auswerten einer ersten Menge von Daten des Sensors, Erkennen eines veränderten Betriebsparameters des Fortbewegungsmittels, und im Ansprechen darauf Definieren einer zweiten Menge von Daten des Sensors und Auswerten der zweiten Menge von Daten.
-
Offenbarung der Erfindung
-
Die der Erfindung zugrundeliegende Aufgabe kann darin gesehen werden, ein Verfahren zum Beschleunigen einer Auswertung von Sensordaten vorzuschlagen.
-
Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
-
Nach einem Aspekt der Erfindung wird ein Verfahren zum Auswählen eines Ausschnitts für eine Umfelderfassung durch einen Sensor basierend auf Sensordaten bereitgestellt. Es wird ein Umfeld durch mindestens einen zusätzlichen Sensor erfasst. Basierend auf den ermittelten Sensordaten des mindestens einen zusätzlichen Sensors wird eine Objekterkennung durchgeführt. Anhand der Objekterkennung werden Positionsinformationen von mindestens einem erkannten Objekt ermittelt und in ein Koordinatensystem des Sensors transformiert, wobei der Sensor anhand der transformierten Anordnungsinformationen einen Ausschnitt eines Abtastbereichs für die Umfelderfassung oder einen Bildausschnitt aus bereits erfassten Sensordaten für eine Auswertung verwendet.
-
Hierdurch kann ein oder mehrere relevante Bildausschnitte ermittelt werden, die für eine Umfelderfassung und/oder eine Auswertung der Sensordaten eingesetzt werden. Ein relevanter Bildausschnitt ist beispielsweise der Bildausschnitt in einem LIDAR-Scan, welcher relevante Objektdaten aus dem Umfeld eines autonomen Fahrzeugs enthält. Durch das Verfahren kann mithilfe von weiteren bzw. zusätzlichen Umfeldsensoren, wie beispielsweise RADAR-Sensoren, LIDAR-Sensoren, Kamera-Sensoren und dergleichen, eine Vorauswahl des relevanten Bildausschnitts der Sensordaten getroffen werden. Der Sensor, welcher beschleunigt und optimiert werden kann, kann beispielsweise als ein LIDAR-Sensor oder als ein RADAR-Sensor ausgestaltet sein.
-
Durch den Einsatz von zusätzlichen Sensoren kann eine Auswahl eines relevanten Bildausschnitts oder bestimmter Pixel schnell und effizient im Hinblick auf relevante Objekte im Umkreis des Sensors durchgeführt werden.
-
Bei einer Ausführungsform kann die Auswahl relevanter Pixel bzw. eines Bildausschnitts für einen Sensor mithilfe von Sensordaten, wie beispielsweise Kameradaten eines Fahrzeugs, erfolgen. Beispielsweise kann eine Kamera bereits über eine Objekterkennung verfügen, wobei diese Objekterkennung mit einer gewissen Wahrscheinlichkeit zuverlässig arbeitet. Sofern relevante Objekte innerhalb des Kamerabildes erkannt werden, können diese zunächst gegenüber einem Fahrzeugkoordinatensystem oder einem Kamerakoordinatensystem geortet werden. In einem nächsten Schritt kann das erkannte Objekt in ein Koordinatensystem transformiert werden, woraus sich die relevanten Bildpunkte bzw. der relevante Bildausschnitt für dieses Objekt in einem Erfassungsbereich des Sensors bzw. einem Abtastbereich des Sensors ergibt.
-
In einer weiteren Ausführungsform kann die Selektion des relevanten Bildausschnitts des Sensors durch Daten weiterer Umfeldsensoren wie beispielsweise RADAR-Sensoren, Ultraschall-Sensoren und weiterer im Fahrzeug verbauter Umfeldsensoren durchgeführt werden.
-
Der Sensor kann beispielsweise ein LIDAR-Sensor sein, kann jedoch auch ein beliebiger anderer Sensor, wie Radar-Sensor, Kamera-Sensor und dergleichen sein. Beispielsweise kann das Verfahren auch in umgekehrter Richtung durchgeführt werden, indem Objekte zunächst von einem LIDAR-Sensor erkannt werden und anschließend in weiteren Umfeldsensoren für die Selektion von relevanten Bildausschnitten verwendet werden. Darüber hinaus kann eine beliebige Kombination von Umfeldsensoren für die Umsetzung des Verfahrens gewählt werden.
-
Das Verfahren weist insbesondere die folgenden Vorteile auf:
- - Durch die schnelle und gezielte Objekterkennung bzw. Objektplausibilisierung auf einem weiteren redundanten Umfeldsensor kann die Sicherheit eines autonomen Fahrzeugs erhöht werden.
- - Die im Fahrzeug verbauten Umfeldsensoren können für die Umfelderkennung des Fahrzeugs eng miteinander zusammenarbeiten.
- - Durch das Verfahren kann eine ganzheitliche Betrachtung des Fahrzeugumfelds über der Zeit bei allen relevanten Umfeldsensoren umgesetzt werden.
- - Wird nur der relevante Bildausschnitt eines redundanten Umfeldsensors für eine Objekterkennung betrachtet, so kann dieser Umfeldsensor weniger leistungsstark ausgelegt sein, da nicht alle Pixel bzw. alle Eingangsdaten des Umfeldsensors auch übertragen oder analysiert werden müssen.
- - Die Koordinatentransformation eines von einem Umfeldsensor erkannten Objekts zusammen mit den Objektdimensionen in ein Zielkoordinatensystem eines weiteren Umfeldsensors und die anschließende Datenübertragung auf diesen Umfeldsensor oder Verarbeitung derselben Daten aus den Sensordaten des mindestens einen zusätzlichen Sensors kann geschwindigkeitsfokusiert erfolgen und bedarf einer geringeren Rechenkapazität. Darüber hinaus kann eine Belastung eines Bus-Systems des Fahrzeugs für die Umsetzung des Verfahrens gering gehalten werden.
-
Gemäß einer Ausführungsform weist die Positionsinformation von dem mindestens einen erkannten Objekt Objektmaße und eine Objektposition in einem Sensor- oder Fahrzeugkoordinatensystem auf. Die Datenübertragung zwischen den Sensoren kann hierbei die Objektmaße des beispielsweise im Kamerasystem erkannten Objekts und der Lage dieses Objekts im Koordinatensystem der Kamera aufweisen. Diese Positionsinformationen können anhand der bekannten relativen Anordnung der Sensoren zueinander dazu genutzt werden, einen Ausschnitt zu berechnen, in welchem der Sensor das von dem zusätzlichen Sensor bereits ermittelte Objekt ebenfalls detektieren kann. Auf diese Weise kann die Datenübertragung sehr schlank gestaltet werden. Mithilfe eines Computerprogramms bzw. intelligenten Algorithmus oder mithilfe einer künstlichen Intelligenz kann in einem weiteren Schritt die Selektion dieses relevanten Objekts aus den Bilddaten des Sensors erfolgen, indem aus einem Sensorscan nur der relevante Bildausschnitt bzw. die relevanten Pixel mithilfe des Algorithmus bzw. der Kl analysiert werden. Auf diese Weise kann die Objekterkennung durch den Sensor deutlich schneller erfolgen und es werden weniger Rechenkapazitäten benötigt, da nur der relevante Bildausschnitt bzw. die gerade in diesem Moment relevanten Pixeldaten ausgewertet werden.
-
Nach einem weiteren Ausführungsbeispiel verwendet der LIDAR-Sensor basierend auf transformierten Positionsinformationen von mehreren Sensoren mindestens einen Bildausschnitt aus bereits erfassten Sensordaten für eine Auswertung. Hierdurch kann die Selektion des relevanten Bildausschnitts im Sensor mithilfe von Daten mehrerer zusätzlicher Umfeldsensoren in einer Kombination erfolgen.
-
Beispielsweise können ein oder mehrere erkannte Objekte einer Kamera und eines RADAR-Sensors bei einem LIDAR-Sensor für eine gezielte Auswahl eines Bildausschnitts oder für eine Plausibilisierung eingesetzt werden.
-
Gemäß einem weiteren Ausführungsbeispiel wird die Transformation der Positionsinformationen durch ein zentrales Steuergerät oder durch ein Sensorsteuergerät durchgeführt. Es kann somit die Transformation der Positionsinformationen des erkannten Objekts aus dem Kamerakoordinatensystem des mindestens einen zusätzlichen Sensors in ein Koordinatensystem des Sensors, wie beispielsweise eines LIDAR-Sensors, erfolgen. Dabei kann die Transformation beispielsweise auf einem Fahrzeugzentralrechner erfolgen oder innerhalb eines Rechners des Sensors oder der zusätzlichen Sensoren. Die Sensoren können entweder direkt oder indirekt über ein Fahrzeugsteuergerät mithilfe eines Fahrzeugbusses, wie beispielsweise Flexray, Ethernet, CAN, oder einer Funkschnittstelle, kommunikationstechnisch miteinander verbunden sein.
-
Gemäß einer weiteren Ausgestaltung wird die Transformation der Positionsinformationen durch den zusätzlichen Sensor durchgeführt, wobei zwischen den Sensoren direkte Kommunikationsverbindungen hergestellt werden. Hierdurch kann das Verfahren dezentral ausgeführt werden.
-
Nach einem weiteren Ausführungsbeispiel werden die von dem mindestens einen Sensor bereitgestellten Positionsinformationen von mindestens einem Objekt zum Verfolgen des mindestens einen Objekts zeitlich verändert. Dabei können die von beispielsweise einer Kamera erkannten Objekte über der Zeit verfolgt und kontinuierlich oder zyklisch an den Sensor für die Auswahl des relevanten Bildausschnitts übertragen werden. Insbesondere können die Positionsinformationen zum verfolgten Objekt übertragen werden. Dies kann auch dann durchgeführt werden, wenn das Objekt den relevanten Bildausschnitt einer Kamera bzw. des mindestens einen zusätzlichen Sensors bereits verlassen hat. Beispielsweise ist ein Objekt ist beispielsweise nicht mehr vor dem Fahrzeug angeordnet und somit nicht mehr für eine Frontkamera (zusätzlicher Sensor), sondern nur noch für einen Seitlich am Fahrzeug angeordneten Sensor (Lidarsensor) sichtbar. Der Lidarsensor bekommt den relevanten Bildausschnitt durch Extrapolation eines Kamerabildflusses jenseits der Kamerapixel anhand der momentanen Fahrzeuggeschwindigkeit übermittelt und verfolgt somit gezielt das Objekt an der Fahrzeugseite.
-
Gemäß einem weiteren Ausführungsbeispiel wird eine zeitlich variable Anpassung der Positionsinformationen des mindestens einen Objekts außerhalb eines Abtastbereichs des mindestens einen Sensors fortgesetzt. Beispielsweise kann ein Objekt mithilfe einer im Fahrzeug verbauten Frontkamera erkannt werden. Dieses Objekt wird anschließend durch das Fahrzeug passiert, was bedeutet, dass das Fahrzeug seitlich am Objekt vorbeifährt. In diesem Fall kann das relevante Objekt in einem Zwischenspeicher eines Fahrzeugrechners oder eines Steuergerätes abgelegt werden und mithilfe der Fahrzeuggeschwindigkeit bzw. einer Fahrzeugdynamik bzw. einer hochgenauen Fahrzeugposition in der Welt auch beim Verlassen des relevanten Bildausschnitts der Kamera weiterhin in ein Koordinatensystem des Sensors bzw. des LIDAR-Sensors transformiert werden. Hierdurch können die Positonsinformationen des Objekts an einen seitlich am Fahrzeug verbauten LIDAR-Sensors weitergeleitet werden. Dies geschieht beispielsweise so lange, bis das entsprechende Objekt von dem seitlich am Fahrzeug verbauten LIDAR-Sensorzuverlässig erkannt wurde. In diesem Fall kann der LIDAR-Sensor eine Rückmeldung an den entsprechenden Fahrzeugrechner oder an das Kamerasystem selbst liefern. Insbesondere kann übermittelt werden, dass das entsprechende Objekt seitlich am Fahrzeug wiedergefunden wurde. Anschließend können die zwischengespeicherten Objektdaten bzw. Positionsinformationen der Objekte, die kontinuierlich in das entsprechende Koordinatensystem weiter transformiert wurden gelöscht werden. Der seitlich verbaute LIDAR-Sensor kann seine Objekterkennung nun selbstständig durchführen.
-
Nach einem weiteren Ausführungsbeispiel wird der mindestens eine für die Auswertung verwendete Bildausschnitt der erfassten Sensordaten des LIDAR-Sensors basierend auf Sensordaten eines Positionssensors und den Daten einer Karte ausgewählt. Hierbei erfolgt die Selektion eines relevanten Bildausschnitts, beispielsweise in einem LIDAR-Sensor, mithilfe von Daten mindestens eines GNSS-Sensors bzw. mithilfe einer Position eines Fahrzeugs auf einer hochgenauen Karte. Beispielsweise kennt das Fahrzeug seine Position hochgenau innerhalb des Gebietes. Außerdem sind die Features bzw. wichtige Strukturen um das Fahrzeug herum durch eine Kartierung der hochgenauen Fahrzeugposition auf einer Karte bekannt. Ein Anwendungsfall für diese Ausführungsform der Erfindung ist die gezielte Erkennung eines Fußgängers auf der rechten oder linken Seite eines Zebrastreifens. Beispielsweise weiß das autonome Fahrzeug, dass es sich gerade einem Zebrastreifen nähert. Über die Entfernung und Orientierung zu diesem Zebrastreifen können gezielte Bildinformationen des LIDAR-Sensors relativ zu diesem Zebrastreifen aus dem entsprechenden Scan des LIDAR-Sensors selektiert werden, in welchem sich Fußgänger theoretisch befinden können. Dies kann beispielsweise links vom Zebrastreifen, auf dem Zebrastreifen oder rechts vom Zebrastreifen sein. Zu diesem Zweck erfolgt eine Transformation der relativen Position des Zebrastreifens, mit den Dimensionen des Zebrastreifens sowie den möglichen Positionen von Fußgängern in das Koordinatensystem des LIDAR-Sensors. Der LIDAR-Sensor kann nun gezielt die Bildausschnitte selektieren die zu diesem Zeitpunkt relevant für eine Fußgängererkennung sind. Weitere mögliche Anwendungsfälle sind die Erkennung von seitlich parkenden Fahrzeugen in einem Stadtgebiet oder die Erkennung von bereits auf der Karte vorhandenen Strukturen zur Orientierung oder Positionierung des Fahrzeugs in der Welt.
-
Gemäß einem weiteren Ausführungsbeispiel wird der mindestens eine für die Auswertung verwendete Bildausschnitt der erfassten Sensordaten des LIDAR-Sensors basierend auf Positionsdaten von mindestens einem Verkehrsteilnehmer ausgewählt. Nach einer weiteren Ausführungsform werden Positionsdaten des mindestens einen Verkehrsteilnehmers über eine direkte oder indirekte Kommunikationsverbindung übermittelt. Die Selektion eines relevanten Bildausschnitts, beispielsweise in einem LIDAR-Sensor, kann hierdurch mithilfe von empfangenen Positionsdaten weiterer Verkehrsteilnehmer über eine Car-to-X Kommunikationsverbindung übertragen werden. In diesem Fall kann das eigene Fahrzeug die Dimensionen, hochgenauen Positionen sowie Orientierungen der weiteren Verkehrsteilnehmer über die Car-to-X Kommunikationsverbindung empfangen. Diese hochgenauen Positionen der weiteren Verkehrsteilnehmer können in einem weiteren Schritt in das Koordinatensystem des Sensors transformiert werden. Anschließend erfolgt die Selektion des relevanten Bildausschnitts in dem Sensor für die Erkennung des mindestens eines weiteren Verkehrsteilnehmers mithilfe der transformierten Koordinaten und den Dimensionen genau dieses Verkehrsteilnehmers. Auf diese Weise ist eine Plausibilisierung von über die Car-to-X Kommunikation empfangenen Positionsdaten und Orientierungen weiterer Verkehrsteilnehmer relativ zum eigenen Fahrzeug möglich.
-
Nach einer weiteren Ausführungsform wird der mindestens eine Bildausschnitt der erfassten Sensordaten des LIDAR-Sensors durch eine künstliche Intelligenz ausgewählt. Somit kann die Selektion des relevanten Bildausschnitts durch eine künstliche Intelligenz (KI) durchgeführt werden, die beispielsweise als ein neuronales Netz ausgebildet sein kann. Beispielsweise kann diese KI die Koordinatentransformation des zu erkennen Objekts automatisch in das Koordinatensystem des Sensors durchführen. Alternativ oder zusätzlich kann die KI für die Objekterkennung relativ zum eigenen Fahrzeug mithilfe einer Kamera, eines RADAR-Sensors, eines LIDAR-Sensors, eines Ultraschallsensors, eines GNSS-Sensors, oder einer Car-to-X Kommunikationsverbindung verantwortlich sein. Des Weiteren kann sich auf dem Sensor bzw. einem Sensorsteuergerät eine eigene KI befinden, welche aus den empfangenen Daten (Koordinaten und Dimensionen das zu erkennen Objekts) eine Objekterkennung oder Objekt-Plausibilisierung durch eine vorgelagerte Selektion eines relevanten Bildausschnitts durchführt.
-
Gemäß einer weiteren Ausführungsform wird die durch den LIDAR-Sensor durchgeführte Auswertung zum Plausibilisieren der Objekterkennung eingesetzt. Hierdurch kann der Sensor eine Redundanz für die zusätzlichen Sensoren bilden.
-
Nach einer weiteren Ausführungsform wird die Plausibilisierung durch eine Anfrage von mindestens einem Sensor durchgeführt. Die gezielte Objekterkennung bzw. Objekt-Plausibilisierung eines bereits erkannten Objektes eines weiteren Umfeldsensors durch den Sensor kann hierdurch mithilfe einer Anfrage bzw. bei Bedarf erfolgen. Beispielsweise wurde ein Objekt nur mit einer geringen „Confidence“ bzw. Sicherheit von einem Umfeldsensor erkannt. Der Umfeldsensor sendet nun die Koordinaten und Dimensionen des vermutlich erkannten Objektes über eine Anfrage an den Sensor. Dieser kann die Objekterkennung mithilfe des relevanten Bildausschnitts einmalig oder für eine definierte Zeitdauer durchführen. Wird das Objekt beispielsweise auch vom Sensor im relevanten Bildausschnitt nach erfolgter Koordinatentransformation zuverlässig erkannt, sendet der Sensor eine Antwort an den weiteren Umfeldsensor, dass das entsprechende Objekt plausibel ist. Der weitere Umfeldsensor kann das zuverlässig erkannte Objekt für die Umsetzung des autonomen Fahrens nun weiterverfolgen. Sofern das entsprechende Objekt auch nach mehreren Versuchen von dem Sensor nicht erkannt wurde, erfolgt ebenfalls eine Antwort an den anfragenden zusätzlichen Umfeldsensor, dass das Objekt unplausibel ist. Mithilfe dieser Ausführungsform der Erfindung ist eine gezielte Plausibilisierung von erkannten Objekten durch einen Sensor möglich. Diese Plausibilisierung kann innerhalb eines sehr kurzen Zeitabschnitts erfolgen, wodurch die Funktionalität des autonomen Fahrens aufrechterhalten wird, zuverlässiger und sicherer gestaltet wird. Beispielsweise kann der Sensor eine generelle Objekterkennung mithilfe einer Kl oder mithilfe eines intelligenten Algorithmus für ein bestimmtes Fahrzeugumfeld durchführen und mithilfe der ohnehin vorhandenen Umfeldscans eine Objekterkennung für einen gezielten Bildausschnitt durchführen. Die Selektion des relevanten Bildausschnitts kann dabei vor einer Objekterkennung erfolgen. Alternativ oder zusätzlich kann der gesamte Bildausschnitt des Sensors bezüglich dieses Objekts analysiert werden.
-
Nach einem weiteren Aspekt der Erfindung wird ein Steuergerät zum Verbinden mit mindestens einem Sensor und zum Auslesen von Sensordaten von mindestens einem Sensor bereitgestellt, wobei das Steuergerät dazu eingerichtet ist, alle Schritte des Verfahrens auszuführen.
-
Das Steuergerät kann insbesondere als ein Sensorsteuergerät oder als ein zentrales Steuergerät ausgeführt sein. Dabei kann das Steuergerät fahrzeugintern oder fahrzeugextern angeordnet sein. Alle mit dem Steuergerät gekoppelten Umfeldsensoren eines Fahrzeugs können somit über einen Fahrzeugbus Sensordaten an das Steuergerät übermittelt. Die Umsetzung des Verfahrens erfolgt hierbei nicht auf den Umfeldsensoren selbst, sondern rein auf dem Steuergerät, welches über ausreichende Rechenkapazitäten verfügt. Je nach Anwendung kann eine beliebige Anzahl an Sensoren mit dem Steuergerät gekoppelt werden und somit im Rahmen einer Sensorfusion die Genauigkeit der Auswertung und des Verfahrens verbessert werden.
-
Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
- 1 eine schematische Darstellung eines Fahrzeugs mit einem Steuergerät und mit Sensoren und
- 2 ein schematisches Ablaufdiagramm eines Verfahrens gemäß einer Ausführungsform.
-
In der 1 ist eine schematische Darstellung eines Fahrzeugs 1 mit einem Steuergerät 2 und mit Sensoren 4, 6, 8 dargestellt. Das Fahrzeug 1 ist ein automatisiert betreibbares Fahrzeug 1, welches mindestens ein Steuergerät 2 aufweist.
-
Das Steuergerät 2 ist mit den Sensoren 4, 6, 8 derart gekoppelt, dass es die Sensordaten auslesen und weiterverarbeiten kann. Die Sensorik des Fahrzeugs 1 besteht aus einem LIDAR-Sensor 4 und zusätzlichen Sensoren 6, 8. Die zusätzlichen Sensoren 6, 8 sind als eine Kamera 6 und ein RADAR-Sensor 8 ausgeführt.
-
Das Steuergerät 2 weist eine Kommunikationseinheit zum Herstellen einer Kommunikationsverbindung 12 auf. Die Kommunikationsverbindung 12 kann beispielsweise eine Car-2-X Kommunikationsverbindung sein, wodurch andere Verkehrsteilnehmer 14 ihre Position und weitere Daten mit dem Steuergerät 2 austauschen können.
-
Durch die Sensoren 4, 6, 8 können Objekte 16 im Umfeld des Fahrzeugs 1 ermittelt werden.
-
Die 2 zeigt ein schematisches Ablaufdiagramm eines Verfahrens 18 gemäß einer Ausführungsform.
-
Das Verfahren 18 dient insbesondere zum Auswählen eines Ausschnitts für eine Umfelderfassung durch einen Sensor 4 basierend auf Sensordaten zusätzlicher Sensoren 6, 8.
-
In einem Schritt 19 wird ein Umfeld durch mindestens einen zusätzlichen Sensor 6, 8 erfasst. Basierend auf den ermittelten Sensordaten des mindestens einen Sensors 6, 8 wird eine Objekterkennung 20 durchgeführt. Anhand der Objekterkennung 20 werden Positionsinformationen von mindestens einem erkannten Objekt 16 in ein Koordinatensystem des Sensors 4 transformiert 21. Anschließend wird anhand der transformierten Positionsinformationen ein Ausschnitt eines Abtastbereichs des Sensors 4 für die Umfelderfassung 22 oder einen Bildausschnitt der Sensordaten des Sensors 4 aus bereits erfassten Sensordaten für eine Auswertung verwendet 23.