DE102019205481A1 - Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich - Google Patents

Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich Download PDF

Info

Publication number
DE102019205481A1
DE102019205481A1 DE102019205481.1A DE102019205481A DE102019205481A1 DE 102019205481 A1 DE102019205481 A1 DE 102019205481A1 DE 102019205481 A DE102019205481 A DE 102019205481A DE 102019205481 A1 DE102019205481 A1 DE 102019205481A1
Authority
DE
Germany
Prior art keywords
sensor system
mode
scenario
operating mode
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019205481.1A
Other languages
English (en)
Inventor
Zhihu Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019205481.1A priority Critical patent/DE102019205481A1/de
Publication of DE102019205481A1 publication Critical patent/DE102019205481A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zur Objekterkennung in einem Umfeld eines Fahzeugs, umfassend Erhalten von Daten betreffend das Umfeld des Fahzeugs; Extrahieren eines Umfeldszenarios aus den erhaltenen Daten; Bestimmen eines Betriebsmodus einer Sensorik (20) zur Objekterkennung basierend auf dem extrahierten Umfeldszenario; Erzeugen eines Steuersignals zum Auslösen des bestimmten Betriebsmodus der Sensorik (20); und Ausgeben des Steuersignals an die Sensorik (20).

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft das Gebiet der Fahrzeuge, insbesondere der autonom beziehungsweise teilautonom fahrenden Fahrzeuge. Konkret betrifft die vorliegende Erfindung eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal zur Objekterkennung in einem Umfeld eines Fahrzeugs.
  • TECHNISCHER HINTERGRUND
  • Die Objekterkennung spielt im automatisierten Fahren eine zentrale Rolle. Objekte, die sich in einem Umfeld eines selbstfahrenden oder teilweise selbstfahrenden Fahrzeug befinden, müssen mit hoher Genauigkeit und Rechtzeitigkeit erkannt werden. Dies dient dazu, um Maßnahmen zu ergreifen, die eine Kollision mit solchen Objekten, etwa anderen Fahrzeugen, Verkehrsteilnehmern, Personen, Tieren, Bebauungen, Bepflanzungen, öffentlichen und privaten Verkehrseinrichtungen ... usw., zu vermeiden oder zumindest zu reduzieren.
  • Um eine zuverlässigere und schnellere Objekterkennung zu verwirklichen, sind in der Vergangenheit zahlreiche Lösungsansätze vorgeschlagen worden. Beispielsweise offenbart DE102018115265A1 eine Vorrichtung zum Senden eines Lichtimpulses mit einer ersten Zeitdauer und zum Empfangen eines reflektierten Lichtimpulses mit einer zweiten Zeitdauer und zum Bestimmen einer Ausrichtung einer Zieloberfläche in Abhängigkeit von einer Differenz zwischen der ersten und zweiten Zeitdauer.
  • Es besteht jedoch Bedarf an Verbesserung der Schnelligkeit und Genauigkeit der Objekterkennung. Die bekannten Lösungsansätze sind dahingehend mangelhaft, dass die mittels Umfeldsensoren gewonnene Daten durch das Beseitigen der falschen Positiven nicht hinreichend verwertet werden und zahlreiche Informationen ungenutzt weggefiltert werden. Auch sind die bisherigen Systeme nicht in der Lage, verschiedenen Fahrsituationen (Autobahnen, Stadtverkehr, Witterungen, ... etc.) mit ihren unterschiedlichen Anforderungen gerecht zu werden. Dies schränkt die Zuverlässigkeit der Objekterkennung weiter ein.
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die Objekterkennung im Umfeld eines vollständig oder teilweise autonom fahrenden Fahrzeugs hinsichtlich der Schnelligkeit und Zuverlässigkeit zu verbessern.
  • Die Aufgabe wird gelöst durch eine Vorrichtung, ein Verfahren, ein Computer-Programm-Produkt, ein computerlesbares Speichermedium sowie ein Datenträgersignal gemäß den unabhängigen Ansprüchen.
  • Bei der erfindungsgemäßen Vorrichtung zur Objekterkennung kann es sich beispielsweise um eine elektronische Steuer- oder Regeleinheit (engl. ECU = Electronic Control Unit), ein elektronisches Steuer- oder Regelmodul (ECM = Electronic Control Module) oder eine Steuer-/Regeleinheit für autonomes Fahren (z.B. ein „Autopilot“) handeln. Die Vorrichtung kann sich am Fahrzeug befinden, oder außerhalb bzw. teilweise außerhalb des Fahrzeugs. Beispielsweise kann die erfindungsgemäße Vorrichtung Teil einer zentralen Überwachungseinrichtung im Straßenverkehr, insbesondere im Stadtverkehr, im Autobahnverkehr, auf einem zumindest teilweise geschlossenen industriellen, gewerblichen Gelände und/oder auf einer landwirtschaftlichen Nutzfläche sein. Die Kommunikation zwischen der erfindungsgemäßen Vorrichtung und dem Fahrzeug bzw. zwischen der zentralen Überwachungseinrichtung und dem Fahrzeug kann drahtlos, etwa über BlueTooth, Infrarot, Nahfeld-Kommunikation (Engl.: NFC), Funk, Internet, Intranet, Cloud-Systeme, Blockchain-Systeme, 4G-Kommunikationsnetzwerke, 5G-Kommunikationsnetzwerke und/oder verdrahtete Systeme erfolgen.
  • Das Fahrzeug kann ein Personenfahrzeug und/oder ein Nutzfahrzeug, etwa ein Landfahrzeug, ein Industriefahrzeug, eine Industriemaschine, ein Fahrzeug für eine Wechselbrücke, ein mobiler Roboter und/oder ein automatisiertes fahrerloses Transportsystem sein.
  • Die der Vorrichtung über die Eingangsschnittstelle zugeführten Daten können von einer Sensorik erzeugt sein, die am Fahrzeug oder außerhalb des Fahrzeugs angeordnet ist. Die Sensorik kann eine Umfeldsensorik zur Erfassung des Umfelds des Fahrzeugs umfassen, wobei als Umfeldsensorik ein Radarsensor, ein Lidarsensor, ein Ultraschallsensor und/oder eine Kamera denkbar ist. Alternativ oder zusätzlich kann die Sensorik eine Fahrzeugbewegungssensorik wie Drehzahlsensor, Beschleunigungssensor, Drucksensor und/oder Piezosensor umfassen. Weiter alternativ oder zusätzlich kann die Sensorik ein Lokalisierungssystem wie ein Satellitensystem, vorzugsweise GNSS, umfassen.
  • Aus den von der Sensorik erzeugten Daten kann mittels der Auswerteeinheit ein Umfeldszenario extrahiert werden. Das Umfeldszenario ist eine Klassifizierung des Umfelds (Umfeldklasse), der ein bestimmtes Klassifizierungskriterium unterliegt. Beispiele für die Umfeldklasse sind Stadtverkehrszenario, Autobahnszenario, Indoorszenario, Outdoorszenario. Das Klassifizierungskriterium kann auf einer Messung der Geschwindigkeit der im von der Sensorik erfassten Umfelds befindlichen Autos, einer Erfassung der Verkehrsanlagen (Autobahn, Innenstadtsstraßen, Gebäude, Brücken, .. etc.) basieren.
  • In Abhängigkeit vom extrahierten Umfeldszenario wird mittels der Auswerteeinheit ein geeigneter Betriebsmodus für eine Sensorik zur Objekterkennung im Umfeld des Fahrzeugs selektiert. Diese (zweite) Sensorik kann dieselbe (erste) Sensorik umfassen, mit der die o.g., der Vorrichtung zugeführten Daten erzeugt werden. Die zweite Sensorik kann einen Lidarsensor, einen Radarsensor, einen Ultraschallsensor und/oder eine Kamera umfassen. Insbesondere kann die zweite Sensorik einen kombinierten Sensor aus einem Radar-Anteil und einem Lidar-Anteil umfassen. Dies ist jedoch keinesfalls einschränkend für den Gegenstand der vorliegenden Erfindung. Der Betriebsmodus wird mittels eines ebenfalls von der Auswerteeinheit erzeugten Steuersignal in der Sensorik ausgelöst, wobei das Steuersignal über eine Ausgangsschnittstelle der Vorrichtung an die Sensorik ausgegeben wird.
  • Der Betriebsmodus ist im Allgemeinen durch einen oder mehrere Betriebsparameter der (zweiten) Sensorik definiert, z.B. Auflösung, Erfassungsweite, Feldwinkel, Ausrichtung des Sensors.
  • Auf diese Weise ist der Betriebsmodus auf Basis von Umfeldszenarien des Fahrzeugs selektierbar, sodass die Funktionalität der zweiten Sensorik an die Umfeldbedingungen angepasst ist. Dies verbessert die Qualität der von der zweiten Sensorik zu erzeugenden Daten und damit einhergehend auch die Objekterkennung aus diesen Daten.
  • Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben.
  • Gemäß einer Ausführungsform wird als Betriebsmodus der Sensorik ein Stadtverkehrsmodus bestimmt, wenn das extrahierte Umfeldszenario ein Stadtverkehrszenario umfasst, und/oder wobei als Betriebsmodus der Sensorik ein Autobahnmodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Autobahnszenario umfasst, wobei der Stadtverkehrsmodus eine kleinere Erfassungsweite, einen größeren Feldwinkel und/oder eine höhere Auflösung als der Autobahnmodus aufweist.
  • Das Stadtverkehrszenario kennzeichnet sich durch einen oder mehrere Umfeldparameter, die jeweils in einem für Stadtverkehr üblichen Wertebereich liegen. Entsprechendes gilt für das Autobahnszenario. Die Auswerteeinheit kann dazu ausgebildet sein, diese Umfeldparameter aus den Daten der ersten Sensorik zu extrahieren und mit vorgespeicherten Werten zu vergleichen. Basierend auf dem Vergleichsergebnis klassifiziert die Auswerteeinheit das extrahierte Umfeldszenario entsprechend. Im Stadtverkehr fährt das Fahrzeug in der Regel mit einer vergleichsweise niedrigen Geschwindigkeit, sodass die Bremswege kürzer sind. Damit zusammenhängend ist der Sicherheitsabstand zwischen hintereinanderfahrenden Fahrzeugen normalerweise kleiner als beispielsweise auf Autobahnen bzw. Kraftfahrtstraßen. Daher ist eine vergleichsweise geringere Erfassungsweite der (zweiten) Sensorik ausreichend. Im Autobahnenverkehr ist die Situation umgekehrt.
  • Denkbar ist auch, ein Überlandszenario in den von der ersten Sensorik erzeugten Daten zu extrahieren und hierauf basierend ein Überlandsmodus für die zweite Sensorik zu bestimmen, bei dem die Erfassungsweite, der Feldwinkel bzw. die Auflösung jeweils zwischen den Werten für den Stadtverkehrsmodus und den Autobahnmodus liegt.
  • Gemäß einer weiteren Ausführungsform wird als Betriebsmodus der Sensorik ein Indoormodus bestimmt, wenn das extrahierte Umfeldszenario ein Indoorszenario umfasst, und/oder wobei als Betriebsmodus der Sensorik ein Outdoormodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Outdoorszenario umfasst, wobei der Indoormodus einen größeren Feldwinkel und/oder eine höhere Auflösung als der Outdoormodus aufweist.
  • Das Indoorszenario kennzeichnet sich durch ein abgeschlossenes Gebiet innerhalb eines Gebäudes, etwa einer Lagerhalle oder eines Parkhauses. Das Outdoorszenario betrifft ein Gebiet außerhalb eines Gebäudes. Diese Maßnahme ermöglicht eine bessere Objekterkennung beim Einsatz des Fahrzeugs im Indoor- und Outdoor-Bereich.
  • Gemäß einer weiteren Ausführungsform wird als Betriebsmodus der Sensorik ein Abbiegemodus bestimmt, wenn das extrahierte Umfeldszenario ein Abbiegeszenario umfasst, und/oder wobei als Betriebsmodus der Sensorik ein Geradeausfahrmodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Geradeausfahrszenario umfasst, wobei der Abbiegemodus einen im Vergleich zum Geradeausfahrmodus entsprechend einer Abbiegerichtung gekippten und/oder gedrehten Feldwinkel aufweist.
  • Diese Maßnahme ermöglicht eine bessere Objekterkennung sowohl für den Fall, in dem sich das Fahrzeug geradeaus bewegt, als auch für den Fall, in dem das Fahrzeug eine Abbiegung vornimmt.
  • Gemäß einer weiteren Ausführungsform wird der Betriebsmodus der Sensorik derart bestimmt, dass bei einer reduzierten Erfassungsweite eine erhöhte Auflösung der Sensorik getriggert wird.
  • Dies kann basierend auf dem folgenden Mechanismus erfolgen: Bei bestimmten Sensortypen, etwa Lidarsensoren oder Radarsensoren, nimmt das Zeitintervall zwischen zwei aufeinanderfolgenden Signalsende- und Empfangsvorgängen mit abnehmender Erfassungsweite ab. Daher können pro Zeiteinheit mehr Sensorsignale (etwa Lichtsignal bei Lidarsensoren bzw. RF-Signal bei Radarsensoren) ausgesendet und empfangen werden, wobei ein solcher Sende- und Empfangvorgang im Fachbereich als eine Zirpe (Engl.: chirp) bekannt ist. Die steigende Zirpenzahl erhöht die Auflösung der erzeugten Sensordaten.
  • Gemäß einer weiteren Ausführungsform umfasst die Sensorik ein Array aus mehreren Sensorelementen, wobei das Steuersignal derart ausgebildet ist, um beim Bestimmen des Betriebsmodus mit einer erhöhten Auflösung und/oder einem reduzierten Feldwinkel einen Teil der Sensorelemente des Arrays zu deaktivieren.
  • Das jeweilige Sensorelement kann im Fall, dass die zweite Sensorik ein Radarsensor/Lidarsensor umfasst, ein RF-/Lichtsenderelement umfassen. Um die Auflösung zu erhöhen bzw. den Feldwinkel zu reduzieren, können diejenigen Sensorelemente deaktiviert werden, die seitlich um einen zentralen Bereich des Arrays angeordnet sind, und/oder diejenigen Sensorelemente aktiviert werden, die im zentralen Bereich des Arrays angeordnet sind.
  • Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.
  • Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.
  • Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt den oben beschriebenen erfinderischen technischen Effekt hervor.
  • Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrichtung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.
  • Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrieben, zum Beispiel in Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.
  • Das computerlesbare Speichermedium ist beispielsweise ein elektronisches, magnetisches, optisches oder magneto-optisches Speichermedium.
  • Das Datenträgersignal ist ein Signal, welches das Computer-Programm-Produkt von einem Speichermedium, auf dem das Computer-Programm-Produkt gespeichert ist, auf eine andere Entität, beispielsweise ein anderes Speichermedium, einen Server, ein Cloud-System oder eine Daten verarbeitende Einrichtung, überträgt.
  • Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Es zeigen:
    • 1 eine schematische Darstellung einer Vorrichtung zur Objekterkennung in einem Umfeld eines Fahrzeugs gemäß einer Ausführungsform;
    • 2 eine schematische Darstellung eines ersten Erfassungsbereiches gemäß einem ersten Betriebsmodus und eines zweiten Erfassungsbereiches gemäß einem zweiten Betriebsmodus; und
    • 3 eine schematische Darstellung eines dritten Erfassungsbereiches gemäß einem dritten Betriebsmodus und eines vierten Erfassungsbereiches gemäß einem vierten Betriebsmodus.
  • In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnliche Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile gekennzeichnet.
  • 1 zeigt eine schematische Darstellung einer Vorrichtung 10 zur Objekterkennung in einem Umfeld eines Fahrzeugs gemäß einer Ausführungsform.
  • Die Vorrichtung 10 umfasst eine Eingangsschnittstelle 12 zum Erhalten von Daten, die eine erste Sensorik 30 beim Erfassen eines Umfelds des Fahrzeugs erzeugt. Die erste Sensorik 30 kann eine Umfeldsensorik (etwa einen Radarsensor, einen Lidarsensor, einen Ultraschallsensor und/oder eine Kamera), alternativ eine Fahrzeugbewegungssensorik (etwa einen Drehzahlsensor, einen Beschleunigungssensor) umfassen.
  • Die Vorrichtung 10 umfasst ferner eine Auswerteeinheit 14 zum Extrahieren eines Umfeldszenarios aus den erhaltenen Daten. Das Umfeldszenario kann beispielsweise ein Stadtverkehrszenario, ein Überlandszenario, ein Autobahnszenario, ein Indoorszenario und/oder ein Outdoorszenario umfassen. Basierend auf dem extrahierten Umfeldszenario wird mittels der Auswerteeinheit 14 ein Betriebsmodus einer zweiten Sensorik 20 bestimmt. Die zweite Sensorik 20 dient zur Objekterkennung im Umfeld des Fahrzeugs, um das Fahren zu automatisieren oder teilweise zu automatisieren. Die zweite Sensorik 20 kann dieselbe Sensorik wie die erste Sensorik 30 sein. Alternativ kann die zweite Sensorik 20 am Fahrzeug angebracht sein, wobei die erste Sensorik 30 Teil einer zentralen Umfeldüberwachung außerhalb des Fahrzeugs sein kann.
  • Zum Auslösen des bestimmten Betriebsmodus der zweiten Sensorik 20 wird ein Steuersignal erzeugt, welches über eine Ausgangsschnittstelle 16 der Vorrichtung 10 an die zweite Sensorik 20 ausgegeben werden kann.
  • 2 zeigt eine schematische Darstellung eines ersten Erfassungsbereiches 26a gemäß einem ersten Betriebsmodus einer Sensorik 20 und eines zweiten Erfassungsbereiches 26b gemäß einem zweiten Betriebsmodus der Sensorik 20. Der erste Erfassungsbereich 26a hat, wie in 2 beispielhaft gezeigt, eine größere Erfassungsweite (was in 2 der Radiuslänge des Erfassungsbereichs entspricht) als der zweite Erfassungsbereich 26b. Zugleich hat der erste Erfassungsbereich 26a einen kleineren Feldwinkel 28a als der zweite Erfassungsbereich 26b.
  • Wie in 2 gezeigt, handelt es sich bei der zweiten Sensorik 20 um ein Array 22 aus mehreren Sensorelementen 24m,s, wobei ein Teil der Sensorelemente 24m mittig im Array 22 und andere Sensorelemente 24s seitlich hierzu angeordnet sind.
  • Um den ersten Betriebsmodus herzustellen wird mit Hilfe des Steuersignals die seitlich angeordneten Sensorelemente 24s deaktiviert (bzw. im deaktivierten Zustand gehalten), was in 2 weiß dargestellt ist. Gleichzeitig werden die mittig angeordneten Sensorelemente 24m aktiviert (bzw. im aktivierten Zustand gehalten), was in 2 schwarz dargestellt ist.
  • Um den zweiten Betriebsmodus herzustellen wird mit Hilfe des Steuersignals alle Sensorelemente 24 des Arrays 22 aktiviert (bzw. im aktivierten Zustand gehalten), was in 2 schwarz dargestellt ist.
  • Der erste Betriebsmodus wird vorzugsweise beim Extrahieren eines Autobahn- oder Überlandszenarios ausgelöst. Der zweite Betriebsmodus wird vorzugsweise beim Extrahieren eines Stadtverkehrszenarios ausgelöst.
  • 3 zeigt eine schematische Darstellung eines dritten Erfassungsbereiches 26c gemäß einem dritten Betriebsmodus der zweiten Sensorik 20 und eines vierten Erfassungsbereiches 26d gemäß einem vierten Betriebsmodus der zweiten Sensorik 20.
  • Im dritten Betriebsmodus hat die zweite Sensorik 20 einen dritten Feldwinkel 28c. Im vierten Betriebsmodus hat die zweite Sensorik 20 einen vierten Feldwinkel 28d, der im Vergleich zur Lage des dritten Feldwinkels 28c in der in 3 gezeigten Darstellung im Uhrzeigersinn verdreht bzw. verkippt ist. Dies ist daran zu erkennen, dass eine Mittellinie 27 des dritten Erfassungsbereichs 26c einen Winkel zu einer anderen Mittellinie 29 des vierten Erfassungsbereichs 26d einschließt.
  • Der dritte Betriebsmodus wird vorzugsweise beim Extrahieren eines Geradeausfahrszenarios ausgelöst. Der vierte Betriebsmodus wird vorzugsweise beim Extrahieren eines Abbiegeszenarios ausgelöst.
  • Bezugszeichenliste
  • 10
    Steuervorrichtung
    12
    Eingangsschnittstelle
    14
    Auswerteeinheit
    16
    Ausgangsschnittstelle
    20
    Sensorik
    22
    Array
    24, 24m,s
    Sensorelement
    26a-d
    Erfassungsbereich
    27
    Sensorrichtung
    28a-d
    Feldwinkel
    29
    Sensorrichtung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018115265 A1 [0003]

Claims (12)

  1. Verfahren zur Objekterkennung in einem Umfeld eines Fahzeugs, umfassend: - Erhalten von Daten betreffend das Umfeld des Fahzeugs; - Extrahieren eines Umfeldszenarios aus den erhaltenen Daten; - Bestimmen eines Betriebsmodus einer Sensorik (20) zur Objekterkennung basierend auf dem extrahierten Umfeldszenario; - Erzeugen eines Steuersignals zum Auslösen des bestimmten Betriebsmodus der Sensorik (20); und - Ausgeben des Steuersignals an die Sensorik (20).
  2. Verfahren nach Anspruch 1, wobei als Betriebsmodus der Sensorik (20) ein Stadtverkehrsmodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Stadtverkehrszenario umfasst, und/oder wobei als Betriebsmodus der Sensorik (20) ein Autobahnmodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Autobahnszenario umfasst, wobei der Stadtverkehrsmodus eine kleinere Erfassungsweite, einen größeren Feldwinkel und/oder eine höhere Auflösung als der Autobahnmodus aufweist.
  3. Verfahren nach Anspruch 1 oder 2, wobei als Betriebsmodus der Sensorik (20) ein Indoormodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Indoorszenario umfasst, und/oder wobei als Betriebsmodus der Sensorik (20) ein Outdoormodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Outdoorszenario umfasst, wobei der Indoormodus einen größeren Feldwinkel und/oder eine höhere Auflösung als der Outdoormodus aufweist.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei als Betriebsmodus der Sensorik (20) ein Abbiegemodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Abbiegeszenario umfasst, und/oder wobei als Betriebsmodus der Sensorik (20) ein Geradeausfahrmodus bestimmt wird, wenn das extrahierte Umfeldszenario ein Geradeausfahrszenario umfasst, wobei der Abbiegemodus einen im Vergleich zum Geradeausfahrmodus entsprechend einer Abbiegerichtung gekippten und/oder gedrehten Feldwinkel aufweist.
  5. Verfahren nach einem der vorangehenden Ansprüche, wobei der Betriebsmodus der Sensorik (20) derart bestimmt wird, dass bei einer reduzierten Erfassungsweite eine erhöhte Auflösung der Sensorik (20) getriggert wird.
  6. Verfahren nach einem der vorangehenden Ansprüche, wobei die Sensorik (20) ein Array (22) aus mehreren Sensorelementen (24) umfasst, wobei das Steuersignal derart ausgebildet ist, um beim Bestimmen des Betriebsmodus mit einer erhöhten Auflösung und/oder einem reduzierten Feldwinkel einen Teil der Sensorelemente (24) des Arrays (22) zu deaktivieren.
  7. Verfahren nach einem der vorangehenden Ansprüche, wobei die Sensorik (20) einen Radarsensor, einen Lidarsensor und/oder eine Kamera umfasst.
  8. Vorrichtung (10) zur Objekterkennung in einem Umfeld eines Fahzeugs, umfassend: - eine Eingangsschnittstelle (12) zum Erhalten von Daten betreffend das Umfeld des Fahzeugs; - eine Auswerteeinheit (14) zum Extrahieren eines Umfeldszenarios aus den erhaltenen Daten, Bestimmen eines Betriebsmodus einer Sensorik (20) zur Objekterkennung basierend auf dem extrahierten Umfeldszenario, und Erzeugen eines Steuersignals zum Auslösen des bestimmten Betriebsmodus der Sensorik (20); und - eine Ausgangsschnittstelle (16) zum Ausgeben des Steuersignals an die Sensorik (20).
  9. Verwendung der Vorrichtung (10) nach Anspruch 8 in einem Fahzeug.
  10. Computer-Programm-Produkt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach Anspruch 1 auszuführen.
  11. Computerlesbares Speichermedium, auf dem das Computer-Programm-Produkt nach Anspruch 10 gespeichert ist.
  12. Datenträgersignal, das das Computer-Programm-Produkt nach Anspruch 10 überträgt.
DE102019205481.1A 2019-04-16 2019-04-16 Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich Withdrawn DE102019205481A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019205481.1A DE102019205481A1 (de) 2019-04-16 2019-04-16 Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019205481.1A DE102019205481A1 (de) 2019-04-16 2019-04-16 Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich

Publications (1)

Publication Number Publication Date
DE102019205481A1 true DE102019205481A1 (de) 2020-10-22

Family

ID=72660614

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019205481.1A Withdrawn DE102019205481A1 (de) 2019-04-16 2019-04-16 Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich

Country Status (1)

Country Link
DE (1) DE102019205481A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112008001232B4 (de) * 2007-05-04 2016-04-07 Toyota Motor Corporation Aktives Radarsystem
DE102015216979A1 (de) * 2015-08-07 2017-02-09 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Steuergerät und Fahrzeug
EP3176046A1 (de) * 2015-12-04 2017-06-07 Volkswagen Aktiengesellschaft Verfahren und vorrichtung in einem kraftfahrzeug zum automatisierten fahren
EP2766237B1 (de) * 2011-10-14 2018-03-21 Continental Teves AG & Co. oHG Vorrichtung zur unterstützung eines fahrers beim fahren eines fahrzeugs oder zum autonomen fahren eines fahrzeugs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112008001232B4 (de) * 2007-05-04 2016-04-07 Toyota Motor Corporation Aktives Radarsystem
EP2766237B1 (de) * 2011-10-14 2018-03-21 Continental Teves AG & Co. oHG Vorrichtung zur unterstützung eines fahrers beim fahren eines fahrzeugs oder zum autonomen fahren eines fahrzeugs
DE102015216979A1 (de) * 2015-08-07 2017-02-09 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Steuergerät und Fahrzeug
EP3176046A1 (de) * 2015-12-04 2017-06-07 Volkswagen Aktiengesellschaft Verfahren und vorrichtung in einem kraftfahrzeug zum automatisierten fahren

Similar Documents

Publication Publication Date Title
EP3584663B1 (de) Verfahren zur automatischen querführung eines folgefahrzeugs in einem fahrzeug-platoon
DE102017203838B4 (de) Verfahren und System zur Umfelderfassung
DE102018119764A1 (de) Verfahren und vorrichtung zur erkennung und korrektur von anomalien in einer partizipativen karte
DE102018120845A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
EP3495840A1 (de) Verfahren und vorrichtung zur eigenlokalisierung eines fahrzeugs
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102016219455A1 (de) Kraftfahrzeug, Verfahren und aktive Infrastruktur zur Überprüfung einer Umfelderfassung eines Kraftfahrzeugs
DE102019216989B4 (de) Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung
EP3526624A1 (de) Automatisierte freiraumerkennung mittels differenzanalyse für fahrzeuge
DE102016004204B4 (de) Verfahren zum automatisierten Manövrieren eines Kraftfahrzeugs während einer Produktion
DE102015103361A1 (de) Verkehrsdichte-empfindlichkeitswähler
DE102018006503A1 (de) Digitale Karte
EP4052064A1 (de) Verfahren zum verfolgen eines entfernten zielfahrzeugs in einem umgebungsbereich eines kraftfahrzeugs mittels einer kollisionserkennungsvorrichtung
DE102020206934A1 (de) Anpassung einer horizontalen Region-of-Interest
DE102010003375B4 (de) Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
WO2024012928A1 (de) Verfahren zum trainieren eines neuronalen netzes
EP2068172A2 (de) Adaptives Platzieren von Nullstellen im Monopuls-Differenz-Antennendiagramm zur verbesserten Winkelauflösung an Objektorten
DE102019205481A1 (de) Umfelderfassung mittels eines Sensors mit variierbarem Erfassungsbereich
EP4314895A1 (de) Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug
DE102019204196B4 (de) Verfahren zum Erfassen des Umfeldes eines Fortbewegungsmittels
DE112019005675T5 (de) Informationsverarbeitungsvorrichtung und fahrassistenzvorrichtung
EP3969846A1 (de) Verfahren zum validieren einer kartenaktualität
DE102020205629A1 (de) Verfahren zur Steuerung eines Fahrzeugs
DE102019215359A1 (de) Verfahren zum Ausgeben eines Signals zum Auffahren eines Fahrzeugs auf eine Vorfahrtsstraße
DE102019001003A1 (de) Verfahren zum Durchfahren eines Fahrzeugs durch eine Mautstelle mit mindestens einer Schranke, Fahrassistenzsystem zum Ausführen eines solchen Verfahrens, und Fahrzeug mit einem solchen Fahrassistenzsystem

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee