DE102019214383A1 - Verfahren zur Objektverfolgung - Google Patents

Verfahren zur Objektverfolgung Download PDF

Info

Publication number
DE102019214383A1
DE102019214383A1 DE102019214383.0A DE102019214383A DE102019214383A1 DE 102019214383 A1 DE102019214383 A1 DE 102019214383A1 DE 102019214383 A DE102019214383 A DE 102019214383A DE 102019214383 A1 DE102019214383 A1 DE 102019214383A1
Authority
DE
Germany
Prior art keywords
movement information
radar
search window
determined
radar targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019214383.0A
Other languages
English (en)
Inventor
Andreas Eisenbarth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102019214383.0A priority Critical patent/DE102019214383A1/de
Priority to CN202080065309.2A priority patent/CN114402224A/zh
Priority to EP20756767.8A priority patent/EP4031904A1/de
Priority to US17/753,954 priority patent/US20220334246A1/en
Priority to PCT/DE2020/200058 priority patent/WO2021052542A1/de
Priority to JP2022512440A priority patent/JP7457104B2/ja
Publication of DE102019214383A1 publication Critical patent/DE102019214383A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Regulating Braking Force (AREA)

Abstract

Verfahren zur Objektverfolgung, bei dem ein Radarsensor (2) Radarsignale in aufeinanderfolgenden Messzyklen ausgesendet, die vom Objekt reflektiert und vom Radarsensor (2) als Radarziele (5) erfasst werden, wobei anhand der Radarziele (5) eine Bewegungsinformation des Objekts für die Objektverfolgung ermittelt wird, und anhand der Bewegungsinformation ein Suchfenster für die Radarziele (5) des Objektes festgelegt wird, wobei das Suchfenster erweitert wird, wenn in aufeinanderfolgenden Messzyklen eine Änderung der Bewegungsinformation ermittelt wird, die einen festlegbaren Grenzwert überschreitet, und/oder zu dem verfolgten Objekt keine Radarziele (5) mehr erfasst werden.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren, insbesondere computerimplementiertes Verfahren, zur Objektverfolgung und Unfallerkennung mittels eines Radarsensors eines Assistenzsystems bzw. Fahrerassistenzsystems sowie ein Fahrerassistenzsystem, bei dem eine Objektverfolgung und Unfallerkennung insbesondere anhand des erfindungsgemäßen Verfahrens erfolgt, ein Computerprogramm zur Durchführung des Verfahrens und ein transportables computerlesbares Speichermedium, auf dem das Computerprogramm zur Durchführung des Verfahrens gespeichert ist.
  • Technologischer Hintergrund
  • Moderne Fortbewegungsmittel wie Kraftfahrzeuge oder Motorräder werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche mit Hilfe von geeigneter Sensorik bzw. Sensorsystemen die Umgebung erfassen, Verkehrssituationen erkennen und den Fahrer unterstützen können, z. B. durch einen Brems- und/oder Lenkeingriff oder durch die Ausgabe einer optischen, haptischen oder akustischen Warnung. Als Sensorsysteme zur Umgebungserfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren, Ultraschallsensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung gezogen werden. Die Umgebungserfassung mittels Radarsensoren basiert z. B. auf der Aussendung von gebündelten elektromagnetischen Wellen und deren Reflexion an Objekten, z. B. andere Verkehrsteilnehmer, Hindernisse auf der Fahrbahn oder die Randbebauung der Fahrbahn. Die einzelnen einem Objekt zugehörigen Reflexionen bzw. Detektionen werden als sogenannte Radarziele vom Radarsensor erfasst und z. B. durch einen geeigneten Algorithmus dem entsprechenden Objekt zugeordnet. Derartige Objekte können dabei verfolgend beobachtet bzw. getrackt werden, wobei die Objektverfolgungen (Objekttracking) lückenlos erfolgen sollten, d. h. ein verfolgtes Objekt sollte nicht verloren gehen, z. B. infolge eines sogenannten „Trackabrisses“, da es dadurch zu Fehlrückschlüssen bzw. Falschinterpretation der Verkehrsszene kommen kann. Dies kann wiederum dazu führen, dass das Fahrerassistenzsystem des Egofahrzeuges nicht oder erst zu spät in die Situation z. B. bremsend eingreift, um einen Auffahrunfall zu verhindern.
  • Eine der komplexesten Situationen, die für Fahrerassistenzsysteme auftreten können, ist eine Unfallsituation eines vorausfahrenden Fahrzeugs. Beispielsweise fährt dabei ein vorausfahrendes Fahrzeug auf ein Hindernis auf, wobei das Egofahrzeug in dieser Situation noch nicht betroffen ist. Dies stellt jedoch eine erhöhte Gefahrensituation für das Egofahrzeug dar, da sich der Bewegungszustand des vorausfahrenden Unfallfahrzeugs sehr schnell ändert, worauf des Egofahrzeug reagieren muss. Die dem Fahrerassistenzsystem hinterlegten Tracking-Algorithmen können in ihren Dynamikbereich zwar angepasst werden, jedoch stellen die Dynamiken, die in einer solchen Situation auftreten, Extremfälle dar, welche zu Trackabrissen führen können, so dass die gewünschte Kontinuität des erfassen Objekts unterbrochen ist.
  • Beispielsweise können sich für Tracking-Algorithmen für Unfallsituationen vorausfahrender Objekte folgende Probleme ergeben: Die Situation tritt oftmals spontan auf, d. h. ohne Vorwarnung, so dass sich der Tracking-Algorithmus nicht auf die Situation einstellen kann, um entsprechend zu reagieren. Ferner können die auftretenden physikalischen Größen während eines Unfalls die physikalischen Größen während des normalen Verkehrsflusses um ein Vielfaches überschreiten.
  • Druckschriftlicher Stand der Technik
  • Aus der DE 10 2011 001 248 A1 ist ein Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs mit einem Fahrerassistenzsystem bekannt, bei dem mittels einer Radarmesseinrichtung Bewegungsinformationen eines Objekts erfasst werden, die zur Objektverfolgung dienen. Dabei stellt sich das Problem, dass einige Bewegungsparameter, wie etwa die Relativbeschleunigung, von der Radarmesseinrichtung nicht gemessen werden können oder ungenaue Objektmodelle vorliegen, wodurch Objektverlusten auftreten können. Bei erneuter Detektion wird dann ein neues Objekt initialisiert, obwohl dieser Messwert von dem bereits verfolgten Objekt stammt. Derartige Messsituationen treten insbesondere auf, wenn sich die Messwerte zu stark von der durch das Objektmodell vorhergesagten Position entfernen. Der Verlust eines Objektes infolge einer abrupten Beschleunigungsänderung stellt dabei für gattungsgemäße Assistenzfunktionen ein nicht zu vernachlässigendes Problem dar. Gerade bei Anwendungen zur Unfallvermeidung sind derartige Situationen mit hoher Dynamik sehr relevant. Ein Objektverlust und die Neuinitialisierung bedeuten dann den Verlust wertvoller Sekundenbruchteile. Zur Lösung der Problematik wird vorgeschlagen, Gegenstandsinformationen im Umfeld des Kraftfahrzeugs mittels Kamera zu erfassen, so dass die Objektverfolgung verbessert wird, indem die erfassten Gegenstandsinformationen verwendet werden, um die Objektverfolgung zu korrigieren. Dies benötigt jedoch zusätzlichen Hardware- (Kamera sowie deren Ansteuerung) und Rechenaufwand (Datenfusions- und Korrekturberechnungen) und behebt nicht die „Schwachstellen“ der Radarmesseinrichtung.
  • Aufgabe der vorliegenden Erfindung
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Objektverfolgung und Unfallerkennung sowie ein entsprechendes Assistenzsystem zur Verfügung zu stellen, bei dem die Nachteile aus dem Stand der Technik überwunden sind und das Objekttracking in einfacher und kostengünstiger Weise verbessert wird.
  • Lösung der Aufgabe
  • Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie der nebengeordneten Ansprüche gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.
  • Bei dem erfindungsgemäßen Verfahren zur Objektverfolgung eines Objekts, sendet ein Radarsensor Radarsignale in mehreren aufeinanderfolgenden Messzyklen aus, die anschließend von dem Objekt reflektiert und vom Radarsensor als Radarziele erfasst werden. Anhand der Radarziele wird dann eine Bewegungsinformation des Objekts für die Objektverfolgung ermittelt, wobei durch die Bewegungsinformation ein Suchfenster für die Radarziele des Objektes festgelegt wird. Das Suchfenster wird erweitert, wenn in aufeinanderfolgenden Messzyklen eine Änderung der Bewegungsinformation ermittelt wird, die einen festlegbaren Schwellwert überschreitet, und/oder zu dem verfolgten Objekt keine Radarziele mehr erfasst werden. Daraus resultiert der Vorteil, dass das getrackte Objekt kontinuierlich erfasst bleibt, d. h. es treten keine Trackabrisse auf wodurch das verfolgte Objekt verloren gehen würde, was z. B. in einem Egofahrzeug zu unerwünschten Regeleingriffen führen würde.
  • Vorzugsweise wird als Bewegungsinformation die Geschwindigkeit und/oder die Beschleunigung des Objektes herangezogen. Diese Informationen werden in gattungsgemäßen Radarsensoren bzw. Radarsensoren umfassenden Fahrerassistenzsystemen in der Regel bereits bestimmt, so dass kein zusätzlicher oder nur unwesentlicher Hardware- und/oder Rechenaufwand benötigt wird. Beispielsweise kann somit das Suchfenster in Bezug auf die Geschwindigkeit erweitert werden, z. B. indem das Geschwindigkeits-Suchfenster von 1-2 m/s (im Ausgangszustand) auf mindestens 5 m/s, vorzugsweise auf 7 m/s, insbesondere auf 10 m/s erweitert wird. Dementsprechend kann auch der Schwellwert der Bewegungsinformation als eine ermittelte Geschwindigkeitsdifferenz zwischen zwei Messzyklen von mehr als 1 m/s, vorzugsweise mehr als 3 m/s, insbesondere mehr als 5 m/s festgelegt sein.
  • Zweckmäßigerweise kann nach der Erweiterung des Suchfensters entweder der aktuelle Messzyklus wiederholt oder der darauffolgende Messzyklus gestartet werden.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung werden Bewegungsinformationsmuster zur Objektverfolgung hinterlegt, z. B. in einem Speicher des Fahrzeuges oder einer Steuerung eines Fahrerassistenzsystems. Dadurch kann das Objekt und/oder eine Verkehrssituation klassifiziert werden, indem z. B. ein Abgleich bzw. Vergleich der erfassten Bewegungsinformationen des Objektes und den hinterlegten Bewegungsinformationsmustern erfolgt. Bei den Bewegungsinformationsmustern handelt es sich insbesondere um bestimmte Angaben, Parameter und/oder Größen, welche auf eine Objektklasse (z. B. Unfallfahrzeug) bzw. ein bestimmtes Verkehrsszenario schließen lassen. Beispielsweise kann bei einer abrupt und stark ändernden Geschwindigkeit eines vorausfahrenden Fahrzeuges, z. B. innerhalb von wenigen Sekunden von 50 km/h auf 0 km/h, und einer dementsprechend abrupt endenden und stark verkürzten Trajektorie, auf ein Unfallszenario geschlossen werden. Somit kann durch das Erfassen einer solchen Verkehrssituation eine Unfallhypothese untermauert werden, so dass das jeweilige Fahrzeug als Unfallfahrzeug klassifiziert werden kann.
  • Ferner können dem Objekt Radarziele zugeordnet werden, welche im erweiterten Suchfenster erfasst wurden, wenn diese einem Bewegungsinformationsmuster entsprechen.
  • Zweckmäßigerweise kann die Erweiterung des Suchfensters rückgängig gemacht werden, wenn in einer festlegbaren Anzahl von Messzyklen dem Objekt keine Radarziele des erweiterten Suchfensters zugeordnet werden können.
  • Vorzugsweise wird die Erweiterung des Suchfensters auf eine festlegbare Anzahl von Messzyklen beschränkt, z. B. für die folgenden drei, insbesondere die folgenden fünf, insbesondere die folgenden zehn oder dergleichen Messzyklen.
  • Gemäß einer vorteilhaften Ausgestaltung der Erfindung wird die Beschleunigung des Objektes anhand eines Differenzquotienten aus der Geschwindigkeit ermittelt und dem Objekt zugeordnet. Beispielsweise kann dadurch die hohe Dynamik eines Unfallobjektes bzw. Unfallfahrzeuges dem Egofahrzeug gemeldet werden, da die sehr hohe Beschleunigung direkt über den Differenzenquotienten ohne Filterung dem Unfallobjekt als Eigenschaft übertragen wird.
  • Ferner kann ein Mittel vorgesehen sein, womit die Bewegungsinformationen des Objekts, die Klassifikation des Objekts und/oder die Klassifikation der Verkehrssituation weitergeleitet bzw. gesendet werden kann. Daraus resultiert der Vorteil, dass ein als Unfallobjekt klassifiziertes Fahrzeug bzw. eine Unfallsituation über eine Schnittstelle, z. B. Funkübertragung oder dergleichen, anderen Verkehrsteilnehmern mitgeteilt wird (insbesondere Car-2-Car-Kommunikation bzw. Car-to-X-Kommunikation), sodass auch diese entsprechend auf die Situation reagieren können (z. B. Bremsen, Beschleunigen, Ausweichmanöver, Trajektorien-Neuplanung, Absetzten von Notrufen, Sende von optischen, akustischen und haptischen Warnungen und dergleichen).
  • Zweckmäßigerweise kann die Klassifikation auf einem festlegbaren Bereich der Bewegungsinformation beschränkt werden.
  • Vorzugsweise ist eine Plausibilisierung der ermittelten Bewegungsinformationen und/oder der Klassifizierung des Objekts und/oder der Klassifizierung der Verkehrssituation anhand mehrerer Messzyklen vorgesehen, z. B. drei, fünf, zehn oder dergleichen Messzyklen.
  • Ferner umfasst die vorliegende Erfindung ein Fahrerassistenzsystem, welches eine Objektverfolgung insbesondere anhand des erfindungsgemäßen Verfahrens durchführt. Hierzu weist das Fahrerassistenzsystem einen Radarsensor zur Objektverfolgung auf, der Radarsignale in aufeinanderfolgenden Messzyklen aussendet, die von dem zu verfolgenden Objekt reflektiert und vom Radarsensor als Radarziele erfasst werden. Anhand der Radarziele können dann Bewegungsinformationen, wie z. B. die Geschwindigkeit und/oder Beschleunigung, des Objekts für die Objektverfolgung ermittelt werden. Durch die Bewegungsinformation wird dabei ein Suchfenster für die Radarziele des Objektes festgelegt. Beispielsweise kann das Suchfenster anhand der Geschwindigkeit des Objektes festgelegt werden, derart, dass sich das Objekt bei prädizierter Fortbewegung bzw. Trajektorie auch in folgenden Messzyklen innerhalb dieses Suchfensters befinden müsste. Für den Fall, dass in aufeinanderfolgenden Messzyklen eine Änderung der Bewegungsinformation ermittelt wird, die einen festlegbaren Grenzwert überschreitet (z. B. eine festlegbare Geschwindigkeit bzw. Geschwindigkeitsänderung unter- oder überschreitet), und/oder zu dem verfolgten Objekt abrupt keine Radarziele bzw. Detektionen mehr erfasst werden können wird das Suchfenster erweitert.
  • Vorzugsweise handelt es sich bei dem Radarsensor, um einen Sensor, welcher Objekte anhand von ausgesendeten elektromagnetischen Wellen detektiert, die an den Objekten reflektiert und wieder empfangen werden. Die elektromagnetischen Wellen können dabei unterschiedliche Wellen- und Frequenzbereiche aufweisen. Beispielsweise können die elektromagnetischen Wellen in einem Wellenlängenbereich von 1 mm bis 10 km bzw. Frequenzbereich von 300 GHz bis 30 kHz, vorzugsweise in einem Wellenlängenbereich von 1 cm bis 1000 m bzw. Frequenzbereich von 30 GHz bis 300 kHz, vorzugsweise in einem Wellenlängenbereich von 10 cm bis 100 m bzw. Frequenzbereich von 3 GHz bis 3 MHz, besonders vorzugsweise in einem Wellenlängenbereich von 1 m bis 10 m bzw. Frequenzbereich von 300 MHz bis 30 MHz liegen. Ferner können die elektromagnetischen Wellen auch in einem Wellenlängenbereich von 10 nm bis 3 mm bzw. Frequenzbereich von 30 PHz bis 0,1 THz, vorzugsweise in einem Wellenlängenbereich von 380 nm bis 1 mm bzw. Frequenzbereich von 789 THz bis 300 GHz, vorzugsweise in einem Wellenlängenbereich von 780 nm bis 1 mm bzw. Frequenzbereich von 385 THz bis 300 GHz, besonders vorzugsweise in einem Wellenlängenbereich von 780 nm bis 3 µm bzw. Frequenzbereich von 385 THz bis 100 THz liegen.
  • Ferner umfasst die vorliegende Erfindung ein Computerprogramm mit Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computerprogramm in einem Computer oder einem sonstigen aus dem Stand der Technik bekannten programmierbaren Rechner ausgeführt wird. Demzufolge kann das Verfahren auch als rein computerimplementiertes Verfahren ausgestaltet sein, wobei der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung eine Ablaufplanung bzw. Vorgehensweise beschreibt, welche anhand eines Rechners verwirklicht bzw. durchgeführt wird. Der Rechner, wie z. B. ein Computer, ein Computernetzwerk oder eine andere aus dem Stand der Technik bekannte programmierbare Vorrichtung (z. B. eine einen Prozessor, Mikrocontroller oder dergleichen umfassenden Rechnervorrichtung), kann dabei mittels programmierbarer Rechenvorschriften Daten verarbeiten. In Bezug auf das Verfahren können dabei wesentliche Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen bewirkt werden.
  • Zudem umfasst die vorliegende Erfindung ein computerlesbares Speichermedium, das Anweisungen umfasst, welche den Computer, auf dem sie ausgeführt werden, veranlassen, ein Verfahren nach mindestens einem der vorhergehenden Ansprüche durchzuführen.
  • Ausdrücklich umfasst sind von der Erfindung auch nicht explizit genannte Merkmalskombinationen der Merkmale bzw. Ansprüche, sogenannte Unterkombinationen.
  • Figurenliste
  • Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher beschrieben. Es zeigen:
    • 1 eine vereinfachte schematische Darstellung einer Verkehrssituation, bei der ein Egofahrzeug einem vorausfahrenden Fahrzeug folgt und dieses mittels geeigneter Sensorik trackt;
    • 2 eine vereinfachte schematische Darstellung einer an die in 1 anschließenden Verkehrssituation, bei der das vorausfahrende Fahrzeug verunfallt;
    • 3 eine vereinfachte schematische Darstellung der Verkehrssituation aus 2, mit prädizierter Objektposition des vorausfahrenden Fahrzeuges;
    • 4 eine vereinfachte schematische Darstellung der Scan-Modi „Near-Scan“ und „Far-Scan“ eines Fernbereichsradarsensors, sowie
    • 5 eine vereinfachte schematische Darstellung eines Radarscans eines vorausfahrenden Unfallfahrzeuges, welches durchgehend erfasst wurde und abrupt eine negative Beschleunigung aufweist.
  • Bezugsziffer 1 in 1 beschreibt ein Egofahrzeug, welches mit einem Fahrerassistenzsystem ausgestattet ist, das Funktionen, wie z. B. ACC (Adaptive Cruise Control bzw. Abstandsregeltempomat) und/oder EBA (Emergency Breaking Assist bzw. Notbremsassistent) und/oder LKA (Lane Keep Assist bzw. Spurhalte-/Spurwechselassistent) ausführen bzw. steuern kann und die Umwelt bzw. das Fahrzeugumfeld mittels geeigneter Sensorik erfassen und vorzugsweise mittels eines Klassifikators klassifizieren kann. Für die Funktionsausführung umfasst das Fahrerassistenzsystem eine, in den Figuren nicht dargestellte, zentrale Steuereinheit (ECU - Electronic Control Unit, ADCU Assisted & Automated Driving Control Unit). Der Klassifikator kann dabei als eigenständiges Modul oder als Softwareapplikation bzw. Algorithmus auf der zentralen Steuereinheit des Fahrerassistenzsystems hinterlegt sein. Als Sensor im Egofahrzeug 1 ist ein Radarsensor 2, insbesondere ein Fernbereichsradarsensor, vorgesehen, welcher einen nach vorne gerichteten Detektionsbereich 3 aufweist. Ferner befindet sich vor dem Egofahrzeug 1 ein weiteres dem Egofahrzeug 1 vorausfahrendes Fahrzeug 4, welches vom Fahrerassistenzsystem im Zuge der Objektverfolgung (Objekttracking) mittels des Radarsensors 2 erfasst wird. Anhand der Sensordaten des Radarsensors 2 kann dann das Fahrzeug 4 verfolgt (getrackt) werden, indem aus den reflektierten Detektionen bzw. Radarzielen 5 des Fahrzeuges 4 eine Bewegungsinformation (z. B. die Geschwindigkeit oder die Beschleunigung des Fahrzeuges 4) ermittelt wird. Durch die Radarziele 5 und die dazugehörigen Bewegungsinformationen kann das Egofahrzeug 1 die folgende Bewegung bzw. die Trajektorie des Fahrzeuges 4 prädizieren und den Suchbereich nach zum Fahrzeug 4 dazugehörigen erwarteten Detektionen bzw. das Suchfenster entsprechend an das in 2 dargestellte prädizierte Objekt 6 ausrichten bzw. anpassen. Ferner kann dann das Fahrzeug 4 durch den Klassifikator klassifiziert werden (z. B. als PKW, LKW, im Falle eines Unfalls als Unfallfahrzeug und dergleichen). Die Klassifikation kann zudem mit in die Bewegungsprädiktion mit einbezogen werden. Somit kann die Verkehrssituation bestimmt werden, sodass auf Veränderungen bzw. Gefahren rechtzeitig mit Brems- und/oder Lenkeingriffen oder Geschwindigkeitsanpassungen, Aussenden von Warnungen oder dergleichen reagiert werden kann.
  • Im Folgenden Verlauf der Verkehrssituation verunglückt das vorausfahrende Fahrzeug 2 aufgrund eines Hindernisses 7, gemäß 3. Beispielweise beträgt die durchschnittliche Beschleunigung hier während des Unfalls bei einer Geschwindigkeit von ca. 50 km/h etwa 200 m/s2. Beispielsweise beträgt demgegenüber die maximale absolute Beschleunigung beim Anfahren nur etwa 3-7 m/s2 und die maximale absolute Beschleunigung bei einer Vollbremsung etwa -10 m/s2. Zudem beträgt die Dauer vom Aufprall bis zum Stillstand etwa 72 ms und die Geschwindigkeitsänderung pro Rechenzyklus (Annahme Zyklus = 70 ms) etwa 7 m/s. Derartige Größen können bereits zu Objektverlusten bzw. Trackabrissen führen, da die Suchfenster für detektierte Objekte bzw. gemeldete Radarziele nicht mehr innerhalb des Erwartungsbereichs einer „Normalfahrt“ liegen, da sich in einer Unfallsituation sowohl Geschwindigkeit als auch Position sehr schnell und sehr stark ändern. Als Vergleich ist hierzu in 4 die erwartete Objektposition bzw. das prädizierte Objekt 6 aus 2 sowie die tatsächlich erfassten Radarziele des verunfallten Fahrzeuges 4 aus 3 dargestellt. Diese Radarziele 5 liegen nunmehr außerhalb des Suchbereichs (welcher sich hier im Bereich des prädizierten Objektes 6 befindet). Als Folge geht das ursprüngliche Objekt bzw. das vorausfahrende Fahrzeug 4 verloren. Wird das Fahrzeug 4 dann wiedererkannt, wird ein neues Objekt mit einer sehr viel geringeren Geschwindigkeit bzw. ein stehendes Objekt erstellt. Dabei gehen die Informationen über den Übergang der Bewegung des Fahrzeuges 4 von „bewegt“ nach „stehend“ verloren.
  • Nach dem erfindungsgemäßen Verfahren wird das Fahrzeug 4 als Unfallobjekt markiert, wenn dessen Bewegungsinformation unterhalb eines bestimmten Schwellwertes bzw. Grenzwertes (Threshold) liegt. Beispielsweise wenn dessen absolute Beschleunigung unterhalb - 12 m/s2 liegt, d. h. auch nicht mehr durch eine Vollbremsung erklärbar ist. Dies erfolgt dadurch, dass in einem ersten Schritt erkannt wird, dass bei einem bisher stabil getrackten Objekt bzw. Fahrzeug eine unverhältnismäßig große Änderung der Geschwindigkeit der zugeordneten Radarziele 5 zwischen zwei aufeinander folgenden Messzyklen vorliegt. Dabei müssen die Radarziele 5 aber immer noch innerhalb des normalen Suchfensters für Geschwindigkeiten liegen. Alternativ wird erkannt, dass ein bisher stabil getracktes Objekt ohne ersichtlichen Grund nicht mehr gemessen wird, d. h. es werden dem Objekt im aktuellen Rechenzyklus keine Radarziele 5 mehr zugeordnet. Dies kann z. B. daran liegen, dass die Geschwindigkeit der Radarziele 5 sich bereits so stark geändert hat, dass sie nicht mehr innerhalb des Suchfensters liegen. Sollte eine derartige Situation erkannt werden, so wird für dieses Objekt das Geschwindigkeitssuchfenster derart vergrößert, das Radarziele 5 auch weit außerhalb des bisherigen Geschwindigkeitssuchfensters gesucht werden. Die Position der Radarziele 5 muss dabei vor dem Objekt liegen. Durch derartige Maßnahmen kann die Wahrscheinlichkeit von falsch positiven Events noch zusätzlich verringert werden.
  • Nach der Anpassung des Suchfensters wird entweder nochmals im aktuellen Messzyklus oder beginnend im nächsten Messzyklus entsprechend nach Radardetektionen gesucht, welche der Unfallhypothese des Objekts bzw. einem in einem Speicher hinterlegten Bewegungsinformationsmusters entsprechen. Werden entsprechende Detektionen gefunden, werden sie dem Unfallkandidaten zugeordnet. Die Beschleunigung a kann dabei über den Differenzenquotienten anhand von Geschwindigkeit v und Zeit t ermittelt werden, indem a = ( v ( n 1 ) v ( n ) ) / Δ t
    Figure DE102019214383A1_0001
    gilt. Diese Beschleunigung wird dann dem Objekt übergeben bzw. zugeordnet, um für den nächsten Rechenzyklus eine korrekte kinematische Prädiktion durchführen zu können, d. h. die neue Geschwindigkeit nimmt entsprechend ab und die Position verschiebt sich entsprechend. Da ein typisches Unfallszenario in der Regel nur etwa 70 ms dauert, ist das gesamte Unfallszenario nach nur wenigen Messzyklen, gegebenenfalls bereits nach einem einzigen (bei einem Zykluszeit von 70 ms) Messzyklus, vorüber und das Unfallobjekt erreicht Stillstand. Daher sollte die Erweiterung des Suchfensters nach Möglichkeit nur auf wenige Messzyklen beschränkt werden. Wird dann innerhalb dieser Zeit kein Unfall bestätigt, kann das Suchfenster wieder normalisiert werden.
  • Ferner ist das erfindungsgemäße Verfahren auf allen insbesondere radarbasierten Fahrerassistenzsystemen anwendbar, z. B. Notbremsassistent (EBA, Emergency Brake Assist), aktiver Spurhalteassistenten mit Lenkunterstützung (LKA, Lane Keeping Assist), Abstandsregeltempomat für Folgefahrten (ACC, Adaptive Cruise Control) oder dergleichen, wobei aber vor allem nach vorne gerichtete Sensorsysteme im Focus stehen (Frontradar oder Long-Range-Radar). Gattungsgemäße Radarsensoren können beispielsweise unterschiedliche Scan Modi aufweisen, die auch unterschiedliche Öffnungswinkel des Detektionsbereichs umfassen können, um für den jeweiligen Anwendungsfall den Nahbereich (Near-Scan SR) und/oder den Fernbereich (Far-Scan FR) auszuleuchten, wie in 5 dargestellt.
  • Eine Ausführung hierzu besteht darin, dass in beiden Radar-Scans (Near-Scan SR und Far-Scan FR) die beschriebene Verkehrssituation detektiert wird, wobei der Geschwindigkeitsunterschied zwischen zwei aufeinander folgenden Messungen für beide Scans unabhängig voneinander größer als ein festlegbarer Wert, vorzugsweise größer als 1 m/s, sein muss. Dies aktiviert die Erweiterung der Geschwindigkeitssuchfenster, z. B. auf 7 m/s (Standard sind ca. 1-2 m/s) für die folgenden fünf Messzyklen. Bis zum Ablauf dieser Zykluszeit sollte ein potentieller Unfall auf jeden Fall vollständig beendet sein. Werden in den folgenden Messzyklen Radardetektionen dem Unfallkandidaten zugeordnet, kann die Beschleunigung ebenfalls mittels des Differenzenquotienten gebildet werden. Überschreitet der Beschleunigungswert z. B. absolut - 12 m/s2, wird das Objekt als Unfallobjekt klassifiziert und die Beschleunigung dem getrackten Objekt zugeordnet. Ferner ist die Nutzung eines zweiten Scans zur Plausibilisierung nicht zwingend notwendig, jedoch kann dadurch die Menge falsch ausgelöster Events verringert oder diese gar verhindert werden.
  • In praktischer Weise können diese Informationen dann über eine Schnittstelle z. B. anderen Fahrzeugen bzw. Abnehmern zur Verfügung gestellt werden (Car-2-Car-Kommunikation bzw. Car-to-X-Kommunikation), beispielsweise als Dateninformation, als Radarscan oder dergleichen. Ein Radarscan (aufgetragen in Abhängigkeit von Beschleunigung a in m/s und Zeit t in s) als Messergebnis ist in 6 dargestellt, worin das Objekt bzw. vorausfahrende Unfallfahrzeug durchgehend erfasst wurde und für einen kurzen Zeitraum die Beschleunigung von -50 m/s2 auftritt. In praktischer Weise lassen sich die angegebenen Parameter auch derart variieren, dass Unfälle auf einen bestimmten Geschwindigkeitsbereich begrenzt werden, wodurch sich die Bestimmungssicherheit noch weiter verbessern lässt.
  • Bezugszeichenliste
  • 1
    Egofahrzeug
    2
    Radarsensor
    3
    Detektionsbereich
    4
    Fahrzeug
    5
    Radarziele
    6
    prädiziertes Objekt
    7
    Hindernis
    SR
    Near-Scan bzw. Short Range
    FR
    Far-Scan bzw. Far Range
    a
    Beschleunigung
    v
    Geschwindigkeit
    t
    Zeit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102011001248 A1 [0005]

Claims (14)

  1. Verfahren zur Objektverfolgung, bei dem ein Radarsensor (1) Radarsignale in aufeinanderfolgenden Messzyklen ausgesendet, die vom Objekt reflektiert und vom Radarsensor als Radarziele (5) erfasst werden, wobei anhand der Radarziele (5) eine Bewegungsinformation des Objekts für die Objektverfolgung ermittelt wird, und anhand der Bewegungsinformation ein Suchfenster für die Radarziele (5) des Objektes festgelegt wird, wobei das Suchfenster erweitert wird, wenn in aufeinanderfolgenden Messzyklen - eine Änderung der Bewegungsinformation ermittelt wird, die einen festlegbaren Grenzwert überschreitet, und/oder - zu dem verfolgten Objekt keine Radarziele (5) mehr erfasst werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Bewegungsinformation die Geschwindigkeit und/oder die Beschleunigung herangezogen wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass nach der Erweiterung des Suchfensters entweder der aktuelle Messzyklus wiederholt oder der darauffolgende Messzyklus gestartet wird.
  4. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Bewegungsinformationsmuster zur Objektverfolgung hinterlegt sind, durch die das Objekt und/oder eine Verkehrssituation klassifiziert werden kann, insbesondere indem die Bewegungsinformation des Objektes mit den Bewegungsinformationsmustern abgeglichen wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass dem Objekt Radarziele (5) zugeordnet werden, welche im erweiterten Suchfenster erfasst wurden, wenn diese einem Bewegungsinformationsmuster entsprechen.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Erweiterung des Suchfensters rückgängig gemacht wird, wenn in einer festlegbaren Anzahl von Messzyklen dem Objekt keine Radarziele (5) des erweiterten Suchfensters zugeordnet werden können.
  7. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Erweiterung des Suchfensters auf eine festlegbare Anzahl von Messzyklen beschränkt wird.
  8. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Beschleunigung des Objektes anhand eines Differenzquotienten der Geschwindigkeit ermittelt und dem Objekt zugeordnet wird.
  9. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel vorgesehen sind, womit die Bewegungsinformation des Objekts, die Klassifikation des Objekts und/oder die Klassifikation der Verkehrssituation weitergeleitet werden kann.
  10. Verfahren nach einem der Ansprüche 4-9, dadurch gekennzeichnet, dass die Klassifikation auf einem festlegbaren Bereich der Bewegungsinformation beschränkt wird.
  11. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Plausibilisierung der ermittelten Bewegungsinformation und/oder der Klassifizierung des Objekts und/oder der Klassifizierung der Verkehrssituation anhand mehrerer Messzyklen vorgesehen ist.
  12. Fahrerassistenzsystem, welches eine Objektverfolgung insbesondere anhand eines Verfahrens nach einem der vorhergehenden Ansprüche umfasst, aufweisend einen Radarsensor (2) zur Objektverfolgung, wobei der Radarsensor (2) Radarsignale in aufeinanderfolgenden Messzyklen aussendet, die von einem Objekt reflektiert und vom Radarsensor (2) als Radarziele (5) erfasst werden, wobei anhand der Radarziele (5) eine Bewegungsinformation des Objekts für die Objektverfolgung ermittelt wird, und anhand der Bewegungsinformation ein Suchfenster für die Radarziele (5) des Objektes festgelegt wird, wobei das Suchfenster erweitert wird, wenn in aufeinanderfolgenden Messzyklen - eine Änderung der Bewegungsinformation ermittelt wird, die einen festlegbaren Grenzwert überschreitet, und/oder - zu dem verfolgten Objekt keine Radarziele (5) mehr erfasst werden.
  13. Computerprogramm mit Programmcode zur Durchführung eines Verfahren nach mindestens einem der vorhergehenden Ansprüche, wenn das Computerprogramm in einem Computer ausgeführt wird.
  14. Computerlesbares Speichermedium umfassend Anweisungen, welche den Computer, auf dem sie ausgeführt werden, veranlassen, ein Verfahren nach mindestens einem der vorhergehenden Ansprüche auszuführen.
DE102019214383.0A 2019-09-20 2019-09-20 Verfahren zur Objektverfolgung Pending DE102019214383A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102019214383.0A DE102019214383A1 (de) 2019-09-20 2019-09-20 Verfahren zur Objektverfolgung
CN202080065309.2A CN114402224A (zh) 2019-09-20 2020-07-15 用于物体跟踪的方法
EP20756767.8A EP4031904A1 (de) 2019-09-20 2020-07-15 Verfahren zur objektverfolgung
US17/753,954 US20220334246A1 (en) 2019-09-20 2020-07-15 Object tracking method
PCT/DE2020/200058 WO2021052542A1 (de) 2019-09-20 2020-07-15 Verfahren zur objektverfolgung
JP2022512440A JP7457104B2 (ja) 2019-09-20 2020-07-15 オブジェクトを追跡するための方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019214383.0A DE102019214383A1 (de) 2019-09-20 2019-09-20 Verfahren zur Objektverfolgung

Publications (1)

Publication Number Publication Date
DE102019214383A1 true DE102019214383A1 (de) 2021-03-25

Family

ID=72086653

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019214383.0A Pending DE102019214383A1 (de) 2019-09-20 2019-09-20 Verfahren zur Objektverfolgung

Country Status (6)

Country Link
US (1) US20220334246A1 (de)
EP (1) EP4031904A1 (de)
JP (1) JP7457104B2 (de)
CN (1) CN114402224A (de)
DE (1) DE102019214383A1 (de)
WO (1) WO2021052542A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011001248A1 (de) * 2011-03-14 2012-09-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Unterstützung eines Fahrers
DE102018104090A1 (de) * 2017-03-02 2018-09-06 GM Global Technology Operations LLC Adaptive beschreibung von prozessrauschen für verbesserte kalman-filter-zielverfolgung
DE112017004021T5 (de) * 2016-08-10 2019-05-02 Denso Corporation Objekterfassungsvorrichtung

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3269471B2 (ja) 1998-12-04 2002-03-25 三菱電機株式会社 マルチビーム・レーダ装置
US7843379B2 (en) * 2004-11-15 2010-11-30 Nanotron Technologies Gmbh Symmetrical multi-path method for determining the distance between two transmitter-receivers
JP2008195140A (ja) * 2007-02-09 2008-08-28 Fujitsu Ten Ltd レーダシステム、物標検知プログラム、及び物標検知方法
JP5183661B2 (ja) * 2010-03-29 2013-04-17 三菱電機株式会社 車載レーダ装置
JP5910046B2 (ja) * 2011-12-05 2016-04-27 トヨタ自動車株式会社 障害物検出装置
JP5962706B2 (ja) * 2014-06-04 2016-08-03 トヨタ自動車株式会社 運転支援装置
JP6430778B2 (ja) * 2014-10-22 2018-11-28 株式会社デンソー 物体検知装置
EP3578431B1 (de) * 2015-01-05 2024-03-20 Nissan Motor Co., Ltd. Fahrsteuerungsvorrichtung mit einstellung des erkennungsbereichs
JP6453695B2 (ja) * 2015-03-31 2019-01-16 株式会社デンソー 運転支援装置、及び運転支援方法
FR3041438B1 (fr) * 2015-09-22 2019-06-07 Thales Procede d'amelioration des performances de detection d'un radar en phase de poursuite et radar mettant en oeuvre ce procede
JP6650344B2 (ja) * 2015-10-02 2020-02-19 パナソニック株式会社 物体検出装置及び物体検出方法
CN106097388B (zh) * 2016-06-07 2018-12-18 大连理工大学 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法
JP6857971B2 (ja) * 2016-06-13 2021-04-14 株式会社デンソーテン レーダ装置および信号処理方法
US10928511B2 (en) * 2017-12-07 2021-02-23 Ford Global Technologies, Llc Synchronous short range radars for automatic trailer detection
JP7173735B2 (ja) * 2018-02-20 2022-11-16 株式会社デンソー レーダ装置及び信号処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011001248A1 (de) * 2011-03-14 2012-09-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Unterstützung eines Fahrers
DE112017004021T5 (de) * 2016-08-10 2019-05-02 Denso Corporation Objekterfassungsvorrichtung
DE102018104090A1 (de) * 2017-03-02 2018-09-06 GM Global Technology Operations LLC Adaptive beschreibung von prozessrauschen für verbesserte kalman-filter-zielverfolgung

Also Published As

Publication number Publication date
EP4031904A1 (de) 2022-07-27
CN114402224A (zh) 2022-04-26
JP7457104B2 (ja) 2024-03-27
US20220334246A1 (en) 2022-10-20
JP2022545513A (ja) 2022-10-27
WO2021052542A1 (de) 2021-03-25

Similar Documents

Publication Publication Date Title
DE102015210066B4 (de) Fahrunterstützungsvorrichtung
EP2814704B2 (de) Verfahren zur ermittlung einer notbremssituation eines fahrzeuges
EP2404195B1 (de) Verfahren zur automatischen erkennung eines fahrmanövers eines kraftfahrzeugs und ein dieses verfahren umfassendes fahrerassistenzsystem
EP1577682B1 (de) Objektortungssystem für Kraftfahrzeuge zur Erkennung eines Spurwechsels
EP3183152B1 (de) Verfahren zum warnen eines fahrers eines kraftfahrzeugs vor der anwesenheit eines objekts in der umgebung, fahrerassistenzsystem und kraftfahrzeug
DE102018117561A1 (de) Verfahren zum automatisierten Vermeiden einer Kollision
WO2006094926A1 (de) Verfahren und vorrichtung zur kollisionswarnung
DE102014103579A1 (de) Fahrunterstützungssystem
DE102014103307A1 (de) Fahrunterstützungssystem
EP1912844B1 (de) Verfahren zum erzeugen von umwelthypothesen für fahrerassistenzfunktionen
DE102020112686A1 (de) Adaptives autonomes Notbremssystem unter Berücksichtigung des Lenkwegs und Steuerverfahren für selbiges
EP3024709B1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
EP2244104A2 (de) Verfahren und Vorrichtung zum Betrieb eines radargestützten Umfelderkennungssystems
EP4052064A1 (de) Verfahren zum verfolgen eines entfernten zielfahrzeugs in einem umgebungsbereich eines kraftfahrzeugs mittels einer kollisionserkennungsvorrichtung
DE102008063033A1 (de) Vorrichtung und Verfahren zur Erkennung von Kollisionen mit erhöhter funktionaler Sicherheit
DE102012014624A1 (de) Verfahren zur Kollisionsvermeidung oder Kollisionsfolgenminderung
DE102019008530A1 (de) Verfahren zur verbesserten Erkennung von stehenden oder langsam fahrenden Fahrzeugen
EP1643269A1 (de) Fahrerassistenzsystem mit Fuzzy-Logic
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
DE102008002576A1 (de) Verfahren zur Plausibilisierung von Objekten in einem Fahrerassistenzsystem
WO2021078335A1 (de) Verfahren zur erfassung eines zielobjekts
EP4314895A1 (de) Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug
DE102017103700A1 (de) Vermeiden einer Kollision durch einen Lenkeingriff in Abhängigkeit von einer Bewegung eines fahrzeugexternen Objekts
DE102019214383A1 (de) Verfahren zur Objektverfolgung
DE102021001176A1 (de) Verfahren zur Erkennung eines bevorstehenden Frontalzusammenstoßes zwischen zwei Fahrzeugen

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE