DE102008055932A1 - Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors - Google Patents

Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors Download PDF

Info

Publication number
DE102008055932A1
DE102008055932A1 DE102008055932A DE102008055932A DE102008055932A1 DE 102008055932 A1 DE102008055932 A1 DE 102008055932A1 DE 102008055932 A DE102008055932 A DE 102008055932A DE 102008055932 A DE102008055932 A DE 102008055932A DE 102008055932 A1 DE102008055932 A1 DE 102008055932A1
Authority
DE
Germany
Prior art keywords
sensor
polygons
objects
simulation method
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102008055932A
Other languages
English (en)
Inventor
Lars Rudolf
Benedikt Schonlau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IAV GmbH Ingenieurgesellschaft Auto und Verkehr
Original Assignee
IAV GmbH Ingenieurgesellschaft Auto und Verkehr
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IAV GmbH Ingenieurgesellschaft Auto und Verkehr filed Critical IAV GmbH Ingenieurgesellschaft Auto und Verkehr
Priority to DE102008055932A priority Critical patent/DE102008055932A1/de
Publication of DE102008055932A1 publication Critical patent/DE102008055932A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric

Abstract

Die Erfindung betrifft ein Simulationsverfahren zur synthetischen Generierung von Sensordaten eines Sensors.
Erfindungsgemäß weist der Sensor mindestens eine Eigenschaft auf.
Eine synthetische Umgebung (1) umfasst parametrisierbare Objekte (3), wobei jedes Objekt (3) mittels eines Polygons und eines Referenzpunkts (14) repräsentiert wird. Die Parameter der Polygone und die Referenzpunkte der Objekte (3) werden für die Eigenschaft modifiziert. Die Sensordaten werden mittels der die parametermodifizierten Polygone umfassenden synthetischen Umgebung (1) generiert.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Simulationsverfahren zur Generierung von Sensordaten.
  • Stand der Technik
  • Um den Aufwand der Entwicklung für Fahrerassistenzsysteme, insbesondere Umfeldsensoriksysteme, zu verringern, kann das Verhalten der Sensoren (d. h. deren interne Datenverarbeitung) modellbasiert simuliert werden.
  • Aus der DE 100 47 082 A1 ist ein Simulationssystem für die Entwicklung eines automatischen Distanzregelungssystems bekannt, wobei das Distanzregelungssystem zur Längsregelung eine Sensorik zur vorausschauenden Beobachtung des Verkehrs und eine Aktuatorik zum Reagieren auf die Informationen der Sensorik mit Verzögerungs- und/oder Beschleunigungsvorgängen aufweist.
  • Das Simulationssystem ist zur Durchführung einer Hardware-In-The-Loop-Simulation ausgebildet, wobei das Simulationssystem einen Softwareschalter zum Ausschalten des Modells für die Längsregelung zwecks Aktivierung realer Hardware aufweist.
  • Das Simulationssystem weist eine die Umgebungsparameter umfassende Rechnereinheit, eine die Fahrzeugparameter umfassende Rechnereinheit und eine die Hardware-Komponenten umfassende Rechnereinheit auf.
  • Auf der die Hardware-Komponenten umfassenden Rechnereinheit wird das Fahrzeugmodell simuliert, und diese Rechnereinheit ist zur Verknüpfung der Längsregelung mit dem Fahrzeugmodell ausgebildet.
  • Das Simulationssystem überprüft beliebig oft reproduzierbare Situationen mit unterschiedlichen Softwareversionen und Parametern.
  • Der konfigurierbare automatische Distanzregelungssensor wird auf der die Umgebungsparameter umfassenden Rechnereinheit simuliert. Es können dabei Laser- und Radarsensoren mit verschiedenster Performance simuliert werden. Das bedeutet, es können die Art des Sensors, die Reichweite, die Anzahl der Strahlen, die Zyklenzeit, die Anzahl der zu berücksichtigenden Ziele, verschiedene Reflektionsmodelle oder andere Parameter eingestellt werden. Es werden dann die ermittelten Sensorrohdaten in einer sog. Tracking-Software in eine Objektliste verwandelt, die anschließend an die Längsregelung per CAN weitergeleitet wird.
  • In einem Softwarewerkzeug können synthetische Verkehrsszenarien, beispielsweise als zweidimensionales Modell aus der Vogelperspektive, vorgegeben werden. Innerhalb dieser Szenarien befinden sich Objekte, die beliebige Verkehrsteilnehmer, beispielsweise Kraftfahrzeuge und Fußgänger, repräsentieren können. Diese Objekte können über eine Vielzahl von Parametern, beispielsweise Geschwindigkeit, Beschleunigung oder Kurvenradius, in einen Bewegungszustand versetzt werden.
  • Eine Aufgabe der Sensorsimulation kann darin bestehen, Fahrzeuge mit Umfeldsensoren auszustatten, die dann die Zielobjekte innerhalb der Szene vergleichbar mit einem realen Sensor wahrnehmen. Dies bedeutet, dass die Daten, die der synthetische Sensor in der Simulation zurückgibt, dieselbe Güte, wie die Daten des realen Sensors aufweisen. Die Güte der Daten wird einerseits durch die Art der Messung des Umfelds und der daraus resultierenden Messfehler und andererseits durch die Datenverarbeitung innerhalb des Sensors beeinflusst. Diese beiden Aspekte müssen bei einer Sensorsimulation berücksichtigt werden.
  • Ein bekannter Ansatz zur Sensorsimulation empfindet die Verarbeitung der Sensordaten der tatsächlichen Verarbeitung innerhalb realer Sensoren nach. Die Grundidee dieses Verfahrens ist, dass vom Sensorursprung Strahlen in radialer Richtung mit einer sensorspezifischen lateralen Auflösung ausgehen. Diese Gerade bildet Schnittpunkte mit den Objekten, die sich innerhalb des Sichtbereichs befinden. Diese Punkte entsprechen den Rohzielen, die ein realer Sensor von seiner Umwelt wahrnehmen würde. Die Rohziele sind Messpunkte, die der Sensor von seiner Umgebung erfasst und bei denen noch keine weitere Verarbeitung stattgefunden hat.
  • Basierend auf den Rohzielen können verschiedene Fehlerarten des Sensors simuliert werden. Um eine Verdeckung zu realisieren, genügt es, nur die Schnittpunkte, die dem Ursprung, d. h. dem Sensor, am nächsten liegen, zu berücksichtigen. Diesen zu berücksichtigenden Rohzielen kann anschließend ein Fehler aufgeprägt werden, um Messungenauigkeiten nachzubilden. Beispielsweise kann dies unter Verwendung eines normalverteilten Rauschens realisiert werden. Anschließend können einige dieser Punkte mit einer bestimmten Wahrscheinlichkeit entfernt werden, um eine Detektionswahrscheinlichkeit zu simulieren. Die weitere Verarbeitung (der Messwerte black box nicht geeignet) entspricht genau dem, wie sie innerhalb der Sensoren stattfindet.
  • Von nahe beieinander liegenden Rohzielen können durch Bildung von Clustern Objekte extrahiert werden. Aus den zu einem Objekt gehörenden Punktwolken besteht die Möglichkeit, die Objektform bzw. eine Objekthypothese zu erstellen. Ausgehend von der Objektform lässt sich abschließend die Position des Referenzpunktes – d. h. der geometrische Ort, auf den sich alle dynamischen Eigenschaften, beispielsweise Geschwindigkeit, Beschleunigung oder Kurvenradius, des Objekts beziehen – innerhalb des Objekts bestimmen.
  • Ein Nachteil dieses Ansatzes ist, dass ausgehend von der Rohzielerzeugung und der weiteren Verarbeitung (Simulation einer Verdeckung) viele Informationen verloren gehen, die in den darauffolgenden Simulationsschritten (Simulation von Messungenauigkeiten, Bildung von Clustern, Objektform- und Referenzpunktbestimmung) aufwendig rekonstruiert werden müssen.
  • Die Ursachen dieses Informationsverlustes beruhen einerseits auf der Unterabtastung der Objekte durch den Sensor und andererseits auf dem Verlust der Objektzugehörigkeit, welcher in den Fällen auftritt, in denen das Objekt sehr feingliedrig ist und dessen Details erhalten bleiben sollen.
  • Eine Unterabtastung beruht auf der Tatsache, dass sämtliche Umfeldsensoren eine spezifische Ortsauflösung besitzen, mit der sie ihre Umgebung abtasten. Nach dem Nyquist-Shannonsche Abtasttheorem können damit nur Ortsfrequenzen erfasst werden, die kleiner als die halbe Abtastfrequenz sind. Somit gehen Informationen verloren, die zwischen den ermittelten Rohzielen liegen. Beispielsweise kann ein länglicher Gegenstand, der aus einem Fahrzeug herausragt, von einem Sensor mit geringer Abtastfrequenz nicht erfasst werden.
  • Die Funktionsweise, beispielsweise die verwendeten Algorithmen, des realen Sensors muss nachempfunden werden. Diese ist im Allgemeinen nicht bekannt und meistens sehr aufwendig und komplex. Weiterhin kann bei verschiedenen Sensoren und Sensortypen die Realisierung sehr unterschiedlich sein. Außerdem kommen zur Wiedergewinnung der fehlenden Informationen Heuristiken zum Einsatz, welche ebenfalls unbekannt sind. Die Sensorsimulation müsste aus diesem Grunde jeweils neu entwickelt werden.
  • Mittels des bekannten Verfahrens können Car-to-Car-Communication-Sensoren nur sehr schwer modelliert werden, da hierbei keine Abtaststrahlen zum Einsatz kommen. Dieser Informationsverlust ist so erheblich, dass das eigentliche Verhalten des Sensors nicht nachgebildet werden kann.
  • Ein weiterer Nachteil besteht darin, dass eine beliebige Sensorgüte nicht erreichbar ist. Selbst wenn alle vorhandenen Parameter auf einen Wert eingestellt werden, welcher die bestmöglichen Resultate liefert, kann aufgrund des Informationsverlustes und der verwendeten Algorithmen zur Wiedergewinnung dieser Informationen der Ausgangszustand nicht wiederhergestellt werden. Daraus folgt, dass keine synthetischen Sensoren erstellt werden können, deren Güte zwischen der bestmöglichen Konfiguration und eines Sensors, welcher seine Umgebung vollständig erfasst, liegt.
  • Aufgabe der Erfindung
  • Der Erfindung liegt die Bereitstellung eines Simulationsverfahrens zur Generierung von Sensordaten eines Sensors mit beliebig realisierbaren Sensorgüten zugrunde.
  • Lösung der Aufgabe
  • Die Aufgabe wird durch ein Simulationsverfahren gemäß Anspruch 1 gelöst.
  • Vorteile der Erfindung
  • Mittels des erfindungsgemäßen Simulationsverfahrens nimmt der Sensor eine virtuelle Umgebung (synthetische Szene) in der Form wahr, wie sie definiert wurde. Somit sind dem Sensor alle statischen und dynamischen Parameter der in der virtuellen Umgebung befindlichen Objekte bekannt.
  • Die Repräsentation der Objekte erfolgt mittels Polygonen, die einerseits sämtliche relevante Informationen zu den Objekten enthalten und andererseits sich Eigenschaften der Sensoren auf diese Polygone anwenden lassen.
  • Mittels der Polygone können beliebige Formen approximiert werden und sie lassen sich mit relativ einfachen geometrischen Methoden, beispielsweise geometrische Transformation, Rotation und Translation, bearbeiten bzw. modifizieren.
  • Mittels des erfindungsgemäßen Verfahrens werden Eigenschaften des Sensors, welche auch als Sensorfehler aufgefasst werden können, dadurch simuliert, dass die virtuelle Umgebung für diese Eigenschaft modifiziert wird. Die Modifikation erfolgt anhand der Parameter der Polygone und der Referenzpunkte der Objekte.
  • Unabhängig von der zugrundeliegenden Sensortechnologie kann allein durch eine Beschreibung der Sensoreigenschaften/Sensorfehler ein bestimmter realer oder im Entwicklungsstadium befindlicher Sensor parametrisiert werden.
  • Mittels des erfindungsgemäßen Simulationsverfahrens können Sensoren beschrieben werden und somit Sensordaten von Sensoren generiert werden, die keinem realen Sensor entsprechen. Es können somit Anwendungsfälle zur Sensorsimulation erfüllt werden, wobei eine Sensorgüte der zu simulierenden Sensoren von bisher realen Sensoren nicht erreichbar ist. Dies bietet den Vorteil, dass nicht sämtliche Eigenschaften des Sensors zur Sensordatengenerierung bekannt sein müssen.
  • Die Eigenschaften werden durch eine Modifikation der Parameter der Polygone erzeugt, so dass die virtuelle Umgebung und die in ihr befindlichen Objekte entsprechend der Eigenschaft verändert werden. Die Sensordaten, d. h. die von einem Sensor ausgegebenen Daten, werden mittels der modifizierten virtuellen Umgebung generiert. Die Sensordaten entsprechen seiner Wahrnehmung.
  • Jedes Objekt wird durch ein Polygon, welches Ecken und Kanten umfasst, in der virtuellen Umgebung repräsentiert. Die Ecken und Kanten der Polygone stellen eine Abstraktion der Rohziele dar, die von einem realen Sensor erfasst werden.
  • In einer weiteren vorteilhaften Ausführungsform der Erfindung werden den Ecken eines Polygons die statischen und dynamischen Parameter des entsprechenden Objekts zugeordnet. Die dynamischen Parameter enthalten den Bewegungszustand des Objekts, so dass die Ecken dynamische Punkte innerhalb der virtuellen Umgebung darstellen. Die Eigenschaften operieren direkt auf dem Polygon und verändern dabei die Lage bzw. die Anzahl der Ecken.
  • In einer weiteren vorteilhaften Ausführungsform der Erfindung bilden die Form, der Typ und/oder die Reflektivität des Objekts einen statischen Parameter.
  • Die Objekte können jeweils eine unterschiedliche Reflektivität aufweisen. Diese kann von der Beschaffenheit der Objektoberfläche in Kombination mit der verwendeten Sensortechnologie abhängen. Bei aktiven Sensoren wird beim Auftreffen eines Sensorstrahls auf eine Oberfläche dieser zu unterschiedlichen Anteilen reflektiert, absorbiert und diffus getrennt. Die Anteile korrelieren mit dem Reflexionswinkel und den Eigenschaften der Oberfläche. Beispielsweise werden Laserstrahlen von optisch rauen Oberflächen, beispielsweise ein stark verschmutztes Fahrzeug, schlecht reflektiert. Dagegen werden bei retroreflektierenden Materialien, beispielsweise Rückstrahler, ein großer Energieanteil wieder zu dem Lasersensor zurückgeworfen wird.
  • In einer vorteilhaften Ausführungsform bilden die Position, die Geschwindigkeit, die Beschleunigung, der Winkel, der Gierradius, die Gierbeschleunigung und/oder die Gierrate einen dynamischen Parameter.
  • In einer weiteren vorteilhaften Ausführungsform ist in der virtuellen Umgebung mindestens ein Fahrzeugobjekt, welches mindestens einen virtuellen Sensor umfasst, angeordnet. In der virtuellen Umgebung repräsentiert der virtuelle Sensor den zu simulierenden Sensor.
  • Vorteilhafterweise werden in der virtuellen Umgebung die dynamischen Parameter relativ zur Position des virtuellen Sensors angegeben.
  • Vorteilhafterweise umfasst die virtuelle Umgebung ein Koordinatensystem, so dass der virtuelle Sensor, das Fahrzeugobjekt und sämtliche Objekte bezüglich deren räumlicher Lage in diesem Koordinatensystem referenzierbar sind. Weiterhin besteht die Möglichkeit, dass anhand der jeweiligen Koordinaten der relative Abstand eines Objekts zu dem virtuellen Sensor, bzw. zu dessen Sensorursprung, ermittelt werden kann.
  • Die virtuelle Umgebung kann gleichzeitig oder nacheinander für unterschiedliche Eigenschaften modifiziert werden. Basierend auf diesen modifizierten Daten der virtuellen Umgebung werden die Sensordaten mittels dieser parametermodifizierten Polygone umfassenden virtuellen Umgebung generiert.
  • Zum Testen einer Sensoreigenschaft, beispielsweise Störsignale oder Objekttrennfähigkeit, werden die statischen und/oder dynamischen Parameter der als Polygone repräsentierten Objekte modifiziert. Durch eine solche Modifikation kann es vorkommen, dass hierdurch Polygonsegmente entstehen, d. h. von einer Ecke gehen nicht unbedingt zwei Kanten weg.
  • So kann beispielsweise zum Testen einer Messfehlerempfindlichkeit, die durch die Störsignale hervorgerufen wird, die räumliche Lage der Polygone oder einzelner Polygonsegmente verändert werden.
  • Ein Vorteil dieses Ansatzes besteht darin, dass die internen Parameter und somit die interne Datenverarbeitung des Sensors nicht bekannt sein müssen. Mittels Messungen können die zu testenden Sensoreigenschaften ermittelt werden.
  • Mittels des erfindungsgemäßen Verfahrens können Sensoren beschrieben werden, die nicht als realer Sensor vorliegen. Ausgehend von einem idealen Sensor, der seine Umgebung vollständig und unverfälscht wahrnimmt, kann eine beliebige Sensorgüte erreicht werden, welche für zukünftige Sensorgenerationen relevant werden könnte, um einen bestimmten Anwendungsfall zu erfüllen.
  • Einzelne Aspekte der generierten Eigenschaften können außer Acht gelassen werden, falls sie auf einen bestimmten Sensor nicht zutreffen oder nicht betrachtet werden sollen.
  • Obwohl das erfindungsgemäße Verfahren nicht die interne Datenverarbeitung von realen Sensoren exakt nachbildet, bietet es dennoch Vorteile gegenüber dem bekannten Verfahren. Bei dem erfindungsgemäßen Verfahren tritt kein Informationsverlust auf, der anschließend wieder aufwändig wiederhergestellt werden müsste.
  • Weiterhin besteht keine Notwendigkeit, die sensorspezifischen Algorithmen zu kennen. Die Auswirkungen der einstellbaren Parameter sind in den Simulationsergebnissen direkt ersichtlich, so dass mittels eines geringen Implementierungsaufwands eine Abdeckung eines größeren Anwendungsspektrums möglich ist.
  • Sämtliche Umfeldsensoren weisen Eigenschaften auf, die unabhängig von der zugrunde liegenden Technologie sind und bei verschiedenen Sensoren unterschiedlich ausgeprägt sein können.
  • Das erfindungsgemäße Verfahren kann zudem für sog. Car-to-Car-Communication-Sensoren eingesetzt werden. Bei Car-to-Car-Communication-Sensoren sind alle beteiligten Fahrzeuge mit einer Funktechnologie ausgestattet. Die Fahrzeuge sind in der Lage, ihre eigenen dynamischen Zustände, die sie durch ihre Eigensensorik ermitteln, zu senden. Ein Sensorfahrzeug empfängt diese Daten und kann damit ein Umfeldmodell erstellen.
  • Über die dynamischen Zustände hinaus ist es möglich, dass auch weitere verfügbare Informationen zwischen den Fahrzeugen ausgetauscht werden können. So können beispielsweise die Abmessungen der Fahrzeuge übertragen werden, um eine genaue Aussage über die entsprechende Objektform treffen zu können.
  • Ein Car-to-Car-Communication-Sensor kann als idealer Sensor gesehen werden, jedoch mit den Einschränkungen einer begrenzten Reichweite, durch die Eigensensorik hervorgerufene Messfehler sowie Funkaussetzer.
  • Mittels des erfindungsgemäßen Verfahrens können mittels eines geringen Aufwands, ausgehend von einem idealen Sensor, die relevanten Fehler (zu testende Eigenschaften) in der virtuellen Umgebung angewendet werden.
  • Einige dieser Eigenschaften werden nachfolgend beschrieben.
  • Sichtbereich
  • Die Umfeldsensoren nehmen nur einen Ausschnitt ihrer Umgebung wahr. Dieser Ausschnitt bildet den Sichtbereich.
  • Die beiden wichtigsten Größen sind die maximale Reichweite und der Öffnungswinkel, welcher bauartbedingt ist. Diese beiden Parameter beschreiben einen Kreissektor, der die Form des Sichtbereichs bestimmt. Dies ist beispielsweise bei Laserscannern und Kameras der Fall.
  • Weiterhin kann der Sichtbereich eine spezifische Form besitzen, welche durch die Strahlausbreitung bestimmt ist. Radarsensoren besitzen einen Sichtbereich mit einer typischen Keulenform.
  • Der Sichtbereich besteht aus einer geschlossenen Form und wird von einer Sichtbereichshülle umgeben. Alle Objekte, die sich außerhalb der Sichtbereichshülle befinden, werden entfernt. Wenn sich ein Objekt teilweise innerhalb und teilweise außerhalb des Sichtbereichs befindet, wird das Objekt an der Sichtbereichshülle getrennt und der sich außerhalb des Sichtbereichs befindliche Teil des Objekts wird entfernt. Bei dem sich innerhalb des Sichtbereichs befindlichen Teil bilden die Schnittpunkte der Polygonkanten mit der Sichtbereichshülle die neuen Polygonecken, die mittels neuer Ecken verbunden werden, so dass ein neues Polygon aus den neuen Ecken und den bereits im Sichtbereich befindlichen Ecken gebildet wird.
  • Sichtbereichsverteilung
  • Die Parameter der Sensoreigenschaften können abhängig von der Position innerhalb des Sichtbereiches verschiedene Werte aufweisen.
  • Beispielsweise folgende Parameter:
    • • Wahrscheinlichkeitswert der Detektionswahrscheinlichkeit
    • • Verdeckungswahrscheinlichkeit der Verdeckung
    • • Parameter der Störsignale
    • • Standardabweichung für das Rauschen
    • • Wert eines „Offsets”
    • • Frequenz und Amplitude von (Sinus-)Schwingungen
    • • Schwellwert für Abstand zweier Objekte, die getrennt wahrgenommen werden können
  • Verdeckung
  • Die Sensoren sehen ihre Umwelt aus einer Richtung. Objekte, die sich von der Sensorposition aus gesehen hinter anderen Objekten befinden, werden nicht wahrgenommen. Diese Objekte befinden sich im Sichtschatten. Grundsätzlich lassen sich zwei Arten von Verdeckungen unterscheiden: Eigenverdeckung und Fremdverdeckung. Bei der Fremdverdeckung werden Objekte von anderen Objekten verdeckt. Die Eigenverdeckung entsteht dadurch, dass der Sensor von seiner Position aus nur eine Seite der Objekte sieht. Die Rückseite ist durch das Objekt selbst verdeckt.
  • Die Verdeckung muss bei den Sensoren nicht absolut sein. So ist es bei Radarsensoren möglich, dass sie unter Fahrzeugen hindurchsehen können und somit vorausfahrende Fahrzeuge erfassen können. Auch Kameras können durch ihren großen Öffnungswinkel große Objekte, die sich hinter kleineren befinden, erkennen.
  • Kanten, die sich auf der Rückseite der Objekte (vom Sensor aus gesehen) befinden, werden von den betreffenden Objekten entfernt. Ebenso werden die Objekte entfernt, die sich im Sichtschatten anderer Objekte befinden.
  • Bei einer Teilverdeckung müssen nur die Polygonsegmente entfernt werden, die sich im Sichtschatten befinden, so dass die anderen Teile erhalten bleiben.
  • Die Fähigkeit von einigen Sensoren, auch verdeckte Objekte wahrnehmen zu können, kann mit einer Wahrscheinlichkeitsverteilung über den Sichtbereich dargestellt werden, wobei bei dieser Wahrscheinlichkeitsverteilung nur die verdeckten Objekte berücksichtigt werden.
  • Detektionswahrscheinlichkeit
  • Objekte, die sich innerhalb des Sichtbereichs befinden, werden nicht in jedem Fall von dem Sensor wahrgenommen, sondern mit einer bestimmten Wahrscheinlichkeit, die von der Objektposition abhängt.
  • So werden meist in den Randbereichen des Sichtbereichs befindliche Objekte mit einer geringeren Wahrscheinlichkeit im Vergleich zu den im Inneren des Sichtbereichs befindlichen Objekten wahrgenommen.
  • Weiterhin besteht die Möglichkeit, dass einige Sensoren in der Mitte des Sichtbereichs Gebiete aufweisen, in denen die Detektionswahrscheinlichkeit sehr gering ist. Die Ursachen sind einerseits technologiebedingt oder werden andererseits durch äußere Umwelteinflüsse bestimmt.
  • Bei dem erfindungsgemäßen Verfahren kann zum Testen des Sensors den Sensoren eine Detektionswahrscheinlichkeit zugeordnet werden. Die Detektionswahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit ein Objekt in dem Sichtbereich von dem virtuellen Sensor erkannt wird. Die Wirkung der Detektionswahrscheinlichkeit richtet sich auf die Ecken des Objekts. Es werden demnach die Ecken der Objekte mit der angegebenen Wahrscheinlichkeit entfernt, so dass die Objekte, wie bereits zuvor beschrieben, ihre Form dabei verändern können oder auch vollständig verschwinden.
  • Die Wahrscheinlichkeit, die für den virtuellen Sensor spezifiziert wurde, kann allerdings nicht für das Löschen der Ecken verwendet werden, da sie für das Objekt als Ganzes gilt. Andernfalls würde ein Objekt mit weniger Ecken im Vergleich zu einem Objekt mit einer größeren Anzahl an Ecken eher entfernt werden. Daher muss ausgehend von der Objektwahrscheinlichkeit eine Wahrscheinlichkeit für eine einzelne Ecke abgeleitet werden.
  • Unterabtastung
  • Erfindungsgemäß kann die Eigenschaft einer Unterabtastung mittels Sensorstrahlen realisiert werden. Dabei gehen radiale Geraden vom Sensorursprung aus, die einen bestimmten Winkelabstand voneinander aufweisen. Mit diesen Geraden werden anschließend die Schnittpunkte mit den Kanten der Polygone erzeugt, welche dann die neuen Ecken darstellen. Die Kanten des neuen Polygons werden ermittelt, indem die ursprünglichen Ecken, die zwischen zwei Schnittpunkten liegen, nacheinander entfernt werden und die Kante in jedem Schritt zwischen den nun benachbarten Ecken solange gezogen wird, bis nur noch die beiden Schnittpunkte mit der endgültigen Kante übrig sind. Durch die Löschung der Ecken wird erreicht, dass die Details des Objekts entsprechend der vorliegenden Sensorauflösung reduziert werden.
  • Auch wenn erfindungsgemäß Sensorstrahlen verwendet werden, haben diese jedoch nichts mit den Sensorstrahlen des bekannten Verfahrens gemeinsam. Erfindungsgemäß wird bei der Unterabtastung die Objektzugehörigkeit beibehalten und neue Ecken der Polygone erzeugt.
  • Messfehler/Störsignale
  • Sensoren, die in Fahrzeugen zum Einsatz kommen, können als Messgeräte aufgefasst werden, die in erster Linie Entfernungen messen. Ebenso wie bei Messgeräten können Sensoren keine exakten und fehlerfreien Messungen durchführen. Dies bedeutet, es liegt immer eine Messabweichung zwischen dem ermittelten und dem wahren Wert vor. Die Ursachen der Messfehler können unterschiedlicher Natur sein. In Frage kommen beispielsweise Messgerätefehler, die messverfahrensbedingten Fehler und Umwelteinflüsse. Weiterhin kann zwischen zwei Arten von Messabweichungen unterschieden werden. Diese sind zum einen die systematischen Messfehler und zum anderen die zufälligen Messfehler. Unter systematischen Messfehlern sind konstante Abweichungen in eine Richtung zu verstehen. Sog. Drifts, eine lineare Änderung eines Werts über der Zeit, werden ebenso zu den systematischen Messfehlern gezählt. Die Ursache ist hierbei meist in den Messgeräten zu finden und wird auf deren ungenaue Kalibrierung zurückgeführt.
  • Zufällige Messfehler können als eine Streuung der Messwerte um den wahren Wert aufgefasst werden. Diese äußern sich meist als Rauschen, welches in den Eigenschaften der Signalverarbeitung in den elektronischen Bauteilen begründet ist.
  • Alle Einflüsse, die im zeitlichen Verlauf die dynamischen Eigenschaften eines Objekts verändern, werden erfindungsgemäß als Störsignale betrachtet.
  • Stochastische Messfehler können mit einem Rauschsignal simuliert werden. Alle für einen Sensor definierten Störsignale werden aufsummiert und auf den dynamischen Zustand der erfassten Objekte beaufschlagt.
  • Die Parameter der Störsignale können abhängig von der Position im Sichtbereich sein und können in zwei Dimensionen eines entsprechenden Koordinatensystems definiert werden.
  • Objekttrennfähigkeit
  • Bedingt durch die Ortsauflösung und die Segmentierung der Rohziele für die Objekterkennung können zwei Objekte, die eine geringe Distanz zueinander haben, als ein einzelnes Objekt wahrgenommen werden. Die Objekttrennfähigkeit kann abhängig von der Position innerhalb des Sichtbereichs sein. Üblicherweise werden Objekte in der Nähe des Sensors mit einem geringeren Objektabstand getrennt wahrgenommen im Vergleich zu einer größeren Entfernung zum Sensor.
  • Radarsensoren, die zusätzlich die Geschwindigkeit der Objekte messen können, sind in der Lage, auch Objekte mit einem geringeren Abstand zueinander zu trennen, sofern diese Objekte eine Differenzgeschwindigkeit aufweisen.
  • Für die Simulation der Objekttrennfähigkeit muss der umgekehrte Weg im Vergleich zu den realen Sensoren vollzogen werden. Die durch die virtuelle Umgebung klar getrennten und identifizierten Objekte müssen miteinander verschmolzen werden, sofern deren Abstand geringer als ein definierter Schwellwert ist.
  • Diese Eigenschaft kann abhängig von der Position im Sichtbereich und der Richtung, beispielsweise Entfernungs- oder Winkelabstand, sein.
  • Objektformbestimmung
  • Für eine Abschätzung der Ausmaße eines Objekts und zur Bestimmung der dynamischen Eigenschaften kommen in den Sensoren verschiedene Heuristiken zum Einsatz, die eine Form des Objekts bestimmen.
  • Bei einigen Lasersensoren wird angenommen, dass Fahrzeuge eine rechteckige Grundform besitzen. Sind zwei Kanten des Rechtecks sichtbar, wird die andere Kante mit einem plausiblen Wert abgeschätzt oder es wird auf gespeicherte Werte vorangegangener Wahrnehmungen zurückgegriffen.
  • Radarsensoren sind aufgrund ihrer geringen Auflösung meist nicht in der Lage, eine genaue Form eines Objekts zu bestimmen. Sie geben meist nur einen Punkt für die erkannten Objekte zurück.
  • Um eine Objektformbestimmung der Sensoren zu simulieren, wird die bestehende Form der Objekte mittels eines Algorithmus modifiziert. Ein solcher Algorithmus ist beispielsweise ein sog. Bounding-Box-Algorithmus, der um die bestehenden Ecken des Polygons bzw. Polygonsegments ein Rechteck legt. Dieses Rechteck wird dann die neue Objektform. Weiterhin kann die Objektform anhand einer Abschätzung der Breite oder der Reduzierung auf eine Ecke erfolgen.
  • Die Objektformbestimmung kann als Grundlage für eine Referenzpunktbestimmung dienen.
  • Referenzpunktbestimmung
  • Auf einen Referenzpunkt beziehen sich sämtliche dynamischen Eigenschaften eines Objekts. Ein einfaches Verfahren ist die Bestimmung eines Schwerpunkts. Wurde zuvor eine Objektformbestimmung als Bounding-Box durchgeführt, entspricht dies der Ermittlung des Referenzpunkts über eine Abschätzung der Länge und Breite des Objekts.
  • Eine weitere Möglichkeit besteht darin, diejenige Ecke des Objekts als Referenzpunkt zu verwenden, die dem Sensor am nächsten ist. Dies ist mit dem Prinzip von Radarsensoren vergleichbar.
  • Objektklassifizierung
  • Für verschiedene Sensoranwendungen besteht die Notwendigkeit zur Unterscheidung der Art von Objekten. Beispielsweise muss bei Fußgängerschutzsystemen unterschieden werden, ob es sich bei einem Objekt um einen Fußgänger handelt.
  • Zum Einsatz kommen hierbei heuristische Methoden, die anhand der Objektform (statischer Parameter) und typischen Bewegungsmustern (dynamischer Parameter) eine Klassifikation der erfassten Objekte vornehmen.
  • Geisterobjekte
  • Bei Umfeldsensoren kann es vorkommen, dass diese Objekte zurückliefern, obwohl sich in der Realität an dieser Stelle keine Objekte befinden. Verursacht wird dies meist durch äußere Einflüsse, beispielsweise Umwelteinflüsse oder wechselseitige Beeinflussung der Sensoren, oder durch Unzulänglichkeiten der Sensoren.
  • Bei der Erzeugung von Geisterobjekten wird eine Wahrscheinlichkeitsverteilung über den Sichtbereich gelegt. Dabei werden, entsprechend der jeweiligen Wahrscheinlichkeit, zufällig neue Objekte erzeugt.
  • Die Geisterobjekte können erst nach der Detektionswahrscheinlichkeit generiert werden, da ansonsten die gerade erzeugten Geisterobjekte wieder entfernt werden könnten und somit deren Auftauchen nicht der erwünschten Wahrscheinlichkeit entspricht.
  • Eine Unterabtastung kann erst nach der Generierung der Geisterobjekte erfolgen, da ansonsten das Geisterobjekt eine höhere Auflösung im Vergleich zu den eigentlichen Objekten haben kann.
  • Bahnabweichungen
  • Für die Simulation der Bahnabweichung kann beispielsweise ein einfacher Trägheitswert verwendet werden. Ebenso besteht die Möglichkeit, die Filterung, beispielsweise ein Kalman-Filter, nachzubilden. Dies kann allerdings mit einem hohen Implementierungs- und Abstimmungsaufwand verbunden sein und eine konkrete Parametrierung in einem bestimmten realen Sensor ist meistens nicht bekannt.
  • Während der Referenzierung der einzelnen Objekte in der virtuellen Umgebung werden für die Zustandsabschätzungen Filter eingesetzt. Verursacht durch diese Abschätzung weisen die Objektzustände in Abhängigkeit der Bewegung der Zielobjekte und des verwendeten Trackingverfahrens einen gewissen Fehler auf. Bei der Betrachtung eines längeren Zeitraums kann bei einer Gegenüberstellung eines eigentlichen und eines prädizierten Bahnverlaufs eine Diskrepanz festgestellt werden. Die Bahnabweichung stellt sich in den meisten Fällen als eine Art Überschwingen dar.
  • Unter der Verwendung eines einfachen Prädiktionsmodells, welches einer Trägheit entspricht, kann das Verhalten anhand weniger Parameter abgebildet werden. Diese Prädiktion geht davon aus, dass sich ein Objekt mit einer konstanten Geschwindigkeit in dieselbe Richtung weiterbewegt. Die Position des Objekts auf der veränderten Bahn ergibt sich aus einem gewichteten Mittelwert aus dem prädizierten Punkt und der tatsächlichen Position im nächsten Zyklus. Die beiden Parameter, mit denen sich die Bahnabweichung einstellen lässt, sind ein Gewichtungsfaktor w und eine Anzahl an Zeitschritten k, die für die Prädiktion zurückgegangen werden soll.
  • Die neue Position Pn auf der veränderten Bahn berechnet sich wie folgt:
    Figure 00130001
    mit dem prädizierten Punkt Pp:
    Figure 00130002
  • Pi ist die tatsächliche Position des Objekts zu dem Zeitpunkt i. Die neue Bahn ergibt sich dann, indem in jedem Schritt für PiPn verwendet wird. Mit dem Gewichtungsfaktor w lässt sich die Stärke der Abweichung bestimmen.
  • Wenn w = 0 ist, bedeutet dies, dass es keinerlei Abweichung gibt, also Pn = Pi.
  • Bei w = 1 wird nur der prädizierte Punkt Pp verwendet. Folglich bewegt sich das Objekt entsprechend des Vektors des ersten Zyklus geradeaus.
  • Der Effekt dieser erzeugten Abweichung kommt einer Trägheit gleich. Die Bahn läuft der tatsächlichen Bewegung etwas hinterher und erzeugt bei Richtungsänderungen Überschwinger.
  • Die auf diese Art ermittelte Bahnabweichung ist zudem abhängig von der Zeitauflösung des Sensors. Je höher die Zeitauflösung ist, umso genauer wird auch die Bahn abgetastet.
  • Daraus resultiert ebenso eine höhere Genauigkeit für die eingesetzte Prädiktion. Mit einem Faktor kann dieser Effekt kompensiert werden. Damit können auch weiter zurückliegende Punkte als Ausgangspunkt für die Prädiktion in Betracht gezogen werden, um somit eine höhere erwünschte Ungenauigkeit zu erreichen.
  • Latenzzeit
  • Für eine Latenzzeit kann eine Anzahl an Zeitschritten angegeben werden, um die die Ausgabe eines Frames, der ein diskreter Zeitpunkt der Sensorwahrnehmung ist, der sämtliche Objekte mit allen Polygonen enthält, verzögert wird. Die Länge eines Zeitschrittes entspricht der Zykluszeit des Sensors. Für die Umsetzung kann eine Warteschlange verwendet werden, deren Länge der Anzahl der Zeitschritte entspricht. Die Frames werden also über die Dauer der Latenzzeit zurückgehalten und erst danach ausgegeben. Da der Zeitstempel eine Eigenschaft des Frames ist, muss er von dem Frame, der in der Warteschlange eingegeben wird, von demjenigen Frame übernommen werden, welcher aus der Warteschlange entfernt wird.
  • Tracking
  • Um Aussagen über den Bewegungszustand eines Objekts zu treffen, ist eine Beobachtung über einen längeren Zeitraum notwendig. Dazu müssen die Objekte im nächsten Zyklus wiedergefunden werden. Dabei wird in jedem gefundenen Objekt ein eindeutiger Identifikator zugeordnet, der im nächsten Schritt unter Zuhilfenahme von heuristischen Verfahren möglichst demselben realen Objekt zugeordnet wird.
  • Zeichnungen
  • Es zeigen:
  • 1: eine schematische Darstellung einer virtuellen Umgebung;
  • 2a bis 2f: eine Gegenüberstellung des erfindungsgemäßen Verfahrens und eines bekannten Verfahrens.
  • Die 1 zeigt eine in einem Koordinatensystem K dargestellte erfindungsgemäße synthetische Umgebung 1. Die Achse y des Koordinatensystems K erstreckt sich entgegengesetzt der Bewegungsrichtung eines Fahrzeugobjekts 2.
  • In der synthetischen Umgebung 1 werden parametrisierbare Objekte 3 als Polygone dargestellt, wobei jedes Polygon mindestens drei Ecken 4 und mindestens drei die Ecken 4 paarweise verbindende Kanten 5 umfasst.
  • Jedes Objekt 3 ist in der synthetischen Umgebung 1 referenziert, so dass dieses verfolgt werden kann.
  • Das Fahrzeugobjekt 2 umfasst einen synthetischen Sensor 6. Die räumliche Lage und Ausrichtung des synthetischen Sensors 6 in dem Koordinatensystem K entspricht der des zu simulierenden Sensors.
  • Weiterhin besteht die Möglichkeit, an dem Fahrzeugobjekt 2 mehrere synthetische Sensoren 6 anzubringen.
  • Weiterhin können in der synthetischen Umgebung 1 mehrere Fahrzeugobjekte 2, die mindestens einen synthetischen Sensor 6 umfassen, angeordnet sein. Eine solche Konstellation kann beispielsweise zur Simulation von sog. Car-to-Car-Communication-Sensoren dienen.
  • Jedes Objekt 3 und Fahrzeugobjekt 2 umfasst statische und/oder dynamische Parameter, die in den Ecken 4 und Kanten 5 der Polygone hinterlegt sind. Für das erfindungsgemäße Verfahren können diese Parameter dadurch variiert werden, dass die räumliche Lage der Ecken 4 und Kanten 5 verändert, Polygonsegmente oder ganze Polygone entfernt werden.
  • In den 2a bis 2f ist eine Gegenüberstellung eines im Stand der Technik beschriebenen bekannten Verfahrens A und des erfindungsgemäßen Simulationsverfahrens B dargestellt. Das erfindungsgemäße Simulationsverfahren B ist auf der rechten Seite und das bekannte Verfahren A auf der linken Seite dargestellt.
  • Das bekannte Verfahren A empfindet die Verarbeitung der Sensordaten der tatsächlichen Verarbeitung innerhalb realer Sensoren nach.
  • Beide Verfahren bauen auf einer in 2a dargestellten synthetischen Umgebung 1 auf, die das Fahrzeugobjekt 2 mit dem synthetischen Sensor 6 sowie mehrere Objekte 3 umfasst.
  • Sowohl für das bekannte Verfahren A als auch für das erfindungsgemäße Simulationsverfahren B wird ein in 2b dargestellter Sichtbereich 7 eingetragen und sämtliche Objekte 3, die vollständig außerhalb des Sichtbereichs 7 liegen, werden entfernt.
  • Bei dem erfindungsgemäßen Simulationsverfahren B können als Sichtbereich 7 ein Kreissektorbereich (in 2b dargestellt) oder ein rechteckiger Sichtbereich 7 (nicht dargestellt) gewählt werden.
  • Die Form des Kreissektorbereiches entspricht in etwa der radialen Wahrnehmung eines Laserscanners oder einer Kamera. Definiert wird dieser über eine Reichweite und einen Öffnungswinkel, der in eine linke und rechte Seite aufgeteilt wird, um auch die Darstellung von asymmetrischen Öffnungswinkeln zu ermöglichen.
  • Der rechteckige Sichtbereich 7 ist zur Aufnahme einer Sichtbereichsverteilung besser geeignet, da diese ebenfalls eine rechteckige Grundform besitzt. Definiert wird der rechteckige Sichtbereich 7 über die Parameter der Reichweite und der linken und rechten Breite.
  • Die Abfrage bezüglich der in dem Sichtbereich 7 enthaltenen Objekte 3 wird für jede Ecke 4 eines Objektes 3 überprüft, ob die Position dieser Ecke 4 innerhalb des Sichtbereichs 7 liegt. Sofern dies nicht zutrifft, wird diese Ecke 4 entfernt. Sind sämtliche Ecken 4 eines Objektes 3 entfernt worden, so wird das gesamte Objekt 3 entfernt.
  • Andernfalls werden die Schnittpunkte der Kanten 5 mit einer Sichtbereichshülle 8 ermittelt. Diese Schnittpunkte ergeben dann neue Ecken 4 für dieses Objekt 3, welches sich nur teilweise in dem Sichtbereich 7 befindet.
  • Mittels einer Sichtbereichsverteilung können den Objekten 3 innerhalb des Sichtbereichs 7 unterschiedliche Werte anhand einer Verteilungsfunktion zugeordnet werden.
  • Bei dem bekannten Verfahren A gehen Sensorstrahlen 9 vom Ursprung des synthetischen Sensors 6 in radialer Richtung mit der sensorspezifischen lateralen Auflösung aus. Die Sensorstrahlen 9 bilden Schnittpunkte mit den in dem Sichtbereich 7 befindlichen Objekten 3. Diese Schnittpunkte entsprechen den Rohzielen 10, die ein realer Sensor von seiner Umwelt wahrnehmen würde. Die Rohziele 10 sind die Messpunkte, die der Sensor von seiner Umgebung erfasst, bei denen noch keine weitere interne Datenverarbeitung stattgefunden hat.
  • In 2c ist die Simulation einer Objektverdeckung dargestellt.
  • Bei dem bekannten Verfahren A werden dabei die Rohziele 10 berücksichtigt.
  • Bei dem erfindungsgemäßen Simulationsverfahren B müssen zur Simulation einer Objektverdeckung die Ecken 4 bzw. die Kanten 5 der Polygone entfernt werden. Zudem besteht die Möglichkeit, lediglich Teile von Kanten 5 zu entfernen, sofern diese nicht vollständig verdeckt sind. Für eine Auswertung genügt es, nur die einzelnen Kanten 5 mit ihren beiden Ecken 4 paarweise miteinander zu vergleichen.
  • Dies muss über die Objektgrenzen hinweg erfolgen, um somit gleichzeitig die Eigen- und die Fremdverdeckung zu realisieren.
  • Die beiden Kanten 5, die miteinander verglichen werden, nehmen dabei zwei verschiedene Rollen ein. Das ist einerseits die verdeckende Kante 5, welche die Verdeckung verursacht, und andererseits die verdeckte Kante 5, welche gegebenenfalls modifiziert wird. Abhängig von der Lage der Ecken 4 der Kanten 5 muss entschieden werden, wie die Modifikation der verdeckten Kante 5 erfolgen muss. Hierzu ergeben sich folgende Möglichkeiten:
    • a) die verdeckte Kante 5 bleibt unverändert;
    • b) die verdeckte Kante 5 wird vollständig entfernt;
    • c) von der verdeckten Kante 5 wird ein Stück an einer Seite entfernt;
    • d) von der verdeckten Kante 5 wird ein Zwischenstück entfernt, so dass zwei Kanten 5 entstehen.
  • Die Entscheidung, welche dieser Varianten zutrifft, wird über die Lage der Ecken 4 und die die Ecken 4 verbindenden Kanten 5 bezüglich eines Verdeckungsbereichs getroffen. Der Verdeckungsbereich wird konstruiert, indem je eine Gerade von der Position des synthetischen Sensors 6 durch die beiden Ecken 4 der verdeckenden Kante 5 gelegt wird.
  • Es werden dabei folgende Lagemöglichkeiten unterschieden:
    • a) Beide Ecken 4 befinden sich innerhalb des Verdeckungsbereichs. Die zugehörige Kante 5 wird komplett entfernt.
    • b) Eine Ecke 4 befindet sich innerhalb und eine Ecke 4 befindet sich außerhalb des Verdeckungsbereichs. Von der Kante 5 wird ein Teil an einer Seite entfernt.
    • c) Beide Ecken 4 befinden sich außerhalb des Verdeckungsbereichs und die zugehörige Kante 5 schneidet den Verdeckungsbereich. Ein Zwischenstück wird von der Kante 5 entfernt.
    • d) Andernfalls bleibt die Kante 5 unverändert.
  • Für den Fall, dass sich zwei Kanten 5 überschneiden, findet eine wechselseitige Verdeckung statt. Dies ist bei dieser Vorgehensweise bereits berücksichtigt, da die beiden Kanten 5 jeweils in beiden Rollen (als verdeckte und verdeckende Kante 5) auftreten. Da es sich bei den Formen um Polygone handelt, gehört eine Ecke 4 zu maximal zwei Kanten 5. Daraus folgt, dass eine Ecke 4 erst gelöscht wird, wenn es keine weitere Zugehörigkeit zu einer anderen Kante 5 gibt.
  • Durch das Entfernen von Kanten 5 bzw. Kantenstücken kann das Polygon in mehrere Teile (Polygonsegmente) zerlegt werden. Die daraus entstandenen Zusammenhangskomponenten stellen eigene Objekte 3 dar, die wiederum referenziert werden.
  • In 2d ist die Simulation von Messfehlern oder Störsignalen 11 dargestellt.
  • Nach dem bekannten Verfahren A wird den Rohzielen 10 ein Fehler, beispielsweise mittels eines normalverteilten Rauschens, beaufschlagt.
  • Nach dem erfindungsgemäßen Simulationsverfahren B werden Messfehler oder Störeinflüsse durch Hinzufügen von beliebigen Störsignalen 11 zu den Ecken 4 und/oder Kanten 5 der Polygone realisiert. Es besteht die Möglichkeit, dass die Störsignale 11 verschiedene Signale unterschiedlichen Typs beinhalten. Das gemeinsame Störsignal 11 wirkt dann auf die Ecken 4 der Polygone. Zu jedem Störsignal 11 wird weiterhin angegeben, auf welche Größe sich dieses auswirkt. Es sind hierzu beispielsweise ein normalverteiltes Rauschen oder ein konstanter Wert für eine Sinus- und eine Rechteckfunktion vorgesehen. Für das Rauschen wird die Funktion der Normalverteilung mit einem Erwartungswert, der dem tatsächlichen Wert entspricht, und einer Standardabweichung, die frei konfigurierbar ist, verwendet.
  • Die Sinusfunktion wird über die Amplitude und die Frequenz bestimmt. Weiterhin besteht die Möglichkeit, eine periodische Rechteckfunktion zu definieren, die die Parameter für die Zeit des sog. High-Wertes und des sog. Low-Wertes umfasst. Alle Parameter der Signale können eine Abhängigkeit von der Position in dem Sichtbereich 7 haben.
  • In 2e ist dargestellt, wie nach dem bekannten Verfahren A von nahe beieinander liegenden Rohzielen 10 durch Bildung von Clustern 12 Objekte 3 extrahiert werden.
  • Nach dem erfindungsgemäßen Simulationsverfahren B müssen zwei Objekte 3, deren Abstand zueinander zu gering ist, um von einem realen Sensor getrennt wahrgenommen zu werden, zu einem Objekt 3 verschmolzen werden, wenn dieser Abstand einen bestimmten Schwellwert unterschreitet. Dieser kann mittels eines Parameters eingestellt werden, welcher wie die Störsignale 11 über den Sichtbereich 7 verteilt ist und zwei Wirkrichtungen aufweisen kann. Typischerweise können Umfeldsensoren Objekte 3 besser trennen, wenn diese im Vergleich zu einem Entfernungsabstand einen Winkelabstand voneinander aufweisen. Weiterhin kann die Objekttrennfähigkeit auf verschieden gemessene Größen angewendet werden. So besteht beispielsweise die Möglichkeit, neben dem Positionsabstand auch eine Geschwindigkeitsdistanz als Grundlage für die Objekttrennung heranzuziehen.
  • Bei Sensoren, beispielsweise Radarsensoren, die diese beiden Größen (Position und Geschwindigkeit) messen können, wenn die Objekte 3 aufgrund ihrer Lage zueinander zu einem Objekt 3 miteinander verbunden werden, würden dennoch ihre Separierung beibehalten, sofern ihre Geschwindigkeitsdifferenz hinreichend groß ist.
  • Die Objekte 3, die miteinander verbunden werden müssen, werden gefunden, indem ein minimaler Abstand 13 zwischen zwei Polygonen ermittelt wird. Der minimale Abstand 13 zwischen zwei Polygonen muss nicht in allen Fällen zwischen zwei Ecken 4 liegen. Es sind weiterhin noch die Kombinationen aus Ecke 4 – Kante 5 sowie Kante 5 – Kante 5 möglich. Zur Lösung kann der sog. „Rotating-Calipers-Ansatz” verwendet werden.
  • Die Voraussetzung, dass der minimale Abstand 13 zweier Polygone nach diesem Ansatz bestimmt werden kann, ist, dass beide Polygone konvex sind. Sofern dies nicht zutrifft, kann der minimale Abstand 13 lediglich über einen Vergleich aller Ecken 4 und Kanten 5 gefunden werden.
  • Die Objekte 3, deren minimaler Abstand 13 kleiner einem Schwellwert ist, werden miteinander verbunden. Die Polygone müssen für eine Verschmelzung an den jeweils am weitesten innen liegenden Ecken 4 mit den Lotfußpunkten des anderen Polygons aufgetrennt werden.
  • Bei der Variante Kante 5 mit Ecke 4 ist der minimale Abstand 13 zwischen der Ecke 4 des einen Polygons und dem Lotfußpunkt auf der Kante 5 des anderen Polygons. Die neuen Kanten 5 entstehen dann nach dem Entfernen der betroffenen Ecke 4 bzw. Kante 5 durch die Verbindung der verbleibenden Ecken 4.
  • Die 2f zeigt, wie nach dem bekannten Verfahren A die Möglichkeit besteht, aus den zu einem Objekt 3 gehörenden Rohzielen 10 eine Objektform bzw. eine Objektformhypothese zu erstellen.
  • Nach dem erfindungsgemäßen Simulationsverfahren B nimmt die Objektformbestimmung Vereinfachungen an dem bereits modifizierten Polygon vor, um damit die reale Formapproximation einiger Sensoren nachzubilden.
  • Für Sensoren, die keine Objektform bestimmen, sondern lediglich ein Punktobjekt erzeugen, wird das Polygon entfernt. Somit bleibt ein Referenzpunkt 14 bestehen, der dann das betreffende Objekt 3 alleinig repräsentiert.
  • Andere Sensoren sind in der Lage, eine Breite des Objekts 3 zu bestimmen. Dabei wird eine Gerade zwischen den Ecken 4, die am weitesten links und am weitesten rechts innerhalb eines Objekts 3 sich befinden, gelegt. Das Polygon besteht dann nur noch aus diesen beiden Ecken 4 und einer Kante 5, deren Länge der Breite des Objekts 3 entspricht.
  • Eine Möglichkeit ist die Verwendung eines achsenparallelen Rechtecks. Dafür müssen aus der Menge der Ecken 4 des Polygons jeweils die maximalen und minimalen x- und y-Werte bestimmt werden, aus denen sich anschließend die Lage des Rechtecks ermitteln lässt. Ein Nachteil dieses Ansatzes liegt darin, dass die Rechteckform nur dann gut anpassbar ist, sofern die Kanten des Rechtecks parallel zu den Koordinatenachsen liegen.
  • Bessere Ergebnisse lassen sich mit einem optimal ausgerichteten Rechteck erzielen. Dies kann beispielsweise mittels eines Optimierungsverfahrens erfolgen, bei welchem der Flächeninhalt des Rechtecks minimiert wird.
  • Da das Polygon, welches in der Sensorsimulation ein Objekt 3 beschreibt, selbst schon eine Approximation der Form des Objekts 3 darstellt, ist es ebenso möglich, diese Form unverändert zu übernehmen.
  • Der Referenzpunkt 14 eines Objekts 3 kann für die Ermittlung eines geometrischen Schwerpunktes des Polygons bestimmt werden. Der Schwerpunkt ist der Punkt, an dem, wenn das Objekt 3 an diesem Punkt aufgehängt werden würde und aus einem homogenen Material besteht, das Objekt 3 ausbalanciert wäre.
  • Eine weitere Variante für die Ermittlung des Referenzpunktes 14 ist die Verwendung eines Punktes eines Zielobjektes, der der Sensorposition am nächsten liegt. Radarsensoren zeigen meist dieses Verhalten, da sie das Reflexionszentrum als Referenzpunkt 14 interpretieren. Da alle Objekte 3 als Polygon vorliegen, gibt es zwei Möglichkeiten, an welcher Stelle sich dieser Punkt befindet. Entweder kommt eine Ecke 4 oder eine Kante 5 des Polygons in Frage.
  • Für die Bestimmung eines Punktes eines Polygons mit dem kürzesten Abstand zu dem Ursprung des synthetischen Sensors 6 werden sämtliche Distanzen zu den Ecken 4 und den Kanten 5 wie folgt bestimmt:
    • a) Bestimmung aller Geraden, die durch die Kanten 5 verlaufen
    • b) Ermittlung der Lotfußpunkte vom Ursprung des synthetischen Sensors 6 auf der Geraden
    • c) Berechnung der Abstände vom Ursprung zu allen Lotfußpunkten, die auf einer Kante 5 liegen, und zu allen Ecken 4 des Polygons
    • d) Der Punkt ist dann der Punkt mit dem kürzesten Abstand
  • 1
    synthetische Umgebung
    2
    Fahrzeugobjekt
    3
    Objekt
    4
    Ecke
    5
    Kante
    6
    synthetischer Sensor
    7
    Sichtbereich
    8
    Sichtbereichshülle
    9
    Sensorstrahl
    10
    Rohziel
    11
    Störsignal
    12
    Cluster
    13
    minimaler Abstand
    14
    Referenzpunkt
    A
    bekanntes Verfahren
    B
    erfindungsgemäßes Simulationsverfahren
    K
    Koordinatensystem
    x
    Achse
    y
    Achse
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 10047082 A1 [0003]

Claims (11)

  1. Simulationsverfahren zur synthetischen Generierung von Sensordaten eines Sensors, – wobei der Sensor mindestens eine Eigenschaft aufweist, und – wobei eine synthetische Umgebung (1) parametrisierbare Objekte (3) aufweist, und – wobei jedes Objekt (3) mittels eines Polygons und eines Referenzpunkts (14) repräsentiert wird, und – wobei die Parameter der Polygone und die Referenzpunkte der Objekte (3) für die Eigenschaft modifiziert werden, und – wobei die Sensordaten mittels der die parametermodifizierten Polygone umfassenden synthetischen Umgebung (1) generiert werden.
  2. Simulationsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass jedes Polygon mindestens drei Ecken (4) umfasst, die mittels Kanten (5) miteinander verbindbar sind, und mindestens einer Ecke (4) des Polygons statische und dynamische Parameter des entsprechenden Objekts (3) zuordenbar sind.
  3. Simulationsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass ein statischer Parameter eine Form des Objekts (3), einen Typ des Objekts (3) und/oder eine Reflektivität des Objekts (3) bildet.
  4. Simulationsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass ein dynamischer Parameter den Bewegungszustand des Objekts (3) beschreibt, wobei ein dynamischer Parameter eine Position, eine Geschwindigkeit, eine Beschleunigung, einen Winkel, einen Gierradius, eine Gierbeschleunigung und/oder eine Gierrate des Objektes (3) bildet.
  5. Simulationsverfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die synthetische Umgebung (1) mindestens ein Objekt (3) umfasst, an dem mindestens ein synthetischer Sensor (6) angeordnet ist, wobei in der synthetischen Umgebung (1) der synthetische Sensor (6) den Sensor repräsentiert.
  6. Simulationsverfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Sensor ein Eigensensor ist.
  7. Simulationsverfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Sensor ein Umfeldsensor ist.
  8. Simulationsverfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Parameter der Polygone gleichzeitig oder nacheinander für mindestens zwei Eigenschaften modifiziert werden können, und die Sensordaten mittels dieser parametermodifizierten Polygone umfassenden synthetischen Umgebung (1) generiert werden.
  9. Simulationsverfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels der generierten Sensordaten Algorithmen zur Situationsanalyse eines Fahrerassistenzsystems getestet werden.
  10. Simulationsverfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Sensorausgabe die Sensordaten und die Daten der synthetischen Umgebung (1) umfasst, wobei eine Sensorgüte anhand eines Vergleichs der Sensordaten und der Daten der synthetischen Umgebung (1) ermittelt wird.
  11. Simulationsverfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Sensorgüte anhand eines Vergleichs der Daten der synthetischen Umgebung (1) vor der Modifizierung mit den Sensordaten ermittelt wird.
DE102008055932A 2008-11-05 2008-11-05 Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors Ceased DE102008055932A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008055932A DE102008055932A1 (de) 2008-11-05 2008-11-05 Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008055932A DE102008055932A1 (de) 2008-11-05 2008-11-05 Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors

Publications (1)

Publication Number Publication Date
DE102008055932A1 true DE102008055932A1 (de) 2010-05-06

Family

ID=42063081

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008055932A Ceased DE102008055932A1 (de) 2008-11-05 2008-11-05 Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors

Country Status (1)

Country Link
DE (1) DE102008055932A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013226530A1 (de) * 2013-12-18 2015-06-18 Continental Teves Ag & Co. Ohg Verfahren zur Klassifikation einer empfangenen Fahrzeug-zu-X-Botschaft
DE102016006381B3 (de) * 2016-05-24 2017-10-26 Audi Ag Verfahren zum Betreiben einer Verarbeitungseinrichtung für Sensordaten eines in einem Kraftfahrzeug angeordneten Sensors und Kraftfahrzeug
JP2021507247A (ja) * 2017-12-21 2021-02-22 アーファオエル・リスト・ゲーエムベーハー 設備の自動化システムを分析するための方法、設備の自動化システムを少なくとも部分的にバーチャル運転するためのエミュレータおよび設備の自動化システムを分析するためのシステム
EP3968298A1 (de) 2020-09-10 2022-03-16 PKE Holding AG Modellierung einer situation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10047082A1 (de) 1999-10-07 2001-05-17 Volkswagen Ag Simulationssystem für ein Distanzregelungssystem

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10047082A1 (de) 1999-10-07 2001-05-17 Volkswagen Ag Simulationssystem für ein Distanzregelungssystem

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013226530A1 (de) * 2013-12-18 2015-06-18 Continental Teves Ag & Co. Ohg Verfahren zur Klassifikation einer empfangenen Fahrzeug-zu-X-Botschaft
US9911333B2 (en) 2013-12-18 2018-03-06 Continental Teves Ag & Co. Ohg Method for classifying a received vehicle-to-X message
DE102016006381B3 (de) * 2016-05-24 2017-10-26 Audi Ag Verfahren zum Betreiben einer Verarbeitungseinrichtung für Sensordaten eines in einem Kraftfahrzeug angeordneten Sensors und Kraftfahrzeug
JP2021507247A (ja) * 2017-12-21 2021-02-22 アーファオエル・リスト・ゲーエムベーハー 設備の自動化システムを分析するための方法、設備の自動化システムを少なくとも部分的にバーチャル運転するためのエミュレータおよび設備の自動化システムを分析するためのシステム
EP3968298A1 (de) 2020-09-10 2022-03-16 PKE Holding AG Modellierung einer situation

Similar Documents

Publication Publication Date Title
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
EP2043045B1 (de) Verfahren zur Objektverfolgung
EP0541567B1 (de) Verfahren zur analyse zeitlicher folgen digitaler bilder
WO2018069405A1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
EP3017319B1 (de) Verfahren zur bestimmung von trajektorien beweglicher physischer objekte in einem raum, auf der basis von sensordaten mehrerer sensoren
EP2005361A1 (de) Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
DE102013104443A1 (de) Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
DE102014208009A1 (de) Erfassen von statischen und dynamischen Objekten
WO2014183948A2 (de) Sensorprodukt, simulator und verfahren zur simulation von sensormessungen, zur fusion von sensormessungen, zur validierung eines sensormodells und zum entwurf eines fahrerassistenzsystems
DE102016225595A1 (de) Verfahren und Anordnung zur Kalibrierung mindestens eines Sensors eines Schienenfahrzeugs
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102021002798A1 (de) Verfahren zur kamerabasierten Umgebungserfassung
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102019117559A1 (de) Verfahren und System zum Fusionieren von zweidimensionalen semantischen Informationen aus Bildern mit einer dreidimensionalen Punktwolke
WO2022247994A1 (de) System zur sensordatenfusion für die umgebungswahrnehmung
DE102008055932A1 (de) Verfahren zur modellbasierten Simulation eines Verhaltens eines Sensors
DE102019130096A1 (de) Verfahren zur Ermittlung einer Radarinformation, Simulationsverfahren, Klassifizierungsverfahren, Computerprogramm und Berechnungssystem
WO2019162317A1 (de) Verfahren zur erzeugung von sensordaten für sicherheitskritische automobil-steuergeräte
DE102018222800A1 (de) Ortung und/oder Klassifikation von Objekten aus Radardaten mit verbesserter Verlässlichkeit bei unterschiedlichen Entfernungen
DE102013008828A1 (de) Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs sowie entsprechend ausgestaltetes Fahrerassistenzsystem
WO2021170321A1 (de) Verfahren zum detektieren bewegter objekte in einer fahrzeugumgebung und kraftfahrzeug
DE102011082881A1 (de) Darstellung der Umgebung eines Kraftfahrzeugs in einer bestimmten Ansicht unter Verwendung räumlicher Information
WO2012006983A2 (de) Vorrichtung zur darstellung von gelände auf einer anzeigevorrichtung eines flugkörpers
DE102009028742A1 (de) Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
WO2023083620A1 (de) Prüfung der umfeldsensorik und/oder umfeldperzeption eines fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20140725

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final