-
Technisches Gebiet
-
Die
Erfindung betrifft ein Simulationsverfahren zur Generierung von
Sensordaten.
-
Stand der Technik
-
Um
den Aufwand der Entwicklung für Fahrerassistenzsysteme,
insbesondere Umfeldsensoriksysteme, zu verringern, kann das Verhalten
der Sensoren (d. h. deren interne Datenverarbeitung) modellbasiert
simuliert werden.
-
Aus
der
DE 100 47 082
A1 ist ein Simulationssystem für die Entwicklung
eines automatischen Distanzregelungssystems bekannt, wobei das Distanzregelungssystem
zur Längsregelung eine Sensorik zur vorausschauenden Beobachtung
des Verkehrs und eine Aktuatorik zum Reagieren auf die Informationen
der Sensorik mit Verzögerungs- und/oder Beschleunigungsvorgängen
aufweist.
-
Das
Simulationssystem ist zur Durchführung einer Hardware-In-The-Loop-Simulation
ausgebildet, wobei das Simulationssystem einen Softwareschalter
zum Ausschalten des Modells für die Längsregelung
zwecks Aktivierung realer Hardware aufweist.
-
Das
Simulationssystem weist eine die Umgebungsparameter umfassende Rechnereinheit, eine
die Fahrzeugparameter umfassende Rechnereinheit und eine die Hardware-Komponenten
umfassende Rechnereinheit auf.
-
Auf
der die Hardware-Komponenten umfassenden Rechnereinheit wird das
Fahrzeugmodell simuliert, und diese Rechnereinheit ist zur Verknüpfung
der Längsregelung mit dem Fahrzeugmodell ausgebildet.
-
Das
Simulationssystem überprüft beliebig oft reproduzierbare
Situationen mit unterschiedlichen Softwareversionen und Parametern.
-
Der
konfigurierbare automatische Distanzregelungssensor wird auf der
die Umgebungsparameter umfassenden Rechnereinheit simuliert. Es
können dabei Laser- und Radarsensoren mit verschiedenster
Performance simuliert werden. Das bedeutet, es können die
Art des Sensors, die Reichweite, die Anzahl der Strahlen, die Zyklenzeit,
die Anzahl der zu berücksichtigenden Ziele, verschiedene
Reflektionsmodelle oder andere Parameter eingestellt werden. Es
werden dann die ermittelten Sensorrohdaten in einer sog. Tracking-Software
in eine Objektliste verwandelt, die anschließend an die
Längsregelung per CAN weitergeleitet wird.
-
In
einem Softwarewerkzeug können synthetische Verkehrsszenarien,
beispielsweise als zweidimensionales Modell aus der Vogelperspektive,
vorgegeben werden. Innerhalb dieser Szenarien befinden sich Objekte,
die beliebige Verkehrsteilnehmer, beispielsweise Kraftfahrzeuge
und Fußgänger, repräsentieren können.
Diese Objekte können über eine Vielzahl von Parametern,
beispielsweise Geschwindigkeit, Beschleunigung oder Kurvenradius,
in einen Bewegungszustand versetzt werden.
-
Eine
Aufgabe der Sensorsimulation kann darin bestehen, Fahrzeuge mit
Umfeldsensoren auszustatten, die dann die Zielobjekte innerhalb
der Szene vergleichbar mit einem realen Sensor wahrnehmen. Dies
bedeutet, dass die Daten, die der synthetische Sensor in der Simulation
zurückgibt, dieselbe Güte, wie die Daten des realen
Sensors aufweisen. Die Güte der Daten wird einerseits durch
die Art der Messung des Umfelds und der daraus resultierenden Messfehler
und andererseits durch die Datenverarbeitung innerhalb des Sensors
beeinflusst. Diese beiden Aspekte müssen bei einer Sensorsimulation
berücksichtigt werden.
-
Ein
bekannter Ansatz zur Sensorsimulation empfindet die Verarbeitung
der Sensordaten der tatsächlichen Verarbeitung innerhalb
realer Sensoren nach. Die Grundidee dieses Verfahrens ist, dass
vom Sensorursprung Strahlen in radialer Richtung mit einer sensorspezifischen
lateralen Auflösung ausgehen. Diese Gerade bildet Schnittpunkte
mit den Objekten, die sich innerhalb des Sichtbereichs befinden. Diese
Punkte entsprechen den Rohzielen, die ein realer Sensor von seiner
Umwelt wahrnehmen würde. Die Rohziele sind Messpunkte,
die der Sensor von seiner Umgebung erfasst und bei denen noch keine weitere
Verarbeitung stattgefunden hat.
-
Basierend
auf den Rohzielen können verschiedene Fehlerarten des Sensors
simuliert werden. Um eine Verdeckung zu realisieren, genügt
es, nur die Schnittpunkte, die dem Ursprung, d. h. dem Sensor, am
nächsten liegen, zu berücksichtigen. Diesen zu
berücksichtigenden Rohzielen kann anschließend
ein Fehler aufgeprägt werden, um Messungenauigkeiten nachzubilden.
Beispielsweise kann dies unter Verwendung eines normalverteilten
Rauschens realisiert werden. Anschließend können
einige dieser Punkte mit einer bestimmten Wahrscheinlichkeit entfernt
werden, um eine Detektionswahrscheinlichkeit zu simulieren. Die
weitere Verarbeitung (der Messwerte black box nicht geeignet) entspricht
genau dem, wie sie innerhalb der Sensoren stattfindet.
-
Von
nahe beieinander liegenden Rohzielen können durch Bildung
von Clustern Objekte extrahiert werden. Aus den zu einem Objekt
gehörenden Punktwolken besteht die Möglichkeit,
die Objektform bzw. eine Objekthypothese zu erstellen. Ausgehend von
der Objektform lässt sich abschließend die Position
des Referenzpunktes – d. h. der geometrische Ort, auf den
sich alle dynamischen Eigenschaften, beispielsweise Geschwindigkeit,
Beschleunigung oder Kurvenradius, des Objekts beziehen – innerhalb des
Objekts bestimmen.
-
Ein
Nachteil dieses Ansatzes ist, dass ausgehend von der Rohzielerzeugung
und der weiteren Verarbeitung (Simulation einer Verdeckung) viele
Informationen verloren gehen, die in den darauffolgenden Simulationsschritten
(Simulation von Messungenauigkeiten, Bildung von Clustern, Objektform-
und Referenzpunktbestimmung) aufwendig rekonstruiert werden müssen.
-
Die
Ursachen dieses Informationsverlustes beruhen einerseits auf der
Unterabtastung der Objekte durch den Sensor und andererseits auf
dem Verlust der Objektzugehörigkeit, welcher in den Fällen
auftritt, in denen das Objekt sehr feingliedrig ist und dessen Details
erhalten bleiben sollen.
-
Eine
Unterabtastung beruht auf der Tatsache, dass sämtliche
Umfeldsensoren eine spezifische Ortsauflösung besitzen,
mit der sie ihre Umgebung abtasten. Nach dem Nyquist-Shannonsche
Abtasttheorem können damit nur Ortsfrequenzen erfasst werden,
die kleiner als die halbe Abtastfrequenz sind. Somit gehen Informationen
verloren, die zwischen den ermittelten Rohzielen liegen. Beispielsweise
kann ein länglicher Gegenstand, der aus einem Fahrzeug
herausragt, von einem Sensor mit geringer Abtastfrequenz nicht erfasst
werden.
-
Die
Funktionsweise, beispielsweise die verwendeten Algorithmen, des
realen Sensors muss nachempfunden werden. Diese ist im Allgemeinen nicht
bekannt und meistens sehr aufwendig und komplex. Weiterhin kann
bei verschiedenen Sensoren und Sensortypen die Realisierung sehr
unterschiedlich sein. Außerdem kommen zur Wiedergewinnung der
fehlenden Informationen Heuristiken zum Einsatz, welche ebenfalls
unbekannt sind. Die Sensorsimulation müsste aus diesem
Grunde jeweils neu entwickelt werden.
-
Mittels
des bekannten Verfahrens können Car-to-Car-Communication-Sensoren
nur sehr schwer modelliert werden, da hierbei keine Abtaststrahlen
zum Einsatz kommen. Dieser Informationsverlust ist so erheblich,
dass das eigentliche Verhalten des Sensors nicht nachgebildet werden
kann.
-
Ein
weiterer Nachteil besteht darin, dass eine beliebige Sensorgüte
nicht erreichbar ist. Selbst wenn alle vorhandenen Parameter auf
einen Wert eingestellt werden, welcher die bestmöglichen
Resultate liefert, kann aufgrund des Informationsverlustes und der
verwendeten Algorithmen zur Wiedergewinnung dieser Informationen
der Ausgangszustand nicht wiederhergestellt werden. Daraus folgt,
dass keine synthetischen Sensoren erstellt werden können,
deren Güte zwischen der bestmöglichen Konfiguration
und eines Sensors, welcher seine Umgebung vollständig erfasst,
liegt.
-
Aufgabe der Erfindung
-
Der
Erfindung liegt die Bereitstellung eines Simulationsverfahrens zur
Generierung von Sensordaten eines Sensors mit beliebig realisierbaren
Sensorgüten zugrunde.
-
Lösung der Aufgabe
-
Die
Aufgabe wird durch ein Simulationsverfahren gemäß Anspruch
1 gelöst.
-
Vorteile der Erfindung
-
Mittels
des erfindungsgemäßen Simulationsverfahrens nimmt
der Sensor eine virtuelle Umgebung (synthetische Szene) in der Form
wahr, wie sie definiert wurde. Somit sind dem Sensor alle statischen
und dynamischen Parameter der in der virtuellen Umgebung befindlichen
Objekte bekannt.
-
Die
Repräsentation der Objekte erfolgt mittels Polygonen, die
einerseits sämtliche relevante Informationen zu den Objekten
enthalten und andererseits sich Eigenschaften der Sensoren auf diese
Polygone anwenden lassen.
-
Mittels
der Polygone können beliebige Formen approximiert werden
und sie lassen sich mit relativ einfachen geometrischen Methoden,
beispielsweise geometrische Transformation, Rotation und Translation,
bearbeiten bzw. modifizieren.
-
Mittels
des erfindungsgemäßen Verfahrens werden Eigenschaften
des Sensors, welche auch als Sensorfehler aufgefasst werden können,
dadurch simuliert, dass die virtuelle Umgebung für diese
Eigenschaft modifiziert wird. Die Modifikation erfolgt anhand der
Parameter der Polygone und der Referenzpunkte der Objekte.
-
Unabhängig
von der zugrundeliegenden Sensortechnologie kann allein durch eine
Beschreibung der Sensoreigenschaften/Sensorfehler ein bestimmter
realer oder im Entwicklungsstadium befindlicher Sensor parametrisiert
werden.
-
Mittels
des erfindungsgemäßen Simulationsverfahrens können
Sensoren beschrieben werden und somit Sensordaten von Sensoren generiert
werden, die keinem realen Sensor entsprechen. Es können
somit Anwendungsfälle zur Sensorsimulation erfüllt
werden, wobei eine Sensorgüte der zu simulierenden Sensoren
von bisher realen Sensoren nicht erreichbar ist. Dies bietet den
Vorteil, dass nicht sämtliche Eigenschaften des Sensors
zur Sensordatengenerierung bekannt sein müssen.
-
Die
Eigenschaften werden durch eine Modifikation der Parameter der Polygone
erzeugt, so dass die virtuelle Umgebung und die in ihr befindlichen
Objekte entsprechend der Eigenschaft verändert werden.
Die Sensordaten, d. h. die von einem Sensor ausgegebenen Daten,
werden mittels der modifizierten virtuellen Umgebung generiert.
Die Sensordaten entsprechen seiner Wahrnehmung.
-
Jedes
Objekt wird durch ein Polygon, welches Ecken und Kanten umfasst,
in der virtuellen Umgebung repräsentiert. Die Ecken und
Kanten der Polygone stellen eine Abstraktion der Rohziele dar, die
von einem realen Sensor erfasst werden.
-
In
einer weiteren vorteilhaften Ausführungsform der Erfindung
werden den Ecken eines Polygons die statischen und dynamischen Parameter
des entsprechenden Objekts zugeordnet. Die dynamischen Parameter
enthalten den Bewegungszustand des Objekts, so dass die Ecken dynamische
Punkte innerhalb der virtuellen Umgebung darstellen. Die Eigenschaften
operieren direkt auf dem Polygon und verändern dabei die
Lage bzw. die Anzahl der Ecken.
-
In
einer weiteren vorteilhaften Ausführungsform der Erfindung
bilden die Form, der Typ und/oder die Reflektivität des
Objekts einen statischen Parameter.
-
Die
Objekte können jeweils eine unterschiedliche Reflektivität
aufweisen. Diese kann von der Beschaffenheit der Objektoberfläche
in Kombination mit der verwendeten Sensortechnologie abhängen.
Bei aktiven Sensoren wird beim Auftreffen eines Sensorstrahls auf
eine Oberfläche dieser zu unterschiedlichen Anteilen reflektiert,
absorbiert und diffus getrennt. Die Anteile korrelieren mit dem
Reflexionswinkel und den Eigenschaften der Oberfläche.
Beispielsweise werden Laserstrahlen von optisch rauen Oberflächen,
beispielsweise ein stark verschmutztes Fahrzeug, schlecht reflektiert.
Dagegen werden bei retroreflektierenden Materialien, beispielsweise Rückstrahler,
ein großer Energieanteil wieder zu dem Lasersensor zurückgeworfen
wird.
-
In
einer vorteilhaften Ausführungsform bilden die Position,
die Geschwindigkeit, die Beschleunigung, der Winkel, der Gierradius,
die Gierbeschleunigung und/oder die Gierrate einen dynamischen Parameter.
-
In
einer weiteren vorteilhaften Ausführungsform ist in der
virtuellen Umgebung mindestens ein Fahrzeugobjekt, welches mindestens
einen virtuellen Sensor umfasst, angeordnet. In der virtuellen Umgebung
repräsentiert der virtuelle Sensor den zu simulierenden
Sensor.
-
Vorteilhafterweise
werden in der virtuellen Umgebung die dynamischen Parameter relativ
zur Position des virtuellen Sensors angegeben.
-
Vorteilhafterweise
umfasst die virtuelle Umgebung ein Koordinatensystem, so dass der
virtuelle Sensor, das Fahrzeugobjekt und sämtliche Objekte bezüglich
deren räumlicher Lage in diesem Koordinatensystem referenzierbar
sind. Weiterhin besteht die Möglichkeit, dass anhand der
jeweiligen Koordinaten der relative Abstand eines Objekts zu dem
virtuellen Sensor, bzw. zu dessen Sensorursprung, ermittelt werden
kann.
-
Die
virtuelle Umgebung kann gleichzeitig oder nacheinander für
unterschiedliche Eigenschaften modifiziert werden. Basierend auf
diesen modifizierten Daten der virtuellen Umgebung werden die Sensordaten
mittels dieser parametermodifizierten Polygone umfassenden virtuellen
Umgebung generiert.
-
Zum
Testen einer Sensoreigenschaft, beispielsweise Störsignale
oder Objekttrennfähigkeit, werden die statischen und/oder
dynamischen Parameter der als Polygone repräsentierten
Objekte modifiziert. Durch eine solche Modifikation kann es vorkommen,
dass hierdurch Polygonsegmente entstehen, d. h. von einer Ecke gehen
nicht unbedingt zwei Kanten weg.
-
So
kann beispielsweise zum Testen einer Messfehlerempfindlichkeit,
die durch die Störsignale hervorgerufen wird, die räumliche
Lage der Polygone oder einzelner Polygonsegmente verändert
werden.
-
Ein
Vorteil dieses Ansatzes besteht darin, dass die internen Parameter
und somit die interne Datenverarbeitung des Sensors nicht bekannt
sein müssen. Mittels Messungen können die zu testenden Sensoreigenschaften
ermittelt werden.
-
Mittels
des erfindungsgemäßen Verfahrens können
Sensoren beschrieben werden, die nicht als realer Sensor vorliegen.
Ausgehend von einem idealen Sensor, der seine Umgebung vollständig
und unverfälscht wahrnimmt, kann eine beliebige Sensorgüte
erreicht werden, welche für zukünftige Sensorgenerationen
relevant werden könnte, um einen bestimmten Anwendungsfall
zu erfüllen.
-
Einzelne
Aspekte der generierten Eigenschaften können außer
Acht gelassen werden, falls sie auf einen bestimmten Sensor nicht
zutreffen oder nicht betrachtet werden sollen.
-
Obwohl
das erfindungsgemäße Verfahren nicht die interne
Datenverarbeitung von realen Sensoren exakt nachbildet, bietet es
dennoch Vorteile gegenüber dem bekannten Verfahren. Bei
dem erfindungsgemäßen Verfahren tritt kein Informationsverlust
auf, der anschließend wieder aufwändig wiederhergestellt
werden müsste.
-
Weiterhin
besteht keine Notwendigkeit, die sensorspezifischen Algorithmen
zu kennen. Die Auswirkungen der einstellbaren Parameter sind in
den Simulationsergebnissen direkt ersichtlich, so dass mittels eines
geringen Implementierungsaufwands eine Abdeckung eines größeren
Anwendungsspektrums möglich ist.
-
Sämtliche
Umfeldsensoren weisen Eigenschaften auf, die unabhängig
von der zugrunde liegenden Technologie sind und bei verschiedenen Sensoren
unterschiedlich ausgeprägt sein können.
-
Das
erfindungsgemäße Verfahren kann zudem für
sog. Car-to-Car-Communication-Sensoren eingesetzt werden. Bei Car-to-Car-Communication-Sensoren
sind alle beteiligten Fahrzeuge mit einer Funktechnologie ausgestattet.
Die Fahrzeuge sind in der Lage, ihre eigenen dynamischen Zustände,
die sie durch ihre Eigensensorik ermitteln, zu senden. Ein Sensorfahrzeug
empfängt diese Daten und kann damit ein Umfeldmodell erstellen.
-
Über
die dynamischen Zustände hinaus ist es möglich,
dass auch weitere verfügbare Informationen zwischen den
Fahrzeugen ausgetauscht werden können. So können
beispielsweise die Abmessungen der Fahrzeuge übertragen
werden, um eine genaue Aussage über die entsprechende Objektform treffen
zu können.
-
Ein
Car-to-Car-Communication-Sensor kann als idealer Sensor gesehen
werden, jedoch mit den Einschränkungen einer begrenzten
Reichweite, durch die Eigensensorik hervorgerufene Messfehler sowie
Funkaussetzer.
-
Mittels
des erfindungsgemäßen Verfahrens können
mittels eines geringen Aufwands, ausgehend von einem idealen Sensor,
die relevanten Fehler (zu testende Eigenschaften) in der virtuellen
Umgebung angewendet werden.
-
Einige
dieser Eigenschaften werden nachfolgend beschrieben.
-
Sichtbereich
-
Die
Umfeldsensoren nehmen nur einen Ausschnitt ihrer Umgebung wahr.
Dieser Ausschnitt bildet den Sichtbereich.
-
Die
beiden wichtigsten Größen sind die maximale Reichweite
und der Öffnungswinkel, welcher bauartbedingt ist. Diese
beiden Parameter beschreiben einen Kreissektor, der die Form des
Sichtbereichs bestimmt. Dies ist beispielsweise bei Laserscannern
und Kameras der Fall.
-
Weiterhin
kann der Sichtbereich eine spezifische Form besitzen, welche durch
die Strahlausbreitung bestimmt ist. Radarsensoren besitzen einen Sichtbereich
mit einer typischen Keulenform.
-
Der
Sichtbereich besteht aus einer geschlossenen Form und wird von einer
Sichtbereichshülle umgeben. Alle Objekte, die sich außerhalb
der Sichtbereichshülle befinden, werden entfernt. Wenn
sich ein Objekt teilweise innerhalb und teilweise außerhalb
des Sichtbereichs befindet, wird das Objekt an der Sichtbereichshülle
getrennt und der sich außerhalb des Sichtbereichs befindliche
Teil des Objekts wird entfernt. Bei dem sich innerhalb des Sichtbereichs
befindlichen Teil bilden die Schnittpunkte der Polygonkanten mit
der Sichtbereichshülle die neuen Polygonecken, die mittels
neuer Ecken verbunden werden, so dass ein neues Polygon aus den
neuen Ecken und den bereits im Sichtbereich befindlichen Ecken gebildet
wird.
-
Sichtbereichsverteilung
-
Die
Parameter der Sensoreigenschaften können abhängig
von der Position innerhalb des Sichtbereiches verschiedene Werte
aufweisen.
-
Beispielsweise folgende Parameter:
-
- • Wahrscheinlichkeitswert der Detektionswahrscheinlichkeit
- • Verdeckungswahrscheinlichkeit der Verdeckung
- • Parameter der Störsignale
- • Standardabweichung für das Rauschen
- • Wert eines „Offsets”
- • Frequenz und Amplitude von (Sinus-)Schwingungen
- • Schwellwert für Abstand zweier Objekte,
die getrennt wahrgenommen werden können
-
Verdeckung
-
Die
Sensoren sehen ihre Umwelt aus einer Richtung. Objekte, die sich
von der Sensorposition aus gesehen hinter anderen Objekten befinden,
werden nicht wahrgenommen. Diese Objekte befinden sich im Sichtschatten.
Grundsätzlich lassen sich zwei Arten von Verdeckungen unterscheiden:
Eigenverdeckung und Fremdverdeckung. Bei der Fremdverdeckung werden
Objekte von anderen Objekten verdeckt. Die Eigenverdeckung entsteht
dadurch, dass der Sensor von seiner Position aus nur eine Seite
der Objekte sieht. Die Rückseite ist durch das Objekt selbst
verdeckt.
-
Die
Verdeckung muss bei den Sensoren nicht absolut sein. So ist es bei
Radarsensoren möglich, dass sie unter Fahrzeugen hindurchsehen
können und somit vorausfahrende Fahrzeuge erfassen können.
Auch Kameras können durch ihren großen Öffnungswinkel
große Objekte, die sich hinter kleineren befinden, erkennen.
-
Kanten,
die sich auf der Rückseite der Objekte (vom Sensor aus
gesehen) befinden, werden von den betreffenden Objekten entfernt.
Ebenso werden die Objekte entfernt, die sich im Sichtschatten anderer
Objekte befinden.
-
Bei
einer Teilverdeckung müssen nur die Polygonsegmente entfernt
werden, die sich im Sichtschatten befinden, so dass die anderen
Teile erhalten bleiben.
-
Die
Fähigkeit von einigen Sensoren, auch verdeckte Objekte
wahrnehmen zu können, kann mit einer Wahrscheinlichkeitsverteilung über
den Sichtbereich dargestellt werden, wobei bei dieser Wahrscheinlichkeitsverteilung
nur die verdeckten Objekte berücksichtigt werden.
-
Detektionswahrscheinlichkeit
-
Objekte,
die sich innerhalb des Sichtbereichs befinden, werden nicht in jedem
Fall von dem Sensor wahrgenommen, sondern mit einer bestimmten Wahrscheinlichkeit,
die von der Objektposition abhängt.
-
So
werden meist in den Randbereichen des Sichtbereichs befindliche
Objekte mit einer geringeren Wahrscheinlichkeit im Vergleich zu
den im Inneren des Sichtbereichs befindlichen Objekten wahrgenommen.
-
Weiterhin
besteht die Möglichkeit, dass einige Sensoren in der Mitte
des Sichtbereichs Gebiete aufweisen, in denen die Detektionswahrscheinlichkeit
sehr gering ist. Die Ursachen sind einerseits technologiebedingt
oder werden andererseits durch äußere Umwelteinflüsse
bestimmt.
-
Bei
dem erfindungsgemäßen Verfahren kann zum Testen
des Sensors den Sensoren eine Detektionswahrscheinlichkeit zugeordnet
werden. Die Detektionswahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit
ein Objekt in dem Sichtbereich von dem virtuellen Sensor erkannt
wird. Die Wirkung der Detektionswahrscheinlichkeit richtet sich
auf die Ecken des Objekts. Es werden demnach die Ecken der Objekte
mit der angegebenen Wahrscheinlichkeit entfernt, so dass die Objekte,
wie bereits zuvor beschrieben, ihre Form dabei verändern
können oder auch vollständig verschwinden.
-
Die
Wahrscheinlichkeit, die für den virtuellen Sensor spezifiziert
wurde, kann allerdings nicht für das Löschen der
Ecken verwendet werden, da sie für das Objekt als Ganzes
gilt. Andernfalls würde ein Objekt mit weniger Ecken im
Vergleich zu einem Objekt mit einer größeren Anzahl
an Ecken eher entfernt werden. Daher muss ausgehend von der Objektwahrscheinlichkeit
eine Wahrscheinlichkeit für eine einzelne Ecke abgeleitet
werden.
-
Unterabtastung
-
Erfindungsgemäß kann
die Eigenschaft einer Unterabtastung mittels Sensorstrahlen realisiert werden.
Dabei gehen radiale Geraden vom Sensorursprung aus, die einen bestimmten
Winkelabstand voneinander aufweisen. Mit diesen Geraden werden anschließend
die Schnittpunkte mit den Kanten der Polygone erzeugt, welche dann
die neuen Ecken darstellen. Die Kanten des neuen Polygons werden
ermittelt, indem die ursprünglichen Ecken, die zwischen
zwei Schnittpunkten liegen, nacheinander entfernt werden und die
Kante in jedem Schritt zwischen den nun benachbarten Ecken solange
gezogen wird, bis nur noch die beiden Schnittpunkte mit der endgültigen
Kante übrig sind. Durch die Löschung der Ecken
wird erreicht, dass die Details des Objekts entsprechend der vorliegenden
Sensorauflösung reduziert werden.
-
Auch
wenn erfindungsgemäß Sensorstrahlen verwendet
werden, haben diese jedoch nichts mit den Sensorstrahlen des bekannten
Verfahrens gemeinsam. Erfindungsgemäß wird bei
der Unterabtastung die Objektzugehörigkeit beibehalten
und neue Ecken der Polygone erzeugt.
-
Messfehler/Störsignale
-
Sensoren,
die in Fahrzeugen zum Einsatz kommen, können als Messgeräte
aufgefasst werden, die in erster Linie Entfernungen messen. Ebenso
wie bei Messgeräten können Sensoren keine exakten und
fehlerfreien Messungen durchführen. Dies bedeutet, es liegt
immer eine Messabweichung zwischen dem ermittelten und dem wahren
Wert vor. Die Ursachen der Messfehler können unterschiedlicher Natur
sein. In Frage kommen beispielsweise Messgerätefehler,
die messverfahrensbedingten Fehler und Umwelteinflüsse.
Weiterhin kann zwischen zwei Arten von Messabweichungen unterschieden
werden. Diese sind zum einen die systematischen Messfehler und zum
anderen die zufälligen Messfehler. Unter systematischen
Messfehlern sind konstante Abweichungen in eine Richtung zu verstehen.
Sog. Drifts, eine lineare Änderung eines Werts über
der Zeit, werden ebenso zu den systematischen Messfehlern gezählt.
Die Ursache ist hierbei meist in den Messgeräten zu finden
und wird auf deren ungenaue Kalibrierung zurückgeführt.
-
Zufällige
Messfehler können als eine Streuung der Messwerte um den
wahren Wert aufgefasst werden. Diese äußern sich
meist als Rauschen, welches in den Eigenschaften der Signalverarbeitung
in den elektronischen Bauteilen begründet ist.
-
Alle
Einflüsse, die im zeitlichen Verlauf die dynamischen Eigenschaften
eines Objekts verändern, werden erfindungsgemäß als
Störsignale betrachtet.
-
Stochastische
Messfehler können mit einem Rauschsignal simuliert werden.
Alle für einen Sensor definierten Störsignale
werden aufsummiert und auf den dynamischen Zustand der erfassten
Objekte beaufschlagt.
-
Die
Parameter der Störsignale können abhängig
von der Position im Sichtbereich sein und können in zwei
Dimensionen eines entsprechenden Koordinatensystems definiert werden.
-
Objekttrennfähigkeit
-
Bedingt
durch die Ortsauflösung und die Segmentierung der Rohziele
für die Objekterkennung können zwei Objekte, die
eine geringe Distanz zueinander haben, als ein einzelnes Objekt
wahrgenommen werden. Die Objekttrennfähigkeit kann abhängig
von der Position innerhalb des Sichtbereichs sein. Üblicherweise
werden Objekte in der Nähe des Sensors mit einem geringeren
Objektabstand getrennt wahrgenommen im Vergleich zu einer größeren
Entfernung zum Sensor.
-
Radarsensoren,
die zusätzlich die Geschwindigkeit der Objekte messen können,
sind in der Lage, auch Objekte mit einem geringeren Abstand zueinander
zu trennen, sofern diese Objekte eine Differenzgeschwindigkeit aufweisen.
-
Für
die Simulation der Objekttrennfähigkeit muss der umgekehrte
Weg im Vergleich zu den realen Sensoren vollzogen werden. Die durch
die virtuelle Umgebung klar getrennten und identifizierten Objekte
müssen miteinander verschmolzen werden, sofern deren Abstand
geringer als ein definierter Schwellwert ist.
-
Diese
Eigenschaft kann abhängig von der Position im Sichtbereich
und der Richtung, beispielsweise Entfernungs- oder Winkelabstand,
sein.
-
Objektformbestimmung
-
Für
eine Abschätzung der Ausmaße eines Objekts und
zur Bestimmung der dynamischen Eigenschaften kommen in den Sensoren
verschiedene Heuristiken zum Einsatz, die eine Form des Objekts bestimmen.
-
Bei
einigen Lasersensoren wird angenommen, dass Fahrzeuge eine rechteckige
Grundform besitzen. Sind zwei Kanten des Rechtecks sichtbar, wird
die andere Kante mit einem plausiblen Wert abgeschätzt
oder es wird auf gespeicherte Werte vorangegangener Wahrnehmungen
zurückgegriffen.
-
Radarsensoren
sind aufgrund ihrer geringen Auflösung meist nicht in der
Lage, eine genaue Form eines Objekts zu bestimmen. Sie geben meist
nur einen Punkt für die erkannten Objekte zurück.
-
Um
eine Objektformbestimmung der Sensoren zu simulieren, wird die bestehende
Form der Objekte mittels eines Algorithmus modifiziert. Ein solcher
Algorithmus ist beispielsweise ein sog. Bounding-Box-Algorithmus,
der um die bestehenden Ecken des Polygons bzw. Polygonsegments ein Rechteck
legt. Dieses Rechteck wird dann die neue Objektform. Weiterhin kann
die Objektform anhand einer Abschätzung der Breite oder
der Reduzierung auf eine Ecke erfolgen.
-
Die
Objektformbestimmung kann als Grundlage für eine Referenzpunktbestimmung
dienen.
-
Referenzpunktbestimmung
-
Auf
einen Referenzpunkt beziehen sich sämtliche dynamischen
Eigenschaften eines Objekts. Ein einfaches Verfahren ist die Bestimmung
eines Schwerpunkts. Wurde zuvor eine Objektformbestimmung als Bounding-Box
durchgeführt, entspricht dies der Ermittlung des Referenzpunkts über
eine Abschätzung der Länge und Breite des Objekts.
-
Eine
weitere Möglichkeit besteht darin, diejenige Ecke des Objekts
als Referenzpunkt zu verwenden, die dem Sensor am nächsten
ist. Dies ist mit dem Prinzip von Radarsensoren vergleichbar.
-
Objektklassifizierung
-
Für
verschiedene Sensoranwendungen besteht die Notwendigkeit zur Unterscheidung
der Art von Objekten. Beispielsweise muss bei Fußgängerschutzsystemen
unterschieden werden, ob es sich bei einem Objekt um einen Fußgänger
handelt.
-
Zum
Einsatz kommen hierbei heuristische Methoden, die anhand der Objektform
(statischer Parameter) und typischen Bewegungsmustern (dynamischer
Parameter) eine Klassifikation der erfassten Objekte vornehmen.
-
Geisterobjekte
-
Bei
Umfeldsensoren kann es vorkommen, dass diese Objekte zurückliefern,
obwohl sich in der Realität an dieser Stelle keine Objekte
befinden. Verursacht wird dies meist durch äußere
Einflüsse, beispielsweise Umwelteinflüsse oder
wechselseitige Beeinflussung der Sensoren, oder durch Unzulänglichkeiten
der Sensoren.
-
Bei
der Erzeugung von Geisterobjekten wird eine Wahrscheinlichkeitsverteilung über
den Sichtbereich gelegt. Dabei werden, entsprechend der jeweiligen
Wahrscheinlichkeit, zufällig neue Objekte erzeugt.
-
Die
Geisterobjekte können erst nach der Detektionswahrscheinlichkeit
generiert werden, da ansonsten die gerade erzeugten Geisterobjekte
wieder entfernt werden könnten und somit deren Auftauchen nicht
der erwünschten Wahrscheinlichkeit entspricht.
-
Eine
Unterabtastung kann erst nach der Generierung der Geisterobjekte
erfolgen, da ansonsten das Geisterobjekt eine höhere Auflösung
im Vergleich zu den eigentlichen Objekten haben kann.
-
Bahnabweichungen
-
Für
die Simulation der Bahnabweichung kann beispielsweise ein einfacher
Trägheitswert verwendet werden. Ebenso besteht die Möglichkeit,
die Filterung, beispielsweise ein Kalman-Filter, nachzubilden. Dies
kann allerdings mit einem hohen Implementierungs- und Abstimmungsaufwand
verbunden sein und eine konkrete Parametrierung in einem bestimmten
realen Sensor ist meistens nicht bekannt.
-
Während
der Referenzierung der einzelnen Objekte in der virtuellen Umgebung
werden für die Zustandsabschätzungen Filter eingesetzt.
Verursacht durch diese Abschätzung weisen die Objektzustände
in Abhängigkeit der Bewegung der Zielobjekte und des verwendeten
Trackingverfahrens einen gewissen Fehler auf. Bei der Betrachtung
eines längeren Zeitraums kann bei einer Gegenüberstellung eines
eigentlichen und eines prädizierten Bahnverlaufs eine Diskrepanz
festgestellt werden. Die Bahnabweichung stellt sich in den meisten
Fällen als eine Art Überschwingen dar.
-
Unter
der Verwendung eines einfachen Prädiktionsmodells, welches
einer Trägheit entspricht, kann das Verhalten anhand weniger
Parameter abgebildet werden. Diese Prädiktion geht davon
aus, dass sich ein Objekt mit einer konstanten Geschwindigkeit in
dieselbe Richtung weiterbewegt. Die Position des Objekts auf der
veränderten Bahn ergibt sich aus einem gewichteten Mittelwert
aus dem prädizierten Punkt und der tatsächlichen
Position im nächsten Zyklus. Die beiden Parameter, mit
denen sich die Bahnabweichung einstellen lässt, sind ein
Gewichtungsfaktor w und eine Anzahl an Zeitschritten k, die für
die Prädiktion zurückgegangen werden soll.
-
Die
neue Position P
n auf der veränderten Bahn
berechnet sich wie folgt:
mit dem prädizierten
Punkt P
p:
-
Pi ist die tatsächliche Position
des Objekts zu dem Zeitpunkt i. Die neue Bahn ergibt sich dann,
indem in jedem Schritt für PiPn verwendet wird. Mit dem Gewichtungsfaktor
w lässt sich die Stärke der Abweichung bestimmen.
-
Wenn
w = 0 ist, bedeutet dies, dass es keinerlei Abweichung gibt, also
Pn = Pi.
-
Bei
w = 1 wird nur der prädizierte Punkt Pp verwendet.
Folglich bewegt sich das Objekt entsprechend des Vektors des ersten
Zyklus geradeaus.
-
Der
Effekt dieser erzeugten Abweichung kommt einer Trägheit
gleich. Die Bahn läuft der tatsächlichen Bewegung
etwas hinterher und erzeugt bei Richtungsänderungen Überschwinger.
-
Die
auf diese Art ermittelte Bahnabweichung ist zudem abhängig
von der Zeitauflösung des Sensors. Je höher die
Zeitauflösung ist, umso genauer wird auch die Bahn abgetastet.
-
Daraus
resultiert ebenso eine höhere Genauigkeit für
die eingesetzte Prädiktion. Mit einem Faktor kann dieser
Effekt kompensiert werden. Damit können auch weiter zurückliegende
Punkte als Ausgangspunkt für die Prädiktion in
Betracht gezogen werden, um somit eine höhere erwünschte
Ungenauigkeit zu erreichen.
-
Latenzzeit
-
Für
eine Latenzzeit kann eine Anzahl an Zeitschritten angegeben werden,
um die die Ausgabe eines Frames, der ein diskreter Zeitpunkt der
Sensorwahrnehmung ist, der sämtliche Objekte mit allen
Polygonen enthält, verzögert wird. Die Länge
eines Zeitschrittes entspricht der Zykluszeit des Sensors. Für die
Umsetzung kann eine Warteschlange verwendet werden, deren Länge
der Anzahl der Zeitschritte entspricht. Die Frames werden also über
die Dauer der Latenzzeit zurückgehalten und erst danach
ausgegeben. Da der Zeitstempel eine Eigenschaft des Frames ist,
muss er von dem Frame, der in der Warteschlange eingegeben wird,
von demjenigen Frame übernommen werden, welcher aus der
Warteschlange entfernt wird.
-
Tracking
-
Um
Aussagen über den Bewegungszustand eines Objekts zu treffen,
ist eine Beobachtung über einen längeren Zeitraum
notwendig. Dazu müssen die Objekte im nächsten
Zyklus wiedergefunden werden. Dabei wird in jedem gefundenen Objekt
ein eindeutiger Identifikator zugeordnet, der im nächsten Schritt
unter Zuhilfenahme von heuristischen Verfahren möglichst
demselben realen Objekt zugeordnet wird.
-
Zeichnungen
-
Es
zeigen:
-
1:
eine schematische Darstellung einer virtuellen Umgebung;
-
2a bis 2f:
eine Gegenüberstellung des erfindungsgemäßen
Verfahrens und eines bekannten Verfahrens.
-
Die 1 zeigt
eine in einem Koordinatensystem K dargestellte erfindungsgemäße
synthetische Umgebung 1. Die Achse y des Koordinatensystems
K erstreckt sich entgegengesetzt der Bewegungsrichtung eines Fahrzeugobjekts 2.
-
In
der synthetischen Umgebung 1 werden parametrisierbare Objekte 3 als
Polygone dargestellt, wobei jedes Polygon mindestens drei Ecken 4 und mindestens
drei die Ecken 4 paarweise verbindende Kanten 5 umfasst.
-
Jedes
Objekt 3 ist in der synthetischen Umgebung 1 referenziert,
so dass dieses verfolgt werden kann.
-
Das
Fahrzeugobjekt 2 umfasst einen synthetischen Sensor 6.
Die räumliche Lage und Ausrichtung des synthetischen Sensors 6 in
dem Koordinatensystem K entspricht der des zu simulierenden Sensors.
-
Weiterhin
besteht die Möglichkeit, an dem Fahrzeugobjekt 2 mehrere
synthetische Sensoren 6 anzubringen.
-
Weiterhin
können in der synthetischen Umgebung 1 mehrere
Fahrzeugobjekte 2, die mindestens einen synthetischen Sensor 6 umfassen,
angeordnet sein. Eine solche Konstellation kann beispielsweise zur
Simulation von sog. Car-to-Car-Communication-Sensoren dienen.
-
Jedes
Objekt 3 und Fahrzeugobjekt 2 umfasst statische
und/oder dynamische Parameter, die in den Ecken 4 und Kanten 5 der
Polygone hinterlegt sind. Für das erfindungsgemäße
Verfahren können diese Parameter dadurch variiert werden,
dass die räumliche Lage der Ecken 4 und Kanten 5 verändert, Polygonsegmente
oder ganze Polygone entfernt werden.
-
In
den 2a bis 2f ist
eine Gegenüberstellung eines im Stand der Technik beschriebenen bekannten
Verfahrens A und des erfindungsgemäßen Simulationsverfahrens
B dargestellt. Das erfindungsgemäße Simulationsverfahren
B ist auf der rechten Seite und das bekannte Verfahren A auf der linken
Seite dargestellt.
-
Das
bekannte Verfahren A empfindet die Verarbeitung der Sensordaten
der tatsächlichen Verarbeitung innerhalb realer Sensoren
nach.
-
Beide
Verfahren bauen auf einer in 2a dargestellten
synthetischen Umgebung 1 auf, die das Fahrzeugobjekt 2 mit
dem synthetischen Sensor 6 sowie mehrere Objekte 3 umfasst.
-
Sowohl
für das bekannte Verfahren A als auch für das
erfindungsgemäße Simulationsverfahren B wird ein
in 2b dargestellter Sichtbereich 7 eingetragen
und sämtliche Objekte 3, die vollständig außerhalb
des Sichtbereichs 7 liegen, werden entfernt.
-
Bei
dem erfindungsgemäßen Simulationsverfahren B können
als Sichtbereich 7 ein Kreissektorbereich (in 2b dargestellt)
oder ein rechteckiger Sichtbereich 7 (nicht dargestellt)
gewählt werden.
-
Die
Form des Kreissektorbereiches entspricht in etwa der radialen Wahrnehmung
eines Laserscanners oder einer Kamera. Definiert wird dieser über
eine Reichweite und einen Öffnungswinkel, der in eine linke
und rechte Seite aufgeteilt wird, um auch die Darstellung von asymmetrischen Öffnungswinkeln
zu ermöglichen.
-
Der
rechteckige Sichtbereich 7 ist zur Aufnahme einer Sichtbereichsverteilung
besser geeignet, da diese ebenfalls eine rechteckige Grundform besitzt.
Definiert wird der rechteckige Sichtbereich 7 über
die Parameter der Reichweite und der linken und rechten Breite.
-
Die
Abfrage bezüglich der in dem Sichtbereich 7 enthaltenen
Objekte 3 wird für jede Ecke 4 eines
Objektes 3 überprüft, ob die Position
dieser Ecke 4 innerhalb des Sichtbereichs 7 liegt.
Sofern dies nicht zutrifft, wird diese Ecke 4 entfernt.
Sind sämtliche Ecken 4 eines Objektes 3 entfernt
worden, so wird das gesamte Objekt 3 entfernt.
-
Andernfalls
werden die Schnittpunkte der Kanten 5 mit einer Sichtbereichshülle 8 ermittelt.
Diese Schnittpunkte ergeben dann neue Ecken 4 für
dieses Objekt 3, welches sich nur teilweise in dem Sichtbereich 7 befindet.
-
Mittels
einer Sichtbereichsverteilung können den Objekten 3 innerhalb
des Sichtbereichs 7 unterschiedliche Werte anhand einer
Verteilungsfunktion zugeordnet werden.
-
Bei
dem bekannten Verfahren A gehen Sensorstrahlen 9 vom Ursprung
des synthetischen Sensors 6 in radialer Richtung mit der
sensorspezifischen lateralen Auflösung aus. Die Sensorstrahlen 9 bilden Schnittpunkte
mit den in dem Sichtbereich 7 befindlichen Objekten 3.
Diese Schnittpunkte entsprechen den Rohzielen 10, die ein
realer Sensor von seiner Umwelt wahrnehmen würde. Die Rohziele 10 sind
die Messpunkte, die der Sensor von seiner Umgebung erfasst, bei
denen noch keine weitere interne Datenverarbeitung stattgefunden
hat.
-
In 2c ist
die Simulation einer Objektverdeckung dargestellt.
-
Bei
dem bekannten Verfahren A werden dabei die Rohziele 10 berücksichtigt.
-
Bei
dem erfindungsgemäßen Simulationsverfahren B müssen
zur Simulation einer Objektverdeckung die Ecken 4 bzw.
die Kanten 5 der Polygone entfernt werden. Zudem besteht
die Möglichkeit, lediglich Teile von Kanten 5 zu
entfernen, sofern diese nicht vollständig verdeckt sind.
Für eine Auswertung genügt es, nur die einzelnen
Kanten 5 mit ihren beiden Ecken 4 paarweise miteinander
zu vergleichen.
-
Dies
muss über die Objektgrenzen hinweg erfolgen, um somit gleichzeitig
die Eigen- und die Fremdverdeckung zu realisieren.
-
Die
beiden Kanten 5, die miteinander verglichen werden, nehmen
dabei zwei verschiedene Rollen ein. Das ist einerseits die verdeckende
Kante 5, welche die Verdeckung verursacht, und andererseits die
verdeckte Kante 5, welche gegebenenfalls modifiziert wird.
Abhängig von der Lage der Ecken 4 der Kanten 5 muss
entschieden werden, wie die Modifikation der verdeckten Kante 5 erfolgen
muss. Hierzu ergeben sich folgende Möglichkeiten:
- a) die verdeckte Kante 5 bleibt unverändert;
- b) die verdeckte Kante 5 wird vollständig
entfernt;
- c) von der verdeckten Kante 5 wird ein Stück
an einer Seite entfernt;
- d) von der verdeckten Kante 5 wird ein Zwischenstück
entfernt, so dass zwei Kanten 5 entstehen.
-
Die
Entscheidung, welche dieser Varianten zutrifft, wird über
die Lage der Ecken 4 und die die Ecken 4 verbindenden
Kanten 5 bezüglich eines Verdeckungsbereichs getroffen.
Der Verdeckungsbereich wird konstruiert, indem je eine Gerade von
der Position des synthetischen Sensors 6 durch die beiden
Ecken 4 der verdeckenden Kante 5 gelegt wird.
-
Es
werden dabei folgende Lagemöglichkeiten unterschieden:
- a) Beide Ecken 4 befinden sich innerhalb
des Verdeckungsbereichs. Die zugehörige Kante 5 wird komplett
entfernt.
- b) Eine Ecke 4 befindet sich innerhalb und eine Ecke 4 befindet
sich außerhalb des Verdeckungsbereichs. Von der Kante 5 wird
ein Teil an einer Seite entfernt.
- c) Beide Ecken 4 befinden sich außerhalb des Verdeckungsbereichs
und die zugehörige Kante 5 schneidet den Verdeckungsbereich.
Ein Zwischenstück wird von der Kante 5 entfernt.
- d) Andernfalls bleibt die Kante 5 unverändert.
-
Für
den Fall, dass sich zwei Kanten 5 überschneiden,
findet eine wechselseitige Verdeckung statt. Dies ist bei dieser
Vorgehensweise bereits berücksichtigt, da die beiden Kanten 5 jeweils
in beiden Rollen (als verdeckte und verdeckende Kante 5)
auftreten. Da es sich bei den Formen um Polygone handelt, gehört
eine Ecke 4 zu maximal zwei Kanten 5. Daraus folgt,
dass eine Ecke 4 erst gelöscht wird, wenn es keine
weitere Zugehörigkeit zu einer anderen Kante 5 gibt.
-
Durch
das Entfernen von Kanten 5 bzw. Kantenstücken
kann das Polygon in mehrere Teile (Polygonsegmente) zerlegt werden.
Die daraus entstandenen Zusammenhangskomponenten stellen eigene Objekte 3 dar,
die wiederum referenziert werden.
-
In 2d ist
die Simulation von Messfehlern oder Störsignalen 11 dargestellt.
-
Nach
dem bekannten Verfahren A wird den Rohzielen 10 ein Fehler,
beispielsweise mittels eines normalverteilten Rauschens, beaufschlagt.
-
Nach
dem erfindungsgemäßen Simulationsverfahren B werden
Messfehler oder Störeinflüsse durch Hinzufügen
von beliebigen Störsignalen 11 zu den Ecken 4 und/oder
Kanten 5 der Polygone realisiert. Es besteht die Möglichkeit,
dass die Störsignale 11 verschiedene Signale unterschiedlichen
Typs beinhalten. Das gemeinsame Störsignal 11 wirkt
dann auf die Ecken 4 der Polygone. Zu jedem Störsignal 11 wird
weiterhin angegeben, auf welche Größe sich dieses
auswirkt. Es sind hierzu beispielsweise ein normalverteiltes Rauschen
oder ein konstanter Wert für eine Sinus- und eine Rechteckfunktion
vorgesehen. Für das Rauschen wird die Funktion der Normalverteilung
mit einem Erwartungswert, der dem tatsächlichen Wert entspricht,
und einer Standardabweichung, die frei konfigurierbar ist, verwendet.
-
Die
Sinusfunktion wird über die Amplitude und die Frequenz
bestimmt. Weiterhin besteht die Möglichkeit, eine periodische
Rechteckfunktion zu definieren, die die Parameter für die
Zeit des sog. High-Wertes und des sog. Low-Wertes umfasst. Alle Parameter
der Signale können eine Abhängigkeit von der Position
in dem Sichtbereich 7 haben.
-
In 2e ist
dargestellt, wie nach dem bekannten Verfahren A von nahe beieinander
liegenden Rohzielen 10 durch Bildung von Clustern 12 Objekte 3 extrahiert
werden.
-
Nach
dem erfindungsgemäßen Simulationsverfahren B müssen
zwei Objekte 3, deren Abstand zueinander zu gering ist,
um von einem realen Sensor getrennt wahrgenommen zu werden, zu einem Objekt 3 verschmolzen
werden, wenn dieser Abstand einen bestimmten Schwellwert unterschreitet.
Dieser kann mittels eines Parameters eingestellt werden, welcher
wie die Störsignale 11 über den Sichtbereich 7 verteilt
ist und zwei Wirkrichtungen aufweisen kann. Typischerweise können
Umfeldsensoren Objekte 3 besser trennen, wenn diese im
Vergleich zu einem Entfernungsabstand einen Winkelabstand voneinander
aufweisen. Weiterhin kann die Objekttrennfähigkeit auf
verschieden gemessene Größen angewendet werden.
So besteht beispielsweise die Möglichkeit, neben dem Positionsabstand
auch eine Geschwindigkeitsdistanz als Grundlage für die
Objekttrennung heranzuziehen.
-
Bei
Sensoren, beispielsweise Radarsensoren, die diese beiden Größen
(Position und Geschwindigkeit) messen können, wenn die
Objekte 3 aufgrund ihrer Lage zueinander zu einem Objekt 3 miteinander
verbunden werden, würden dennoch ihre Separierung beibehalten,
sofern ihre Geschwindigkeitsdifferenz hinreichend groß ist.
-
Die
Objekte 3, die miteinander verbunden werden müssen,
werden gefunden, indem ein minimaler Abstand 13 zwischen
zwei Polygonen ermittelt wird. Der minimale Abstand 13 zwischen
zwei Polygonen muss nicht in allen Fällen zwischen zwei Ecken 4 liegen.
Es sind weiterhin noch die Kombinationen aus Ecke 4 – Kante 5 sowie
Kante 5 – Kante 5 möglich. Zur
Lösung kann der sog. „Rotating-Calipers-Ansatz” verwendet
werden.
-
Die
Voraussetzung, dass der minimale Abstand 13 zweier Polygone
nach diesem Ansatz bestimmt werden kann, ist, dass beide Polygone
konvex sind. Sofern dies nicht zutrifft, kann der minimale Abstand 13 lediglich über
einen Vergleich aller Ecken 4 und Kanten 5 gefunden
werden.
-
Die
Objekte 3, deren minimaler Abstand 13 kleiner
einem Schwellwert ist, werden miteinander verbunden. Die Polygone
müssen für eine Verschmelzung an den jeweils am
weitesten innen liegenden Ecken 4 mit den Lotfußpunkten
des anderen Polygons aufgetrennt werden.
-
Bei
der Variante Kante 5 mit Ecke 4 ist der minimale
Abstand 13 zwischen der Ecke 4 des einen Polygons
und dem Lotfußpunkt auf der Kante 5 des anderen
Polygons. Die neuen Kanten 5 entstehen dann nach dem Entfernen
der betroffenen Ecke 4 bzw. Kante 5 durch die
Verbindung der verbleibenden Ecken 4.
-
Die 2f zeigt,
wie nach dem bekannten Verfahren A die Möglichkeit besteht,
aus den zu einem Objekt 3 gehörenden Rohzielen 10 eine
Objektform bzw. eine Objektformhypothese zu erstellen.
-
Nach
dem erfindungsgemäßen Simulationsverfahren B nimmt
die Objektformbestimmung Vereinfachungen an dem bereits modifizierten
Polygon vor, um damit die reale Formapproximation einiger Sensoren
nachzubilden.
-
Für
Sensoren, die keine Objektform bestimmen, sondern lediglich ein
Punktobjekt erzeugen, wird das Polygon entfernt. Somit bleibt ein
Referenzpunkt 14 bestehen, der dann das betreffende Objekt 3 alleinig
repräsentiert.
-
Andere
Sensoren sind in der Lage, eine Breite des Objekts 3 zu
bestimmen. Dabei wird eine Gerade zwischen den Ecken 4,
die am weitesten links und am weitesten rechts innerhalb eines Objekts 3 sich
befinden, gelegt. Das Polygon besteht dann nur noch aus diesen beiden
Ecken 4 und einer Kante 5, deren Länge
der Breite des Objekts 3 entspricht.
-
Eine
Möglichkeit ist die Verwendung eines achsenparallelen Rechtecks.
Dafür müssen aus der Menge der Ecken 4 des
Polygons jeweils die maximalen und minimalen x- und y-Werte bestimmt
werden, aus denen sich anschließend die Lage des Rechtecks
ermitteln lässt. Ein Nachteil dieses Ansatzes liegt darin,
dass die Rechteckform nur dann gut anpassbar ist, sofern die Kanten
des Rechtecks parallel zu den Koordinatenachsen liegen.
-
Bessere
Ergebnisse lassen sich mit einem optimal ausgerichteten Rechteck
erzielen. Dies kann beispielsweise mittels eines Optimierungsverfahrens erfolgen,
bei welchem der Flächeninhalt des Rechtecks minimiert wird.
-
Da
das Polygon, welches in der Sensorsimulation ein Objekt 3 beschreibt,
selbst schon eine Approximation der Form des Objekts 3 darstellt,
ist es ebenso möglich, diese Form unverändert
zu übernehmen.
-
Der
Referenzpunkt 14 eines Objekts 3 kann für
die Ermittlung eines geometrischen Schwerpunktes des Polygons bestimmt
werden. Der Schwerpunkt ist der Punkt, an dem, wenn das Objekt 3 an diesem
Punkt aufgehängt werden würde und aus einem homogenen
Material besteht, das Objekt 3 ausbalanciert wäre.
-
Eine
weitere Variante für die Ermittlung des Referenzpunktes 14 ist
die Verwendung eines Punktes eines Zielobjektes, der der Sensorposition
am nächsten liegt. Radarsensoren zeigen meist dieses Verhalten,
da sie das Reflexionszentrum als Referenzpunkt 14 interpretieren.
Da alle Objekte 3 als Polygon vorliegen, gibt es zwei Möglichkeiten,
an welcher Stelle sich dieser Punkt befindet. Entweder kommt eine
Ecke 4 oder eine Kante 5 des Polygons in Frage.
-
Für
die Bestimmung eines Punktes eines Polygons mit dem kürzesten
Abstand zu dem Ursprung des synthetischen Sensors 6 werden
sämtliche Distanzen zu den Ecken 4 und den Kanten 5 wie
folgt bestimmt:
- a) Bestimmung aller Geraden,
die durch die Kanten 5 verlaufen
- b) Ermittlung der Lotfußpunkte vom Ursprung des synthetischen
Sensors 6 auf der Geraden
- c) Berechnung der Abstände vom Ursprung zu allen Lotfußpunkten,
die auf einer Kante 5 liegen, und zu allen Ecken 4 des
Polygons
- d) Der Punkt ist dann der Punkt mit dem kürzesten Abstand
-
- 1
- synthetische
Umgebung
- 2
- Fahrzeugobjekt
- 3
- Objekt
- 4
- Ecke
- 5
- Kante
- 6
- synthetischer
Sensor
- 7
- Sichtbereich
- 8
- Sichtbereichshülle
- 9
- Sensorstrahl
- 10
- Rohziel
- 11
- Störsignal
- 12
- Cluster
- 13
- minimaler
Abstand
- 14
- Referenzpunkt
- A
- bekanntes
Verfahren
- B
- erfindungsgemäßes
Simulationsverfahren
- K
- Koordinatensystem
- x
- Achse
- y
- Achse
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-