DE19532597A1 - System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems - Google Patents
System und Verfahren zur Objektverfolgung unter Verwendung eines DetektorsystemsInfo
- Publication number
- DE19532597A1 DE19532597A1 DE19532597A DE19532597A DE19532597A1 DE 19532597 A1 DE19532597 A1 DE 19532597A1 DE 19532597 A DE19532597 A DE 19532597A DE 19532597 A DE19532597 A DE 19532597A DE 19532597 A1 DE19532597 A1 DE 19532597A1
- Authority
- DE
- Germany
- Prior art keywords
- data points
- frame
- bin
- compartment
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9316—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93272—Sensor installation details in the back of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93274—Sensor installation details on the side of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/288—Coherent receivers
- G01S7/2883—Coherent receivers using FFT processing
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Navigation (AREA)
Description
Die vorliegende Erfindung bezieht sich allgemein auf
Verfolgungssysteme und insbesondere auf ein Verfahren
zum Verfolgen von Objekten, die von einem Bewegungsde
tektor ermittelt bzw. detektiert wurden.
Radar, Lidar, Sonar und andere Erfassungstechniken
werden oft verwendet, um Objekte zu erfassen ohne Sicht
kontakt zu erfordern. Die Anwendung von solchen Erfas
sungstechniken ist erweitert worden, um die Verwendung in
sowohl passiven als auch aktiven Kollisionsverhinderungs
systemen einzuschließen. In solchen Kollisionsverhinde
rungsanwendungen wird ein Erfassungssystem verwendet, um
Objekte im Weg eines sich bewegenden Fahrzeugs (auf das
als das Gastfahrzeug Bezug genommen wird) zu erfassen
bzw. zu ermitteln. Wenn ein Objekt erfaßt bzw. ermittelt
wird, werden geeignete Schritte unternommen, um eine Kol
lision mit dem Gastfahrzeug zu vermeiden. Solche Schritte
können das Anhalten des Gastfahrzeugs umfassen, das Än
dern des Pfades bzw. des Fahrtwegs des Gastfahrzeugs oder
einfach das Alarmieren eines Bedieners des Gastfahrzeugs,
und zwar dahingehend, daß es eine Kollisionsbedrohung
gibt.
Eine Herausforderung für Kollisionsverhinderungssyste
me, die konventionelle Detektorerfassungssysteme verwen
den, ist es, Falschalarme zu minimieren. Abhängig von den
Systemcharakteristiken, den Schwellensetzpunkten und dem
Betriebsumfeld bzw. der Betriebsumgebung können konven
tionelle Systeme anfällig sein für Falschalarme. Bei
spielsweise in einer Umgebung mit einer hohen Konzentra
tion von Staubpartikeln können solche Partikel einen Li
dar- (light detection and ranging = Lichterfassungs- und
Entfernungsmeß-) System als Hindernisse erscheinen.
Eine weitere Herausforderung für Kollisionsverhinde
rungssysteme ist die, ein Objekt zu verfolgen, während das
Gastfahrzeug in Bewegung ist. Während sich das Gastfahr
zeug entlang seiner Route bzw. seines Weges bewegt, kann
ein Objekt, das vom einem Detektor- bzw. Erfassungssystem
erfaßt worden ist, das auf dem Gastfahrzeug montiert ist,
erscheinen, wie wenn es sich relativ zum Gastfahrzeug be
wegt. Für Detektoren, die ein Einzelbild zu jeder Proben
zeit abfühlen, mag das Objekt erscheinen, wie wenn es von
einer Position zur nächsten springt. Solche Sprünge kön
nen Fragen auftauchen lassen, wie beispielsweise, ob ein
Objekt wirklich anwesend ist, ob die Signalrückgabe bzw.
Signalrückantwort nur Rauschen ist, ob es mehr als ein
Objekt gibt, usw.
Die vorliegende Erfindung betrifft ein System und
ein Verfahren zur Verfolgung von Objekten, detektiert un
ter Verwendung eines Detektions- bzw. Erfassungssystems.
Gemäß der Erfindung ist das Erfassungssystem auf einem
Gastfahrzeug montiert. Ein Sensor innerhalb des Erfas
sungssystems scannt bzw. tastet über sein Blickfeld, um
einen Rahmen von Datenpunkten zu erzeugen. Jedes Objekt,
das vom Detektor erfaßt wurde, resultiert in mehrere Da
tenpunkten in jedem Rahmen bzw. Bild. Jeder Datenpunkt
stellt einen Teil eines erfaßten Objekts dar. Daher kann
eine Gruppe von benachbarten Datenpunkten ein Einzelob
jekt repräsentieren oder eine Ansammlung von benachbarten
sich überlappenden Objekten. Jeder Datenpunkt umfaßt eine
Winkel-Entfernungs- und Leistungskomponente bezüglich des
Detektors zur Proben zeit.
Eine adaptive Schwellenmethode kann verwendet wer
den, um Datenpunkte aus einem Rahmen zu eliminieren, die
nicht von Interesse sind. Nach dem Schwellenvorgang wird
jeder Datenpunkt vom Referenzrahmen des Sensors in ein
globales Koordinatensystem eingetragen bzw. einkartogra
fiert. So wird jedes Objekt Datenpunkt für Datenpunkt in
das globale Koordinatensystem eingetragen bzw. kartogra
fiert. Das globale Koordinatensystem hat vorzugsweise ei
nen Referenzrahmen, der stationär und unabhängig vom Sen
sor ist.
Mit vergehender Zeit, wird der Sensor zu einer zwei
ten Proben zeit wieder abgeprüft bzw. abgetastet
(sampled), um einen neuen Datenrahmen zu erzeugen. Wie
beim vorherigen Rahmen umfassen die Datenpunkte in diesem
neuen Rahmen eine Winkel-, Entfernungs- und Leistungskom
ponente mit Bezug auf den Sensor bei dieser zweiten Pro
ben- bzw. Testzeit.
Die Daten des ersten Rahmens, die in globale Koordi
naten umgewandelt wurden, werden nun in den neuen Rahmen
von Datenpunkten eingetragen bzw. kartografiert. D.h.,
die Daten in Globalkoordinaten werden in Koordinaten im
Referenzrahmen des Sensors zur zweiten Probenzeit umge
wandelt, und zum neuen Rahmen hinzugefügt. Infolgedessen
umfaßt der neue Rahmen aktuelle Daten, die zur zweiten
Probenzeit bzw. Aufnahmezeit aufgenommen wurden, genauso
wie Daten vom vorherigen Rahmen.
Ein Suchgebiet, das um die Route des Fahrzeugs herum
zentriert ist, kann als eine Untereinstellung bzw. Subset
(Untersatz) des gesamten Blickfeldes definiert werden. Um
die Prozeß- bzw. Verarbeitungszeit zu reduzieren, können
die oben beschrieben Datenpunktoperationen auf nur jene
Datenpunkte beschränkt werden, die in das Suchgebiet fal
len.
Diese kombinierten Daten (nun im zweiten Rahmen)
werden in globale Koordinaten umgewandelt und in den
nächsten Datenrahmen eingetragen. Der Prozeß des Umwan
delns der kombinierten Daten jedes Rahmens und des Ein
tragens der Daten in den nächsten Rahmen geht so weiter,
daß jeder neue Rahmen nicht nur aktuelle Objektdaten um
faßt, sondern auch Altdaten.
Bevor die Daten eines vorherigen Rahmens in den
nächsten Rahmen eingetragen werden, wird der Leistungs
wert eines jeden Datenpunkts durch einen Skalierungsfak
tor gedämpft. Diese Dämpfung verhindert, daß der Lei
stungswert von einem tatsächlichen bzw. aktuellen Objekt
aus der Proportion wächst. Eine solche Abschwächung bzw.
Dämpfung stellt auch sicher, daß Rauschrückantworten, die
nur in einem oder zwei Rahmen auftreten, aus dem System
nach mehrerer Proben- bzw. Aufnahmezeiten abgeschwächt
bzw. gedämpft werden.
Die Datenpunkte können in eine Liste von Objekten im
Blickfeld gruppiert werden. Diese Objektliste kann durch
sucht werden, um zu ermitteln, ob ein Objekt im Pfad bzw.
Weg des Gastfahrzeugs ist und in einem Bereich, der es
erfordert, daß das Gastfahrzeug sich verlangsamt, anhält
oder den Kurs ändert.
Ein Vorteil der Erfindung ist, daß Rauschdaten
(beispielsweise ein Objekt, das nur in einem Rahmen er
scheint) gedämpft und fallengelassen werden. Als eine
Folge weist das System automatisch Rauschen ab, um fal
sche Erfassungen bzw. Detektionen zu verhindern.
Ein anderer Vorteil der Erfindung ist es, daß ein
stationäres Objekt in derselben relativen Position des
Sensors erscheint, wenn sich das Fahrzeug bewegt, und
zwar ungeachtet der Fahrzeugposition (solange, wie das
Objekt noch im Blickfeld ist) . In anderen Worten wird das
stationäre Objekt bei jeder Proben- bzw. Aufnahme zeit auf
sich selbst abgebildet bzw. kartografiert. Wenn ein Ob
jekt über mehrere Probenzeiten erfaßt wird, fährt der
Leistungswert fort zu wachsen, was die Richtigkeit
(Legitimität) der Daten anzeigt. Dies ist insbesondere
nützlich beim Erfassen von Objekten, die niedrige Lei
stungswerte haben.
Weitere Eigenschaften und Vorteile der vorliegenden
Erfindung genauso wie die Struktur und der Betrieb von
verschiedenen Ausführungsbeispielen der vorliegenden Er
findung werden im Detail unten beschrieben und zwar mit
Bezugnahme auf die begleitenden Zeichnungen.
Die vorliegende Erfindung ist mit Bezugnahme auf die
begleitenden Zeichnungen beschrieben. In den Zeichnungen
zeigen gleiche Bezugszeichen identische oder funktionell
ähnliche Elemente an. Zusätzlich identifiziert (identifi
zieren) die linke (linken) Zahl (Zahlen) eines Bezugszei
chen die Zeichnung, in der das Bezugszeichen zuerst auf
taucht.
Fig. 1 ist ein Diagramm, das ein Erfassungssystem
verdeutlicht, das auf einem Gastfahrzeug montiert ist.
Fig. 2 ist ein Blockdiagramm, das ein Erfassungssy
stem verdeutlicht.
Fig. 3 ist ein Diagramm, das einen Detektor und
sein zugeordnetes Blickfeld verdeutlicht.
Fig. 4 ist ein Diagramm, das einen Rahmen von Da
tenpunkten von einem Detektor verdeutlicht.
Fig. 5 ist ein Flußdiagramm, das die Verfolgung von
Objekten verdeutlicht, die von einem Detektor erfaßt wur
den.
Fig. 6 ist ein Flußdiagramm, das eine Umwandlung
von Daten, die von einem Detektor ermittelt bzw. erfaßt
wurden, verdeutlicht.
Fig. 7 ist ein Diagramm, das ein repräsentatives
Szenario für eine Punkt- bzw. Fleckkolorierung (Blob Co
louring) verdeutlicht.
Fig. 8 ist ein Betriebsflußdiagramm, das den Prozeß
der Punkt- bzw. Fleckkolorierung (Blob Colouring) gemäß
eines Ausführungsbeispiels verdeutlicht.
Fig. 9 ist ein Blockdiagramm, das ein Beispieler
fassungs- bzw. -detektionssystem und ein Navigationssy
stem verdeutlicht.
Die vorliegende Erfindung ist eine Verfolgungs- bzw.
Nachführ- (tracking) Technik zur Verwendung in einem Er
fassungs- bzw. Detektionssystem. Das Erfassungssystem,
wie z. B. Radar, Lidar, Sonar oder ein anderes Erfassungs
system kann auf einem Gastfahrzeug montiert sein. Das Er
fassungssystem wird verwendet um zu erfassen bzw. zu er
mitteln, ob Objekte im Wege oder in der generellen Nach
barschaft des Gastfahrzeugs sind. Eine solche Anwendung
ist nützlich beim Implementieren von Kollisionsverhinde
rungstechniken.
Zur Erleichterung der Besprechung wird die Erfindung
mittels einer Beispielapplikation, wie in Fig. 1 ver
deutlicht, besprochen. In dieser Beispielapplikation ist
das Gastfahrzeug 104 ein Halden- bzw. Minenlastwagen und
das Erfassungssystem 108 ist ein nach vorne sehendes Ra
darsystem, das auf dem Gastfahrzeug 104 montiert ist, um
Objekte 102 wie z. B. Felsen im Weg des Gastfahrzeugs zu
erfassen.
Obwohl die Erfindung im Hinblick auf diese Beispie
lapplikation besprochen wird, wird es nach dem Lesen der
folgenden Beschreibung dem Fachmann offensichtlich wer
den, wie die Erfindung in alternative Umgebungen imple
mentiert werden kann und zwar mit alternativen Erken
nungs- bzw. Erfassungs- und Navigationssystemen. Andere
Anwendungen können folgendes umfassen, sind jedoch nicht
darauf begrenzt:
Kollisionsverhinderungs- und/oder Navigationssysteme für Flugzeuge, Automobile, Lokomotiven und andere Beför derungsmittel.
Kollisionsverhinderungs- und/oder Navigationssysteme für Flugzeuge, Automobile, Lokomotiven und andere Beför derungsmittel.
Gemäß der Beispielanwendung ist das Gastfahrzeug
104 ein selbständiger Minenlastwagen, der während des
normalen Betriebs nicht von einem menschlichen Bediener
gefahren wird. Statt dessen wird das Gastfahrzeug 104
durch ein Computersystem entlang einer definierten Route
betrieben. Das Radarerkennungssystem 108 wird verwendet,
um Objekte 102 im Weg des Gastfahrzeugs zu erfühlen.
Die Charakteristiken bzw. Merkmale des speziellen
ausgewählten Erfassungssystems hängen von der Anwendung
ab. Für Kollisionsverhinderungs- und/oder Navigationssy
steme für sich relativ langsam bewegende Fahrzeuge die
z. B. ein Automobil oder ein Minenlastwagen) befaßt sich
das System in erster Linie mit Objekten, die nahe des
Fahrzeugs sind (beispielsweise innerhalb 300 m) . Für
Hochgeschwindigkeitsanwendungen wie beispielsweise Düsen
flugzeug-Kollisionsverhinderungssysteme ist Frühwarnung
erforderlich und daher sind die längeren Entfernungen
wichtig.
In der beispielhaften Umgebung des selbständigen Mi
nensystems ist nur das Gebiet nahe des Fahrzeugs wichtig.
In einem Ausführungsbeispiel wird der (in Fig. 2 ver
deutlichte) Sensor 204 des Erfassungssystems 108 ungefähr
6 Fuß über dem Boden montiert, der Sensor 204 sieht nach
unten, um Objekte, wie beispielsweise Felsen im Weg des
Gastfahrzeugs zu erfassen. Der Boden des Sensorstrahls
schneidet den Boden bei einer Entfernung l₁, die in einem
Ausführungsbeispiel ungefähr 15 m ist. Das obere Ende des
Sensorstrahls ist ungefähr einen Grad über dem Horizont
(siehe Fig. 1) Der Interessensbereich in diesem Ausfüh
rungsbeispiel ist 100 m. Der Winkel α ist das vertikale
Blickfeld und ist in diesem Ausführungsbeispiel 8 Grad.
Fig. 2 ist ein Blockdiagramm, das das Erfassungssy
stem 108 und ein Navigationssystem 112 verdeutlicht. Das
Erfassungssystem 108 weist einen Sensor 204 und ein Er
fassungsverarbeitungssystem 208 auf. In diesem Beispiel
ist der Sensor 204 ein Radarsensor, der die Anwesenheit
von Objekten 102 in seinem Blickfeld erkennt. In einem
Ausführungsbeispiel kann der Sensor 204 ein nach vorne
sehender Sensor sein, um nur Objekte vor dem Gastfahrzeug 104
zu ermitteln bzw. zu erfassen. In einem alternativen
Ausführungsbeispiel kann der Sensor 204 verwendet werden,
um Objekte in jeglicher erwünschter Richtung ab zu fühlen
und kann bis 360 Grad Abdeckung vorsehen.
In einigen vereinfachten Erfassungssystemen kann die
Größe des Objektes ignoriert werden und alles, was gemes
sen wird, ist die Anwesenheit eines Objektes 102, seine
Entfernung und die Rate bzw. Geschwindigkeit mit der es
sich bezüglich des Fahrzeugs bewegt. Ein solches verein
fachtes System, ähnlich denen, die für einige einfache
Schnellstraßenanwendungen für intelligente Fahrzeuge vor
geschlagen wurden,empfängt eine einzelne Rückgabe bzw.
Rückantwort für ein Objekt im Weg des Fahrzeugs und ant
wortet, wenn das Objekt gefährlich nahe ist oder schnell
aufschließt bzw. näherkommt. Das System beschäftigt sich
nicht mit der Größe oder der Art des erfaßten bzw. detek
tierten Objektes, sondern beschäftigt sich nur damit, ob
es ein Objekt im Weg des Fahrzeugs gibt.
In der beispielhaften Implementierung muß spezielle
res Vorgehen getroffen werden. Beispielsweise muß, weil
es keinen Fahrer gibt, die Breite des Objektes 102 be
kannt sein, so daß das Gastfahrzeug 104 um das Objekt 102
herumgesteuert werden kann, falls nötig.
Zusätzlich ist es wichtig zu wissen, ob andere Ob
jekte 102, wie beispielsweise Felsen im Weg des Gastfahr
zeugs 104 sind. Felsen können schwer zu detektieren bzw.
zu erfassen sein. Man erwäge beispielsweise einen relativ
kleinen Felsen im Nahfeld, wie beispielsweise das Objekt
102 a, das in Fig. 1 abgebildet ist. Das Erfassungssy
stem 108 wird Rückantworten vom Objekt 102 erfassen ge
nauso wie Rückgaben von der Straße vor und hinter dem Ob
jekt 102a. Daher kann es schwierig sein, die Anwesenheit
des Objektes 102a vom Hintergrundrauschen zu unterschei
den (d. h. Rückgaben der Straße).
Wegen dieser spezifischen Erfordernisse dieser Bei
spielimplementiereung ist das Erfassungssystem 108 als
ein Millimeter-Wellen-Radarsystem implementiert. Ein sol
ches System sieht eine Hochauflösungsverfolgung mit einer
sehr engen Strahlbreite vor. Als eine Folge können wäh
rend eines Scans bzw. einer Abtastung über das Blickfeld
mehrere benachbarte Rückgaben für jedes Objekt 102 im Weg
des Gastfahrzeugs 104 empfangen werden. So kann jedes in
dividuelle Objekt von mehrere Datenpunkten repräsentiert
werden, und zwar jeder in seinem eigenen Abteil (Bin).
Der Sensor 204 tastet über sein Blickfeld ab und er
zeugt ein elektronisches Signal, das die abgefühlte Szene
repräsentiert. Auf diese Repräsentation bzw. Darstellung
wird Bezug genommen als ein Rahmen 216. Am Ende jeder Ab
tastung bzw. jedes Scans wird ein Datenrahmen 216 vollen
det und ein Erfassungsberechnungs- bzw. Erfassungsverar
beitungssystem 208 gesendet. In einem Ausführungsbeispiel
werden die Abtastungsdaten in einem Wort zu einer Zeit
gesendet, wobei 512 Werte die Daten für eine Antennenpo
sition darstellen. Timing- (Zeitsteuerungs) und/oder Syn
chronisationsmechanismen werden verwendet, um die Rahmen
zu verfolgen.
Das Erfassungsverarbeitungssystem 208 empfängt jeden
Rahmen 216. Das Erfassungsverarbeitungssystem 208 unter
sucht jeden Rahmen 216, um die Bestimmung zu erleichtern,
ob ein erfaßtes Objekt 102 ein reales Objekt oder Rau
schen ist, und ob eine Kurskorrektur erforderlich ist, um
das Objekt 102 zu vermeiden bzw. zu umfahren.
Es ist aus mehreren Gründen nützlich, Objekte 102 zu
verfolgen, die vom Erfassungssystem 108 erfühlt worden
sind. Zuerst lösen Erfassungssysteme 108 manchmal auf
Rauschen hin aus, und geben als eine Folge falsche Signa
le zurück. Beispielsweise kann dies auftreten, wenn ein
Lichtblitz von einem entfernten Objekt reflektiert wird
und von einen Lidar-Erfassungssystem abgefühlt wird. Sol
che Rauschsignale treten gewöhnlicherweise nur in einem
einzelnen Detektorrahmen 216 auf. Ein unnötiges Stoppen
oder eine Wegänderung bzw. Umleitung des Gastfahrzeugs
104 wegen eines Rauschsignals würde in ineffektivem Be
trieb resultieren.
Ein anderer Grund, Objekte 102 zu verfolgen, ist es,
die Entfernung vom Gastfahrzeug 104 zum erfaßten Objekt
102 zu bestimmen. Eine solche Bestimmung gestattet es ei
nem Bediener oder automatisierten Navigationssystem zu
bestimmen, ob eine korrigierende Handlung bzw. ein Ein
greifen erforderlich ist und um ferner die Härte bzw. das
Ausmaß einer solchen korrigierten Handlung zu bestimmen.
Beispielsweise kann ein großes Objekt 102, das in kürzere
Entfernung vor dem Halden- bzw. Minenlastwagen erscheint,
erfordern, daß der Lastwagen sofort angehalten wird oder
daß drastische Wegänderungen implementiert bzw. vorgenom
men werden.
Wie die obigen Gründe hervorheben, ist es wichtig,
Objekte 102 zu verfolgen, die vom Erfassungssystem 108
erfühlt worden sind. Jedoch gibt es Schwierigkeiten, die
mit einer solchen Verfolgung verbunden sind. Eine Schwie
rigkeit, die eine Schlüssestellung bildet, besteht darin,
daß, wenn sich das Gastfahrzeug 104 entlang eines Weges
bzw. Pfades bewegt, ein Objekt 102 erscheint, wie wenn es
sich relativ zum Gastfahrzeug 104 bewegt und zwar obwohl
das Objekt 102 stationär bzw. unbeweglich ist. Somit kann
ein Objekt 102, das an einem ersten Ort in einem erstem
Rahmen 216 erscheint, als ein zweites Objekt 102 erschei
nen, und zwar an einem zweiten Ort in einem folgenden
Rahmen 216. Dieses Phänomen kann zu der irrtumlichen
Schußfolgerung führen, daß es mehrfache Objekte 102 zu
vermeiden bzw. zu umfahren gibt und zwar eins an jedem
Ort. Dieses Phänomen kann auch zur irrtümlichen Schluß
folgerung führen, daß das Objekt nur Rauschen ist, weil
es nur an einem gegebenen Ort für einen Rahmen 216 er
scheint.
Die Objektverfolgung wird nun beschrieben und zwar
hinsichtlich der Beispielanwendung, die oben angeführt
wurde.
Im allgemeinen werden Objekte wie folgt verfolgt:
Jedes Objekt 102, das von einem Sensor 204 erfaßt wird,
wird in einem ersten Rahmen 216 als mehrere Datenpunkte
repräsentiert. Jeder Datenpunkt gibt einen Leistungswert
an, und zwar bei einem gegebenen Winkel und einer Entfer
nung. Diese Repräsentation bzw. Darstellung, auf die Be
zug genommen wird als ein Rahmen von Datenpunkten, gibt
die Position des Objekts 102 bezüglich des Sensors 204
an.
In dem beispielhaften Ausführungsbeispiel, das einen
Radarsensor 204 verwendet, werden, wenn ein Objekt 102
vom Sensor 204 erfaßt wird, die Rückgaben in Form von
Zeit und Amplitude gegeben. Diese Daten müssen in Entfer
nungs- und Leistungsdaten bei jedem horizontalen Ab
tastwinkel umgewandelt werden. Im beispielhaften Ausfüh
rungsbeispiel wird dies getan durch die Ausführung einer
Schnell- bzw. Fast-Fourier-Transformation (FFT = Fast-
Fourier-Transform) mit den Daten bei jedem horizontalen
Abtastwinkel.
Nachdem die Daten empfangen worden sind, wird die
FFT ausgeführt, die Daten werden im Rahmen 216 gespei
chert und jeder Datenpunkt wird in globale Koordinaten
umgewandelt, so daß die Objektposition bekannt ist, und
zwar unabhängig von der Detektorposition. Die globalen
Koordinaten können bezogen werden auf einen festen Ort am
Boden, sowie beispielsweise ein Bedienungshauptquartier.
Somit bleibt ein stationäres Objekt 102 innerhalb des Re
ferenzglobalkoordinatenrahmens fixiert und zwar ungeach
tet dessen, wo das Gastfahrzeug 104 (und daher der Sensor
204) positioniert sind.
Wenn das Gastfahrzeug 104 fortschreitet, auf seinem
Weg bzw. Pfad voranzuschreiten, werden Objekte 102 erfaßt
und durch Datenpunkte in einem zweiten Rahmen 216 darge
stellt und zwar bei einer zweiten Tast- bzw. Aufnahme
zeit. Die Rahmendaten in globalen Koordinaten (vom vorhe
rigen Rahmen) werden in Winkel- und Entfernungskoordina
ten umgewandelt und zwar relativ zur Detektorposition
204, wenn der zweite Rahmen 216 erfaßt wird. Diese Daten
werden dann mit den Rahmendaten im zweiten Rahmen 216
kombiniert.
Die kombinierten Datenpunkte im zweiten Rahmen 216
werden dann in globale Koordinaten umgewandelt und in den
nächsten (dritten) Rahmen 216 eingegeben bzw. kartogra
fiert. Dieser Prozeß geht weiter, so daß Datenpunkte von
allen vorherigen Rahmen 216 in jeden darauffolgenden Rah
men 216 eingetragen werden und damit kombiniert werden.
Als Folge dieses Eintragens bzw. Kartografierens er
scheint ein Datenpunkt, der im ersten Rahmen erschien,
koinzident mit sich selbst in dem zweiten und den darauf
folgenden Rahmen 216, und zwar auch, wenn das Gastfahr
zeug 104 sich bewegt (d. h. auch wenn der Sensor 204 sich
bezüglich des Objekts 102 bewegt). Dies ist so, weil Da
ten von einem Rahmen 216 in globale Koordinaten konver
tiert werden, dann rückkonvertiert in den Referenzrahmen
und des Sensors 204 zur nächsten Tast- bzw. Aufnahmezeit,
dann in den neuen Rahmen 216 eingetragen bzw. kartogra
fiert werden.
Um das Eintragen besser zu verdeutlichen, ist es
hilfreich, die Erzeugung eines Rahmens 216 genauer zu
verstehen. Das Erfassungssystem 108 und die Erzeugung der
Rahmen 216 werden nun im Detail beschrieben und zwar in
Form eines beispielhaften Erfassungssystems, das ausge
wählt wurde, um eine Objektverfolgung in der beispielhaf
ten Umgebung zu implementieren.
Fig. 3 verdeutlicht Objekte 102 im Blickfeld eines
Sensors 204. Fig. 4 verdeutlicht eine Darstellung bzw.
Repräsentation eines Rahmens 216. Ein inhärentes Merkmal
des Erfassungssystems 108 ist ein Blickfeld 304. Das
Blickfeld 304 wird durch die Grenzen der horizontalen Ab
tastung des Sensors 204 definiert.
Gemäß dieses Beispiels ist der Sensor 204 eine Mil
limeterwellen-Radareinheit mit frequenzmodulierter konti
nuierlicher Welle (FMCW = Frequency Modulated Continous
Wave), die bei einer Frequenz von 77 Ghz arbeitet. Der
Sensor 204 tastet einen Ein-Grad-Strahl (als theta in
Fig. 3 verdeutlicht) über ein 64-Grad-Horizontalblickfeld
bei 1-Grad-Intervallen. RF-Energie, die bei ungefähr 77
Ghz zentriert ist wird übermittelt, und zwar in einem
Aufwärtsrampenteil und einem Abwärtsrampenteil. Das emp
fange Signal wird mit diesem übermittelten bzw. gesende
ten Signal gemischt und ein Zwischenfrequenz-IF-Signal
ergibt sich. Wenn Radarenergie von Objekten im Blickfeld
des Radars reflektiert wird, ist die Entfernung (Größe)
dieser Objekte direkt proportional zu Frequenzen in dem
IF-Signal.
Ein Antialias-Filter wird verwendet, um Frequenzen
über 500 kHz im IF-Signal zu eliminieren. Die Cut-Off-
Frequenz des Antialias-Filters ist 390 KHz, was einem Be
reich von 100 m entspricht. Das IF-Signal wird auch durch
einen Rˆ4-Filter geschickt, der den Effekt des Ausfalls
von Radarleistung eliminiert, wenn der Radius von der
Quelle ansteigt. Dies bedeutet, daß ein Objekt ungefähr
die gleiche Leistung bei 100 m hat wie bei 5 m.
Der Teil des IF-Signals, der der Aufwärtsrampen-Zeit
und der Abwärtsrampen-Zeit entspricht, wird werden) di
gitalisiert und an das Erfassungsberechnungs- bzw.
-verarbeitungssystem 208 gesendet. Jeder Aufwärtsrampen-
Teil und Abwärtsrampen-Teil des Signals wird in 256 Worte
oder Zeitinkremente digitalisiert. Der Rahmen 216 wird
vom Erfassungsberechnungs- bzw. -verarbeitungssystem 208
erzeugt und zwar durch Ausführen einer Schnell- bzw.
Fast-Fourier-Transformation (FFT) am Abwärtsrampen-Teil
der Daten und zwar bei jedem 1-Grad-Intervall. Die FFT
transformiert die 256 Punkte von Digitaldaten in die Lei
stungsdomäne bzw. den Leistungsbereich, was in 128 Werten
resultiert, die den reflektierten Leistungswerten ent
sprechen, und zwar bei 1-Meter-Inkrementen bis zu 128 Me
tern vom Sensor 204. Weil die Cut-Off- bzw. Abschneid-
Frequenz des Antialias-Filters bei 390 KHz ist, werden
die Werte nach 100 m ignoriert, und der Rahmen 216 wird
mit 64 Azimuthpositionen und Leistungswerten aus 100 m
erzeugt.
Ein zusätzlicher Schritt, der in diesem Stadium aus
geführt werden könnte, ist es, eine FFT am Aufwärtsram
pen-Teil auszuführen und die Information über die Objekt
verschiebung im Aufwärtsrampen- und Abwärtsrampen-Teil zu
verwenden, um die Relativgeschwindigkeit von den Objekten
im Blickfeld 304 zu berechnen. In der vorliegenden Erfin
dung wird dieser Schritt nicht ausgeführt und zwar wegen
der begrenzten Rechen- bzw. Verarbeitungsleistung, die
bei der Beispielhardware zur Verfügung steht, aber es
wurde erkannt, daß dieser Schritt zusätzliche Relativge
schwindigkeitsinformation hinzufügen könnte. Dieser
Schritt wird auch nicht ausgeführt, weil in diesem Stadi
um ein einzelnes Objekt 102 im Rahmen 216 durch mehrere
Datenpunkte (Leistungswerte im Rahmen 216) repräsentiert
werden kann. Rahmenraten bzw. Bildwiederholungsraten von
4-5 Hertz am Rahmen 216 gestatten es, daß die Objekte
102 mehrere Male pro Sekunde gesehen werden und haben die
Notwendigkeit für Relativgeschwindigkeitsinformation in
der vorliegenden Anwendung verringert, wo die Höchstge
schwindigkeit des Gastfahrzeugs 35 Meilen pro Stunde ist.
Das Ansehen der Objekte 102 in Mehrfachstrahlen und bei
Rahmenraten bzw. Bildwiederholungsraten von 4-5 Hertz
ist vorteilhafter, um Objekte mit kleiner Leistung zu
finden, als die Zeit zu nehmen, um die Relativgeschwin
digkeit der Objekte zu berechnen.
Die Daten im Rahmen 216 zeigen den Ort der Objekte
102 relativ zur Position des Sensors 204 an und zwar un
gefähr bei der Zeit, zu der die Rückgabe bzw. Rückmeldung
empfangen wird. Diese Zeit kann angenähert werden als un
gefähr gleich der Zeit, zu der die Abtastung bzw. der
Scan vollendet ist. So kann der Ausdruck "Tastzeit" bzw.
"Aufnahmezeit", wie er in diesem Dokument verwendet wird,
sich auf das Ende eines Schwenks beziehen, die Zeit, zu
der eine Rückgabe vom Sensor 204 empfangen wird, oder ir
gendeine andere Zeit, die sich auf den Empfang einer Si
gnalrückgabe bezieht.
In Fig. 3 sind zwei Objekte 102a, 102b im Blick
feld 304 des Erfassungssystems 108.
Nun bezugnehmend auf Fig. 4 wird jeder Rahmen 216
in eine Vielzahl von Abteilen (Bins) 404 aufgeteilt. Die
Abteile (Bins) werden verwendet, um den Ort von Daten
punkten zu repräsentieren, die Signalrückgaben von Objek
ten 102 im Blickfeld 304 repräsentieren. In einem Ausfüh
rungsbespiel wird das Blickfeld in 1-Grad-Imkremente in
der theta (Θ)-Richtung aufgeteilt und in 1-Meter- Inkremente in der Vorwärts- oder Führungsrichtung. Somit wird für ein Blickfeld mit einem Schwenk von 64 Grad und einer Tiefe von 100 m das Blickfeld in 6400 Inkremente aufgeteilt. Um dies einzurichten, kann der Rahmen 216 lo gisch definiert werden, so daß er 6400 Behälter bzw. Ab teilungen 404 besitzt. Jedes Abteil (Bin) 404 wird als ein Gitterpunkt in Fig. 4 verdeutlicht, wobei die Ordi nate den Schwenkwinkel definiert und die Abszisse die Tiefe definiert. Für jeden Datenpunkt der für ein erfaß tes Objekt zurückgegeben wird, wird ein Wert, der die Si gnalleistung darstellt in eine Abteilung 404 gesetzt wer den, und zwar assoziiert mit der Position des Teils des Objektes (in Schwenkwinkel und Tiefe) innerhalb des Blickfeld 304.
der theta (Θ)-Richtung aufgeteilt und in 1-Meter- Inkremente in der Vorwärts- oder Führungsrichtung. Somit wird für ein Blickfeld mit einem Schwenk von 64 Grad und einer Tiefe von 100 m das Blickfeld in 6400 Inkremente aufgeteilt. Um dies einzurichten, kann der Rahmen 216 lo gisch definiert werden, so daß er 6400 Behälter bzw. Ab teilungen 404 besitzt. Jedes Abteil (Bin) 404 wird als ein Gitterpunkt in Fig. 4 verdeutlicht, wobei die Ordi nate den Schwenkwinkel definiert und die Abszisse die Tiefe definiert. Für jeden Datenpunkt der für ein erfaß tes Objekt zurückgegeben wird, wird ein Wert, der die Si gnalleistung darstellt in eine Abteilung 404 gesetzt wer den, und zwar assoziiert mit der Position des Teils des Objektes (in Schwenkwinkel und Tiefe) innerhalb des Blickfeld 304.
Die obige Besprechung beschreibt, wie Datenpunkte,
die jedes Objekt 102 darstellen, in einem Rahmen 216 re
präsentiert werden. Was nun beschrieben wird ist, wie die
Objekte 102 von einem Rahmen 216 zu einem anderen Rahmen
216 verfolgt werden, wenn das Gastfahrzeug 104 sich ent
lang seines Pfades bewegt. Wie oben festgestellt, ist
dies wichtig, weil, wenn das Gastfahrzeug 104 sich be
wegt, der Ort eines stationären Objektes 102 sich in Be
zug auf den Sensor 204 verändern wird. Die Diskussion ist
aus Einfachheitsgründen bezüglich eines einzelnen Objek
tes 102a vorgesehen. Nach dem Lesen der folgenden Be
sprechung würde es einem Fachmann offensichtlich werden,
wie diese Technik auf eine Vielzahl von Objekten ange
wandt wird.
Es ist hilfreich, zuerst die Objektverfolgung zusam
menzufassen, bevor man den Prozeß im Detail beschreibt.
Einfach gesagt, ist es das Ziel bei der Objektverfolgung,
jedes Objekt 102 in globalen Koordinaten zu kartografie
ren, so daß das Objekt unabhängig von der Sensorposition
repräsentiert werden kann. Das kartografierte Objekt 102
wird dann in einem darauffolgenden Datenrahmen wieder
bzw. zurückkartografiert oder zurückeingetragen. D.h.
seine Position (die nunmehr in globalen Koordinaten be
kannt ist) wird in die Koordinaten des Sensors 204 einge
tragen und zwar zu der Zeit, zu der der darauffolgende
Datenrahmen aufgenommen wird. Infolgedessen wird ein sta
tionäres Objekt 102 auf sich selbst eingetragen bzw. kar
tografiert und zwar für jeden darauffolgenden Rahmen, in
dem es erscheint.
In einigen konventionellen Verfolgungssystemen sind
Objekte 102, die verfolgt werden, in sehr großen Entfer
nungen vom Radar. Ein Bereich eines Objektes kann irgend
wo von einigen paar km bis einigen 100 km sein. Infolge
dessen erscheint jedes Objekt als ein einzelner Daten
punkt in einem einzelnen Abteil (Bin) . Solche Objekte 102
könnten leicht verfolgt werden durch Eintragen des ein
zelnen Datenpunktes, der mit jedem Objekt verbunden bzw.
assoziiert ist, in den nächsten Datenrahmen.
Im Gegensatz dazu werden in der Beispielimplentie
rung genauso wie in einigen anderen Anwendungen Objekte
nahe des Fahrzeugs erfaßt. Weil sich die Beispielanwend
nung damit befaßt, Objekte zu vermeiden, die relativ nahe
des Fahrzeugs sind (z. B. in einem Bereich von 100 m oder
weniger) erscheinen Objekte in einem Rahmen 216 als meh
rere Datenpunkt. Wie unten beschrieben, stellt dies meh
rere einzigartige Probleme dar, die überwunden werden
müssen, wenn Objekte von einem Rahmen in den nächsten
eingetragen bzw. kartografiert werden.
In der Praxis wird die Genauigkeit des Radars durch
Umgebungseffekte eingeschränkt, durch Zielcharakteristi
ken und durch Instrumentenfehler. Umwelteffekte können
Mehrweg-Signal-Fortpflanzung und Brechung umfassen.
Zielcharakteristiken können Zieloberflächentexturen um
fassen, die in individuellen Streuungszentren resultie
ren, und abgerundete Kanten die in ungleichförmigen Rück
gaben um die Kanten des Ziels resultieren. Ein Instrumen
tenfehler, der durch saubere Ausrichtungs- und Kalibrati
onstechniken minimiert werden kann, schränkt die Leistung
genauso ein. Zusätzlich können Paralaxenfehler in dieser
Anwendung resultierten, wo der Sensor 204 über dem Boden
montiert ist und verwendet wird, um Objekte 102 auf dem
Boden zu verfolgen.
Weil diese Effekte in Objektbildern resultieren kön
nen, die zu wandern und zu schimmern scheinen, ist es
schwierig, ein Objekt 102 von einem Rahmen in den näch
sten einzutragen. Die Erfinder haben eine Lösung vorgese
hen, um dieses Problem zu überwinden. Gemäß der Lösung
der Erfinder werden die Objekte 102 nicht für sich als
Objekte eingetragen bzw. kartografiert. Statt dessen trägt
die Lösung der Erfinder individuell jeden Datenpunkt in
den darauffolgenden Rahmen ein. Als eine Folge wird jeder
Datenpunkt eines Objektes 102 in einem Rahmen in den dar
auffolgenden Rahmen eingetragen.
Dann wird ein Schritt, auf den Bezug genommen wird
als Punktkolorierung (Blop Colouring), ausgeführt, um die
kombinierten Datenpunkte in Sätze zu gruppieren, die Ob
jekte 102 repräsentiert.
Fig. 5 ist ein Betriebsflußdiagramm, das die Ob
jektverfolgung unter einer Serie von Rahmen 216 verdeut
licht. In einem Schritt 504 empfängt das Verfolgungssy
stem 212 einen aktuellen Datenrahmen 216. Der aktuelle
Datenrahmen 216 umfaßt eine Darstellung eines jeden Ob
jektes 102, das im Blickfeld 304 erfaßt wurde. Wie oben
festgestellt, wird in der Beispielumgebung jedes Objekt
typischerweise durch mehrere Datenpunkte repräsentiert.
Wie oben festgestellt, repräsentiert das Signal, das
in jeder Abteilung gespeichert ist, den Bereich, den Win
kel und die Leistung des Rückgabesignals. Der Leistungs
teil repräsentiert die Signalstärke, die von den erfaßten
Objekten 102 empfangen wurde. Die Signalstärke oder
-leistung kann eine Angabe der Größe, der Form und/oder
der Zusammensetzung des Objekts 102 sein. Die Leistung
bezieht sich auf die Anzahl der Rahmen, in der ein Objekt
102 erschienen ist.
Das Gastfahrzeug 104 fährt fort, sich auf seinem
Pfad zu bewegen. Während dieser Zeit macht das Erfas
sungssystem 108 eine nächste Abtastung, um Objekte 102
innerhalb des Blickfeldes 304 zu erfassen. Am Ende der
Abtastung hat das Erfassungsverarbeitungs- bzw.
-berechnungssystem 208 einen vollständigen Rahmen 216 von
Datenpunkten empfangen. Somit empfängt das Erfassungsver
arbeitungs- bzw. -berechnungssystem 208 in einem Schritt
512 einen nächsten Datenrahmen 216. Weil das Gastfahrzeug
104 sich bewegt hat, seitdem der letzte Rahmen 216 in
Schritt 504 empfangen wurde, ist es wahrscheinlich, daß
in diesem neuen Rahmen 216 das Objekt 102a von einem an
deren Satz von Datenpunkten in anderen Abteilungen 404
repräsentiert wird als es im alten Rahmen 216 wurde.
Daher werden in einem Schritt 516 die Datenpunkte,
die in Schritt 504 empfangen wurden, zuerst in globale
Koordinaten eingetragen bzw. kartografiert und dann in
diesen nächsten Rahmen 216 eingetragen, der in Schritt
512 empfangen wurde. Dies erzeugt einen neuen aktuellen
Rahmen 216, der Daten enthält, die in Schritt 512 empfan
gen wurden genauso wie Daten vom vorherigen Rahmen 216,
der in Schritt 504 empfangen wurden. Weil die Datenpunkte
vom vorherigen Rahmen 216 zuerst in globale Koordinaten
eingetragen wurden, und weil die Position des Erfassungs
systems 108 in globalen Koordinaten, zu der Zeit bekannt
ist, zu der nächste Rahmen 216 erzeugt wurde, können die
Datenpunkte vom vorherigen Rahmen 216 in den nächsten
Rahmen 216 eingetragen werden, und zwar bei der korrekten
Entfernungs- bzw. Winkelposition (d. h. im korrekten Ab
teil bzw. Bin 404). Um dies durchzuführen, werden die Da
tenpunkte in globale Koordinaten umgewandelt und dann in
das Koordinatensystem des Erfassungssystems 108 (d. h. Lo
kalkoordinaten) eingetragen und übersetzt bzw. überführt,
um die Position des Erfassungssystems 108 zu reflektieren
bzw. darzustellen und zwar zu der Zeit, zu der der näch
ste Rahmen 216 erzeugt wurde.
In diesem Schritt wird jeder Datenpunkt individuell
in globale Koordinaten eingetragen bzw. kartografiert und
zwar ohne Rücksicht darauf, welches Objekt er darstellt.
In anderen Worten werden gemäß der Erfindung "Objekte"
für sich nicht eingetragen bzw. kartografiert. Statt des
sen werden individuelle Datenpunkte kartografiert. Gemäß
eines Ausführungsbeispiels wird jeder Datenpunkt in glo
bale Koordinaten kartografiert und dann sofort in neue
Lokalkoordinaten kartografiert. Daher ist in diesem Aus
führungsbeispiel nur ein Datenpunkt jemals in globalen
Koordinaten und dann nur für eine sehr kurze Zeitperiode.
Der Algorhythmus zieht Vorteile aus dem impliziten Koor
dinatensystem der Bereichs- bzw. Anordnungsstruktur des
Rahmens selbst. D. h. Reihenindizes sind Azimuthe und
Spaltenindizes sind Entfernungen. Ein ähnlicher Bereich
bzw. eine ähnliche Anordnung, die das Gebiet umfaßt, das
vom Gastfahrzeug überquert wird, wäre enorm groß. Daher
wird im bevorzugten Ausführungsbeispiel jeder Punkt im
aktuellen bzw. laufenden Rahmen in globale Koordinaten
kartografiert worden und Osten), die dann verwendet wer
den um einen Azimuthindex und einen Entfernungsindex zu
berechnen. Diese Indizes zeigen dort hin, wo die
(abgeschwächten bzw. gedämpften) Leistungswerte vom aktu
ellen Rahmen in den nächsten Rahmen summiert werden. So
mit ist ein Speicher für nur ein Norden-Osten-Paar erfor
derlich, weil, er für jeden Datenpunkt wiederverwendet
wird.
Ein alternatives Ausführungsbeispiel fordert, die
Leistungswerte vom aktuellen Rahmen in vier Punkte im
nächsten Rahmen zu interpolieren, weil das Kartografieren
von globalen Koordinaten in Bereichs- bzw. Anordnungsin
dizes nicht exakt ist. Der kartografierte Punkt liegt im
mer (außer an den Kanten) in einem Bereich bzw. einer Re
gion, die von vier Punkten im nächsten Rahmen begrenzt
wird. Das bevorzugte Ausführungsbeispiel interpoliert
nicht, sondern kartografiert vielmehr die Leistungswerte
vom augenblicklichen Rahmen auf den nächsten Punkt im
nächsten Rahmen. Das alternative Ausführungsbeispiel wür
de einen Diffusionseffekt an den Kanten von Objekten be
wirken, was einen zusätzlichen Schwellenprozeß erfordert.
In einem Ausführungsbeispiel wird das globale Koor
dinatensystem definiert und zwar unter Verwendung eines
Referenzrahmens, der an einem festen Ort ist. Beispiels
weise könnte der Referenzrahmen des globalen Koordinaten
systems bei einer festen Basisstation zentriert sein,
oder bei einem Betriebshauptquartier. Mit einem solchen
stationären Referenzrahmen ist ein stationäres Objekt 102
immer bei den gleichen Koordinaten gelegen. Dies ist im
Gegensatz zum Referenzrahmen des Erfassungssystems 108,
der sich bewegt, wenn sich das Gastfahrzeug 104 bewegt.
Mit einem sich bewegenden Referenzrahmen erscheint ein
stationäres Objekt 102 bei verschiedenen Koordinaten,
wenn sich der Referenzrahmen relativ zum stationären Ob
jekt 102 bewegt.
Somit überträgt der Schritt 516 die Datenpunkte, die
vom Referenzrahmen des Erfassungssystems 108 gemessen
worden sind, in ein globales Koordinatensystem, das nicht
abhängig ist von der Position des Gastfahrzeugs 104. Um
diese Umwandlung auszuführen, ist es zuerst notwendig,
die Position des Erfassungssystems 108 zu kennen und zwar
in globalen Koordinaten zur Tast- bzw. Aufnahme zeit
(sample time) . Im beispielhaften Ausführungsbeispiel kann
die Position des Gastfahrzeugs 104 in globalen Koordinaten
bestimmt werden und zwar unter Verwendung von beispiels
weise einem GPS-Empfänger (Global Positioning System =
GPS = globales Positionsbestimmungssystem) . Wenn die Po
sition des Gastfahrzeugs 104 bekannt ist, kann eine ein
fache Übertragung vorgenommen werden, um die Position des
Erfassungssystems 108 in globalen Koordinaten zu bestim
men.
Sobald die Position des Erfassungssystem 108 bekannt
ist, werden die Winkel/Tiefekoordinaten, die vom Erfas
sungssystems 108 geliefert werden, übertragen bzw. über
setzt, um der Position des Erfassungssystems 108 in glo
balen Koordinaten Rechnung zu tragen. Als eine Folge wird
jeder Datenpunkt in globalen Koordinaten dargestellt, die
wahre Koordinaten sind, und zwar in Bezug auf die Basis
station und unabhängig von der Position des Gastfahrzeugs
104 und des Erfassungssystems 108. Die Mechanismen des
Koordinateneintragens bzw. der Koordinatentransformation
sind dem Fachmann wohl bekannt.
In einem Schritt 520 wird ein Punktkolorierung (Blop
Colouring) genannter Schritt ausgeführt und zwar basie
rend auf den Daten, die im neuen aktuellen bzw. laufenden
Rahmen 216 enthalten sind. In diesem Schritt wird jeder
Datenpunkt mit benachbarten Datenpunkten kombiniert, um
ein oder mehr Objekte aus der Sammlung von kartografier
ten Datenpunkten zu definieren. Dieser Schritt wird in
größerer Genauigkeit unten beschrieben.
In einem Schritt 524 wird eine Liste von Objekten
102 erzeugt, und zwar basierend auf den Resultaten der
Punktkolorierung. Diese Liste umfaßt den Winkel, die Ent
fernung und die Leistung eines jeden Objektes, das im
neuen aktuellen Rahmen 216 enthalten ist.
Wie von der Flußlinie 562 verdeutlicht, wird ein an
derer Datenrahmen 216 empfangen (Schritt 512), und die
aktuellen Daten werden in globalen Koordinaten eingetra
gen bzw. kartografiert und dann in den jüngsten Rahmen
216 zurückgetragen, um einen anderen neuen aktuellen Rah
men 216 zu erzeugen (Schritt 516). Die Punktkolorierung
wird wieder in Schritt 520 ausgeführt und die Objektliste
wird auf den neusten Stand gebracht. Dieser Prozeß fährt
fort, sich zu wiederholen und während es dies tut, wird
die Objektliste weiterhin auf den neuen Stand gebracht.
Fig. 6 ist ein Betriebsflußdiagramm, das den
Schritt 504 in größerer Genauigkeit verdeutlicht. Nun be
zugnehmend auf Fig. 6 wird ein Datenrahmen 216 in einen
Schritt 604 vom Sensor 204 empfangen. Dieser Rahmen 216
ist in einer Zeitdomäne bzw. in einem Zeitbereich, in dem
jedes Objekt durch Zeit- und Amplitudenwerte repräsen
tiert wird. In einem Schritt 608 führt das Verfolgungssy
stem 212 eine Schnell- bzw. Fast-Fourier-Transformation
mit diesen Daten aus, um eine Entfernung (Bereich), einen
Winkel und eine Leistung für jeden Datenpunkt zu bekom
men.
In einem Schritt 612 wird jeder Datenpunkt mit einem
Schwellenpegel verglichen, um zu bestimmen, ob der Daten
punkt gültig ist. Wenn sie unterhalb der Schwelle sind
(Entscheidungsblock 616), dann werden die Daten in einem
Schritt 620 fallengelassen. Wenn sie oberhalb der Schwel
le sind, wird der Datenpunkt in einem Schritt 624 einge
geben.
In einem Ausführungsbeispiel wird die Schwelle unter
Verwendung eines konstanten Falschalarmratenalgorhythmus
(CFAR = Constant False Alarm Rate) bestimmt. Dieser Al
gorhythmus sieht Mittel vor zum Bestimmen einer Schwelle
für jedes Bereichs- bzw. Entfernungsabteil (Bin) 404 und
zwar durch Vergleichen des Wertes eines Bereichs- bzw.
Entfernungsabteils (Bin) 404 mit dem Mittel seiner Nach
barn oder irgendeiner Gruppierung seiner Nachbarn. Siehe
Seiten 392-395 in "Introduction to Radar Systems" von
Merrill I. Skolnik, McGraw-Hill, Inc., 1980, für eine Be
schreibung eines CEAR-Radarempfängers.
In einem bevorzugten Ausführungsbeispiel wird jeder
Datenpunkt verglichen mit dem Mittel der Datenpunkte in 5
Bereichs- bzw. Entfernungsabteilen (Bins) 404 vor dem Da
tenpunkt und den 5 Bereichs- bzw. Entfernungsabteilen
(Bins) hinter dem Datenpunkt und mit denselben Bereichs
abteilen (Bins) 404 in den Radarstrahlen links und rechts
der Datenpunkte. Auf diese Weise wird ein Fenster um den
Datenpunkt mit den Abmessungen von 3 Strahlen im Azimuth
mal 11 in Entfernungs- bzw. Bereichsinkrementen gebildet.
Das Mittel der 32 Datenpunkte um den Datenpunkt wird ge
funden, und wenn der Punkt größer ist als 3x dieses Mit
tel, dann ist der Punkt oberhalb der Schwelle und der
Punkt wird als gültig angesehen, andernfalls wird der
Wert des Bereichs- bzw. Entfernungsabteils auf Null redu
ziert. Verschiedene andere Kriterien mit Bezug auf die
Nachbarn um den Datenpunkt könnten verwendet werden, um
die Schwelle zu bestimmen.
Wie oben festgestellt, wird der Schritt 520 der
Punktkolorierung (Blob Colouring) ausgeführt, um zu be
stimmen, welche Datenpunkte kombiniert werden können, um
die Anwesenheit eines Objekts anzuzeigen. Die Punktkolo
rierung ist eine Technik, die im Computersicht- bzw. Com
puterbilderkennungsgebiet verwendet wird, um Objekte in
einem Computerbild zu kennzeichnen. Ein Punktkolorierungs
alogrhythmus ist auf Seite 151 von "Computer Vision",
Ballad und Braun, Prentis-Hall, Inc., 1982, gegeben. Die
ser Schritt wird nun mit größerer Genauigkeit beschrie
ben. Fig. 7 ist ein Diagramm, das ein repräsentatives
Szenario für die Punktkolorierung verdeutlicht. Fig. 8
ist ein Betriebsflußdiagramm, das den Prozeß der Punktko
lorierung gemäß eines Ausführungsbeispiels verdeutlicht.
Fig. 7 verdeutlicht einen Teil eines Rahmens 216.
Weil die Punktkolorierung, die nach Rahmen 216 ausgeführt
wird, mit Datenpunkten von vorherigen Rahmen 216 kombi
niert ist (d. h. Schritte 504 - 516), ist der Teil von
Rahmen 216, der in Fig. 7 verdeutlicht ist, ein Teil ei
nes Rahmens von kombinieren Datenpunkten. Jedes Abteil
701, 702, 703 und folgende enthält einen Leistungswert.
Für Abteile, für die es keine Datenpunkte gab, ist der
Leistungswert Null. Für Abteile, in denen es eine Rückga
be bzw. Rückmeldung in einem oder mehreren früheren Rah
men und/oder im aktuellen Rahmen gab gibt es einen Lei
stungswert. Der Leistungswert ist der Leistungswert vom
aktuellen (d. h. den allerneuesten) Rahmen 216, summiert
mit dem abgeschwächten bzw. gedämpften Leistungswert, der
von einem oder mehreren der vorherigen Rahmen eingetragen
wurde.
In einem Schritt 804 wird der Rahmen 216 abgetastet,
um nach Abteilen (Bins) 701, 702, 703 und folgende zu su
chen, in denen Leistungswerte sind, die nicht Null sind.
In dem in Fig. 7 verdeutlichten Beispiel ist das erste
mit einem Nicht-Null-Leistungswert im Teil des Rahmens
216 angetroffene Abteil (Bin) das Abteil 701.
Wenn ein Abteil (Bin) mit einem Nicht-Null-Wert an
getroffen wird, werden vorher abgetastete benachbarte Ab
teile (Bins) geprüft, um zu bestimmen, ob das gerade ge
troffene Abteil (Bin) benachbart zu einem Abteil (Bin)
mit einem Leistungswert ist. Dies wird bei Schritt 808
verdeutlicht. Weil das Abteil (Bin) 701 das erste Abteil
(Bin) ist, das mit einem Nicht-Null-Wert getroffen wird
(Abteil 702 ist noch nicht geprüft worden), ist die Ant
wort auf diese Frage nein und der Betrieb fährt bei
Schritt 812 fort.
Im Schritt 812 wird das getroffene Abteil als eine
neue "Box" bezeichnet und der Leistungswert, der in dem
Abteil enthalten ist, wird in einer Tabelle unter dieser
Bezeichnung gespeichert. In dem in Fig. 7 verdeutlichten
Beispiel wird das Abteil 701 als Box 1 bezeichnet und
sein Leistungswert wird in einer Tabelle unter Box 1 ge
speichert.
Ein zweites Beispiel der Schritte 804, 808 und 812
wird verdeutlicht durch die Untersuchung von Abteil (Bin)
704. Wenn das Abteil (Bin) 704 als eines mit einem Nicht-
Null-Wert getroffen wird, wird das benachbarte Abteil
(Bin) 703 in Schritt 808 geprüft denn wir nicht in der
oberen Reihe des Rahmens 216 sind, wird das Abteil (Bin)
794 überhalb des Abteils (Bin) 704 auch geprüft). Weil es
keine benachbarten zuvor geprüften Abteile (Bins) mit
Nicht-Null-Leistungen gibt, wird das Abteil (Bin) 704 als
eine neue Box, Box 2, bezeichnet, seine Leistung wird in
Box 2 gespeichert und ein Zähler für Box 2 wird gesetzt,
um anzuzeigen, daß ein Abteil (Bin) in Box 2 ist.
Über die Flußlinie 862 fährt der Scan bzw. Abtastbe
trieb fort, und zwar bei Schritt 804, bis das nächste Ab
teil (Bin) mit einem Nicht-Null-Wert angetroffen wird.
Wenn ein Abteil (Bin) angetroffen wird, das einen Nicht-
Null-Leistungswert hat, und dieses Abteil (Bin) ist be
nachbart zu einem zuvor abgetasteten Abteil (Bin), das
auch eine Nicht-Null-Leistung hat, fährt der Betrieb bei
Schritt 816 fort.
In Schritt 816 wird das neue Abteil (Bin) mit der
selben Bezeichnung bezeichnet, die für das benachbarte
Abteil (Bin) vorgesehen ist, seine Leistung wird kombi
niert mit dem Leistungswert, der für diese Box gespei
chert ist (Schritt 820), und ein Zähler, der die Anzahl
der Abteile (Bins) in der Box anzeigt, wird um 1 inkre
mentiert (Schritt 824). Auf die Box, die einen oder meh
rere Datenpunkte umfaßt, kann Bezug genommen werden als
ein "Punkt" (Blop). Mehrere Beispiele für diese sind in
Fig. 7 verdeutlicht.
In einem ersten Beispiel beachte man das Abteil
(Bin) 702. Das Abteil (Bin) 702 hat einen Nicht-Null-Wert
und ist benachbart zu Abteil (Bin) 701, das zu Box 1 ge
hört. In den Schritten 816 bis 824 wird das Abteil (Bin)
702 als zu Box 1 zugehörig bezeichnet, sein Leistungswert
wird zu dem Wert von Box 1 addiert, und der Abteilzähler
(Bincounter) der Box 1 wird inkrementiert. Zu dieser Zeit
kann die Box 1 visualisiert werden als eine Grenzbox, die
die Abteile (Bins) 701 und 702 umrundet, und zwar durch
die dickseitige Box um diese Abteile (Bins) herum ver
deutlicht.
Ein zweites Beispiel der Schritte 816 - 824 wird bei
Abteil (Bin) 714 verdeutlicht. Dieses Abteil (Bin) hat
einen Nicht-Null-Wert und ist benachbart zum Abteil (Bin)
704. In den Schritten 816-824 wird das Abteil (Bin) 714
als zu Box 2 zugehörig bezeichnet, sein Leistungswert
wird zum Wert der Box 2 addiert und der Abteilzähler der
Box 2 wird inkrementiert.
Fortfahrend bei Schritt 828 wird, wenn ein Abteil
(Bin) angetroffen wird und als zur Box zugehörig bezeich
net wird, die zu einem benachbarten Abteil (Bin) zugeord
net ist, das andere benachbarte Abteil (Bin) geprüft, um
zu sehen, ob es auch nicht Null ist und wird auch be
zeichnet. Wenn die Bezeichnung auf dem zweiten benachbar
ten Abteil (Bin) unterschiedlich ist (d. h. wenn es als zu
einer anderen Box zugehörig bezeichnet ist) werden die
Boxen in einem Schritt 832 kombiniert und zwar durch Ad
dieren der Leistungswerte und Abteilzähler (Bincounter)
für beide Boxen.
Ein Beispiel für die Schritte 828 und 832 ist bei
Abteil (Bin) 734 verdeutlicht. Während der Schritte 808-
824 wird das Abteil (Bin) 734 bezeichnet und zwar als zur
Box 1 zugehörig und mit Box 1 kombiniert. Wenn das Abteil
(Bin) 734 verglichen wird mit dem Abteil (Bin) 724, wer
den die Leistungswerte für Box 1 kombiniert mit dem Lei
stungswert für Box 2 und die Abteilzähler werden kombi
niert. Die Grenzbox kann als alle Abteile (Bins), die als
Boxen 1 und Boxen 2 bezeichnet sind, umfassend beschrie
ben werden. Effektiv werden Punkt (Blob) 1 und Punkt
(Blob) 2 zusammen verschmolzen. Als eine Folge repräsen
tieren die kombinierten Punkte (Blobs) 1 und 2 ein Ob
jekt.
In einem Ausführungsbeispiel dieser Erfindung wird
zusätzliche Information gespeichert, wenn der Anfangs
durchgang über den Rahmen 216 von Datenpunkten ausgeführt
wird. Dies eliminiert die Notwendigkeit für einen zusätz
lichen oder teilweisen Durchgang über die Datenpunkte,
wenn Datenpunkte kombiniert werden und ihre Orte bzw.
Plazierungen gefunden werden. Der Algorithmus bei Ballard
und Braun, der oben erwähnt wird, erforderte zusätzliche
Übergänge. Wie oben festgestellt, wird die Darstellung
der Punkte als eine Grenzbox gehalten und wenn 2 Punkte
kombiniert werden müssen, dann werden die Grenzboxabmes
sungen des ersten Punktes ausgedehnt, um die Abmessungen
des zweiten Punktes zu umfassen. Dies eliminiert die Not
wendigkeit, einen zusätzlichen Durchgang oder teilweisen
Durchgang über die Daten auszuführen, um die Punkte zu
kombinieren.
In einem Ausführungsbeispiel der Punktkolorierung
(Blob Colouring) wird die Bezeichnung (beschrieben als
eine 1 oder 2 der obigen Beschreibung), die für ein Ob
jekt verwendet wird, als ein aktueller Softwarepointer
verwendet (Computerspeicherposition der Information), und
zwar zu einer Informationsstruktur über den Punkt. Diese
Information kann folgendes aufweisen: die nahe rechte
Entfernung und Azimuth des Punktes, die entfernte linke
Entfernung und Azimuth des Punktes, den Zentroid, die
Summe der Leistung der Datenpunkte in dem Punkt, die An
zahl der Punkte in dem Punkt (Blob) und die Maximallei
stung eines Datenpunktes in dem Punkt (Blob) . Durch die
Verwendung dieser Technik wird die Liste der Punkte und
ihrer relevanten Information vervollständigt. Diese Liste
von Punkt- bzw. Blob-Pointern wird durchsucht, um zu be
stimmen, wann das Fahrzeug zu verlangsamen oder zu stop
pen ist.
Weil die Rahmen 216 mit einem Datenpunkt gleichzei
tig kartografiert werden, ist dieser Schritt der Punktko
lorierung wichtig, um die Datenpunkte in ein oder mehrere
Objekte 102 zu kombinieren.
Aufgrund der Ungleichförmigkeit der Objekte
(abgerundete Kanten, Streupunkte usw.) und der Schwierig
keit, die verbunden ist mit dem Zuordnen eines Schwellen
wertes zu einem kleinen Objekt wie einem Felsen oder
Stein, der auf einer Straße mit derselben Konsistenz
liegt, können einige oder alle Datenpunkte, die ein Ob
jekt repräsentieren (insbesondere an den Kanten) nicht in
jedem Rahmen auftreten. Als eine Folge erscheint es, daß
das Objekt Größe und Form mit jedem Rahmen ändert und es
kann sogar aus einigen Rahmen verschwinden. Dies macht es
extrem schwierig, ein Objekt 102 auf sich selbst im näch
sten Rahmen zu kartografieren.
Jedoch stellen diese Effekte keine ersten Probleme
für die Objektverfolgung dar, weil das Kartografieren ge
mäß der Erfindung mit einem Datenpunkt zu einem Zeitpunkt
ausgeführt wird und weil die Punktkolorierung auf den ge
sammelten Rahmen ausgeführt wird. Das Summieren der Lei
stungen in aufeinanderfolgende Rahmen gestattet es, daß
die Rückgaben bzw. Rückantworten in gewisser Weise über
die Zeit gemittelt werden, und somit die Effekte un
gleichmäßiger Rückgaben bzw. Rückantworten über die Zeit
minimiert werden.
Wie oben bemerkt, kann das Erfassungs- bzw. Detekti
onssystem 108 unter Verwendung einer Anzahl verschiedener
Erfassungs- bzw. Detektionstechniken und einer Anzahl
verschiedener Systemarchitekturen oder -konstruktionen
implementiert werden. Eine Beispielimplementation des Er
fassungssystems 108 wird besprochen.
Fig. 9 ist ein Blockdiagramm, das eine Beispielim
plementation des Detektions- bzw. Erfassungssystems 108
verdeutlicht, die mit dem Navigationssystem 212 über ein
Interface verbunden ist. Das Erfassungssystem 108 weist
in diesem beispielhaften Ausführungsbeispiel einen Haupt
prozessor 904 auf, einen DSP (DSP = Digital Signal
Processor = Digital-Signal Prozessor) 908 und Interfaces
bzw. Schnittstellen 916 zur eigentlichen Erfassungsein
heit, in diesem Fall Radar 920.
Zusätzliche Nahradareinheiten bzw. Näherungsradar
einheiten 922, 924, 926, können vorgesehen werden, um Nä
herungs- bzw. Nahalarme auszulösen. Wenn Näherungsradar
einheiten 922, 924, 926 vorgesehen werden, kann ein Par
allel-Input/Output 912 erforderlich sein, um die Alarme
mit dem Prozessor 904 über ein Interface in Verbindung zu
bringen.
Die Interfaces bzw. Schnittstellen 916 empfangen Da
tenpunkte im Rahmen 216 über einen Signalpfad 962. Rahmen
262 -datenpunkte sind im Format Amplitude/Zeit. Die
Schnittstelle 916 liefert diese Daten an den DSP 908 über
den Signalpfad 964. Im DSP 908 werden die Datenpunkte in
das Leistungs/Entfernungs-Format umgewandelt und werden
über einen CEAR-Algorythmus (CFAR = Constant False Alarm
Rate = konstante Falschalarm Rate) über eine Schwellen
wert ausgefiltert, d. h. einer Schwellenwertbehandlung un
terworfen. Der DSP 908 liefert diesen umgewandelten
schwellenwertbehandelten Rahmen zum DSP 904 über den Si
gnalpfad 966.
Der Hauptprozessor 904 liefert Schwellensetz- bzw.
-einstellungsanforderungen und Systemauflösungsinformation
an den DSP 908 über der Signalpfad 968. Der Hauptprozes
sor 904 erzeugt und sendet auch Befehle für die Rahmen
bzw. Bildwiederholungsrate, die Auflösung und Abtastungs
bzw. Scan-Start/Stop an das Radar 920 über den Signalpfad
974.
Der Hauptprozessor 904 liefert Objekt- und Geschwin
digkeitsinformation an das Navigationssystem 212 über Si
gnalpfad 972. Das Navigationssystem 212 liefert Routen-
und Positionsinformation an DSP 904 über Signalpfad 974.
Gemäß eines Ausführungsbeispieles wird ein Doppel
puffersystem für die Rahmen 216 verwendet. In diesem Aus
führungsbeispiel wird, wenn der erste Datenrahmen empfan
gen wird, dieser in einem ersten Puffer gespeichert, wäh
rend der zweite empfangene Datenrahmen in einem zweiten
Puffer gespeichert wird. Nachdem die Daten vom ersten
Rahmen 216 in globale Koordinaten umgewandelt sind und in
einem zweiten Rahmen 216 im zweiten Puffer eingetragen
bzw. kartografiert sind, kann der erste Puffer gelöscht
werden. Dieser erste Puffer ist nun verfügbar für einen
nächsten Rahmen 216. Dieser Betrieb bzw. Vorgang setzt
sich fort, so daß das Speichern von jedem neuen Rahmen
216 zwischen den Puffern abgewechselt wird.
Gemäß des beschriebenen Verfahrens können, wenn ein
Objekt 102 ein reales Objekt ist (im Gegensatz zu einer
Rückgabe bzw. Rückmeldung, die auf ein Rauschen zurückzu
führen ist), viele seiner Datenpunkte in jedem neuen Rah
men 216 erscheinen und zwar solange wie es im Blickfeld
304 ist. Wie oben beschrieben, werden für jeden Rahmen 216
die Datenpunkte des Objektes erfaßt, kartografiert
bzw. eingetragen und zu dem Signal addiert, das sich
selbst repräsentiert und zwar im nächsten Rahmen 216.
Wenn ein Datenpunkt kontinuierlich in zahlreichen Rahmen
erscheint, würde der Wert, der für die Leistung dieses
Datenpunktes gespeichert ist, auf unendlich wachen. Daher
wird, bevor Daten in den nächsten Rahmen 216 addiert wer
den (d. h. vor Schritt 516) der Leistungswert für jeden
Datenpunkt abgeschwächt bzw. gedämpft. In einem bevorzug
ten Ausführungsbeispiel liegt die Abschwächung bzw. Dämp
fung bei einem Faktor von 2. Als eine Folge werden für
einen Datenpunkt, der in zahlreichen Rahmen erscheint,
die Werte, die für die Leistung des Datenpunktes gespei
chert sind, nicht unendlich erreichen, sondern werden
statt dessen auf einen Maximumwert wachsen und zwar ab
hängig vom Abschwächungs- bzw. Dämpfungsfaktor.
Als eine Folge der Dämpfung kann ein Datenpunkt in
mehreren Rahmen erscheinen müssen, bevor er als Teil ei
nes Objektes registriert wird. Infolgedessen wird Rau
schen aus dem System gefiltert. Dies kommt daher, weil
falsche Objekte, die in nur einem oder zwei Rahmen er
scheinen, schließlich aus dem Datensatz heraus gedämpft
werden. Auch eine Folge der Dämpfung ist, wenn ein Objekt
(oder ein Teil eines Objektes) aus irgendeinem Grund aus
einem oder zwei Rahmen herausfällt, die Auswirkung über
die Zeit minimal.
Das Eintragen bzw. Kartografieren der Datenpunkte
gemäß der Erfindung kann auf nur jene Abteile (Bins) in
nerhalb des definierten Suchgebietes begrenzt werden.
Dies minimiert das Ausmaß an Prozessorzeit und Speicher
platz, die erforderlich sind, um Objekte 102 zu verfol
gen. In einem Ausführungsbeispiel wird das Kartografieren
und die Punktkolorierung nur für ein begrenztes Suchge
biet ausgeführt, welches ein Untersatz- bzw. Unterabteil
des ganzen Rahmens ist. In diesem Ausführungsbeispiel
bildet sich das Suchgebiet des alten Rahmens ab bzw. es
trägt sich ein in das Suchgebiet des neuen Rahmens. Daher
kann ein Punkt (Point) des alten Rahmens eliminiert wer
den und zwar entweder dadurch, daß er außerhalb des Such
gebietes im alten Rahmen liegt, oder durch eine Eintra
gung in eine Zelle, die außerhalb des Suchgebietes des
neuen Rahmens liegt. Dies verringert sehr stark den er
forderlichen Rechenaufwand.
Während verschiedener Ausführungsbeispiele der vor
liegenden Erfindung oben beschrieben worden sind, sei be
merkt, daß sie nur beispielhaft dargelegt wurden und
nicht einschränkend. Somit sollten die Weite und das An
wendungsgebiet der vorliegenden Erfindung nicht begrenzt
werden durch irgendeines der oben beschrieben beispiel
haften Ausführungsbeispiele, sondern sollte nur in Über
einstimmung mit den folgenden Ansprüchen und ihrem äqui
valenten Punkten definiert bzw. dargelegt werden.
Zusammenfassen kann folgendes gesagt werden:
Ein System und ein Verfahren zur Verfolgung von Ob
jekten empfängt erst Rückgaben bzw. Rückantworten von Ob
jekten in einem Blickfeld eines Detektors. Der Sensor er
zeugt einen aktuellen Rahmen von Datenpunkten, wobei ein
Objekt im Blickfeld durch multiple bzw. mehrfache Daten
punkte dargestellt werden kann. Die Datenpunkte werden in
globale Koordinaten umgewandelt und in einen nächsten
Rahmen von Datenpunkten eingetragen bzw. kartografiert
und zu einer nächsten Tast- bzw. Aufnahmezeit generiert,
um einen neuen aktuellen Rahmen von Datenpunkten zu er
zeugen. Dieser neue aktuelle Rahmen von Datenpunkten wird
verarbeitet, um eine Objektliste zu bilden, und zwar mit
Orts- und Leistungsinformation, die Information von einem
oder mehreren vorherigen Rahmen umfaßt. Dieses Eintragen
bzw. dieses Kartografieren und Verarbeiten, um die Ob
jektliste zu bilden, gestattet es, daß das System Ziele
mit schwachem Signal erfaßt und zwar in einer Umgebung
mit überhäuftem bzw. ungleichmäßigem Grund und minimiert
das Auftreten von Fehlalarmen.
104 = Host Vehicle = Gastfahrzeug
108 = Detection System = Erfassungssystem
204 = Sensor = Senor
208 = Detection Processing System = Erfassungs-Be rechnungs- bzw. Verarbeitungssystem
212 = Navigation System = Navigationssystem
204 = Sensor = Senor
208 = Detection Processing System = Erfassungs-Be rechnungs- bzw. Verarbeitungssystem
212 = Navigation System = Navigationssystem
104 = Field of View = Blickfeld
216 = Frame = Rahmen
216 = Frame = Rahmen
504 = receive a current frame 216 of data = empfange
einen aktuellen Datenrahmen 216
508 = receice a next frame 216 of data = empfange einen nächsten Datenrahmen
512 = map current frame data into gobal coordinates then into the next frame 216 to create a new current fra me 216 = kartografiere die aktuellen Rahmendaten in glo bale Koordinaten, dann in den nächsten Rahmen 216, um ei nen neuen aktuellen Rahmen 216 zu erzeugen
516 = Do Blop Colouring = führe Punktkolorierung aus
520 = create/update list of objects = erzeu ge/aktualisiere Objektliste
508 = receice a next frame 216 of data = empfange einen nächsten Datenrahmen
512 = map current frame data into gobal coordinates then into the next frame 216 to create a new current fra me 216 = kartografiere die aktuellen Rahmendaten in glo bale Koordinaten, dann in den nächsten Rahmen 216, um ei nen neuen aktuellen Rahmen 216 zu erzeugen
516 = Do Blop Colouring = führe Punktkolorierung aus
520 = create/update list of objects = erzeu ge/aktualisiere Objektliste
start = Start
604 = receive frame of data from detector = empfange Datenrahmen vom Detektor
608 = perform fast-fourier-transform on frame data = führe Schnell- bzw. Fast-Fourier-Transformation an den Rahmendaten aus
612 = compare data points to threshold = vergleiche Datenpunkte mit dem Schwellenwert
616 = below threshold? = unterhalb der Schwelle?
620 = discart datapoint = lasse Datenpunkt fallen
624 = enter data on bin as range, angle and power = gib Daten in Abteil (Bin) ein als Entfernung, Winkel und Leistung
done = fertig
604 = receive frame of data from detector = empfange Datenrahmen vom Detektor
608 = perform fast-fourier-transform on frame data = führe Schnell- bzw. Fast-Fourier-Transformation an den Rahmendaten aus
612 = compare data points to threshold = vergleiche Datenpunkte mit dem Schwellenwert
616 = below threshold? = unterhalb der Schwelle?
620 = discart datapoint = lasse Datenpunkt fallen
624 = enter data on bin as range, angle and power = gib Daten in Abteil (Bin) ein als Entfernung, Winkel und Leistung
done = fertig
804 = scan and look for non-zero values = taste ab
und suche nach Nicht-Null-Werten
808 = is bin adjacent to a non-zero-bin? = Ist das Abteil (Bin) benachbart zu einem Abteil (Bin) ungleich Null?
812 = lable as a new box and store power = bezeichne als eine neue Box und speichere die Leistung
816 = lable as previous adjacent bin is labled = be zeichne, wie das vorherige benachbarte Abteil (Bin) be zeichnet ist
820 = combine power of bin with power stored in box = kombiniere Leistung des Abteils (Bin) mit der Leistung, die in der Box gespeichert ist
824 = increment number of bins in box = inktementie re die Anzahl der Abteilungen in der Box
828 = is bin to a non-zero bin a different label? = ist das Abteil (Bin) benachbart zu einem Nicht-Null- Abteil (Bin) mit unterschiedlicher Bezeichnung?
832 = combine boxes = kombiniere Boxen
808 = is bin adjacent to a non-zero-bin? = Ist das Abteil (Bin) benachbart zu einem Abteil (Bin) ungleich Null?
812 = lable as a new box and store power = bezeichne als eine neue Box und speichere die Leistung
816 = lable as previous adjacent bin is labled = be zeichne, wie das vorherige benachbarte Abteil (Bin) be zeichnet ist
820 = combine power of bin with power stored in box = kombiniere Leistung des Abteils (Bin) mit der Leistung, die in der Box gespeichert ist
824 = increment number of bins in box = inktementie re die Anzahl der Abteilungen in der Box
828 = is bin to a non-zero bin a different label? = ist das Abteil (Bin) benachbart zu einem Nicht-Null- Abteil (Bin) mit unterschiedlicher Bezeichnung?
832 = combine boxes = kombiniere Boxen
212 = navigation system = Navigationssystem
904 = main processor board = Hauptprozessor-Board
908 = DSP board = DSP-Board
912 = parallel I/O board = Parall-I/O-Board
916 = interface board = Interface-Board bzw. Schnittstellenbord
920 forward looking radar = nach vorne sehendes Radar
922 = left front proximity radar = Näherungsradar links vorne
924 = right front proximity radar = Näherungsradar rechts vorne
926 = rear proximity radar = hinteres Näherungsradar
904 = main processor board = Hauptprozessor-Board
908 = DSP board = DSP-Board
912 = parallel I/O board = Parall-I/O-Board
916 = interface board = Interface-Board bzw. Schnittstellenbord
920 forward looking radar = nach vorne sehendes Radar
922 = left front proximity radar = Näherungsradar links vorne
924 = right front proximity radar = Näherungsradar rechts vorne
926 = rear proximity radar = hinteres Näherungsradar
Claims (24)
1. Verfahren zum Verfolgen von Objekten unter Ver
wendung eines Detektions- bzw. Erfassungssystems mit ei
nem Sensor, der Objekte in einem Blickfeld fühlt, das
folgende Schritte aufweist:
- (A) Fühlen von Objekten im Blickfeld des Detektors;
- (B) Erzeugen eines aktuellen Rahmens von Datenpunk ten, wobei die erwähnten Datenpunkte ein erfühltes Objekt im erwähnten Schritt (A) darstellen;
- (C) Umwandeln der Datenpunkte in Datenpunkte, die in globalen Koordinaten dargestellt sind; und
- (D) Eintragen bzw. Kartografieren der erwähnten um gewandelten Datenpunkte in einen nächsten Rahmen von Da tenpunkten, um einen neuen Rahmen von Datenpunkten zu er zeugen, wobei der neue Rahmen von Datenpunkten sowohl Ob jekte darstellt, die in dem erwähnten nächsten Rahmen de tektiert bzw. erfaßt wurden, als auch Objekte, die in ei nem oder mehrerer vorherigen Rahmen detektiert bzw. er faßt wurden.
2. Verfahren nach Anspruch 1, das weiter den Schritt
des Wiederholens der Schritte (C) und (D) für jeden neuen
Rahmen von Datenpunkten wiederholt.
3. Verfahren nach Anspruch 1, das weiter nach dem
erwähnten Schritt (D) die folgende Schritte aufweist:
- (E) Ausführen einer Punktkolorierung (Blob Colou ring) am neuen Rahmen von Datenpunkten, um Objekte zu de finieren; und
- (F) Anfertigen einer Liste der erwähnten Objekte, die in Schritt (E) definiert worden sind.
4. Verfahren nach Anspruch 3, wobei der erwähnte
Schritt (E) folgende Schritte aufweist:
- (i) Abtasten des erwähnten neuen Rahmens, um ein Ab teil (Bin) mit einem Datenpunkt zu lokalisieren, der ei nen Nicht-Null-Leistungswert besitzt;
- (ii) Bezeichnen bzw. Etikettieren des erwähnten lo kalisierten Abteils (Bin) mit einer neuen Bezeichnung bzw. einem neuen Etikett, wo das erwähnte lokalisierte Abteil (Bin) nicht benachbart zu einem vorher bezeichne ten Abteil (Bin) ist; und
- (iii) Bezeichnen bzw. Etikettieren des erwähnten lo kalisierten Abteils (Bin) mit derselben Bezeichnung, die dem erwähnten, zuvor bezeichnetem Abteil (Bin) zugeordnet war, wo das lokalisierte Abteil (Bin) benachbart zu dem zuvor bezeichneten Abteil (Bin) ist.
5. Verfahren nach Anspruch 4, das weiter den Schritt
aufweist, den erwähnten Leistungswert von jedem der loka
lisierten Abteile (Bins) mit derselben Bezeichnung zu
kombinieren.
6. Verfahren nach Anspruch 5, das weiter den Schritt
aufweist, einen Zähler zu inkrementieren und zwar für ei
ne der erwähnten Bezeichnungen bzw. Etiketten zu jedem
Zeitpunkt, zu dem ein Abteil (Bin) mit der erwähnten Be
zeichnung bezeichnet wird.
7. Verfahren nach Anspruch 4, das weiter folgenden
Schritt aufweist:
Kombinieren aller der erwähnten Abteile (Bins) mit ersten und zweiten Bezeichnungen, wo bzw. wobei das er wähnte lokalisierte Abteil (Bin) benachbart ist zu einem vorher lokalisierten Abteil (Bin) mit einer ersten Be zeichnung und einem zuvor lokalisierten Abteil (Bin) mit einer zweiten Bezeichnung.
Kombinieren aller der erwähnten Abteile (Bins) mit ersten und zweiten Bezeichnungen, wo bzw. wobei das er wähnte lokalisierte Abteil (Bin) benachbart ist zu einem vorher lokalisierten Abteil (Bin) mit einer ersten Be zeichnung und einem zuvor lokalisierten Abteil (Bin) mit einer zweiten Bezeichnung.
8. Verfahren nach Anspruch 1, wobei der erwähnte
Schritt (B) die folgende Schritte aufweist:
- (i) Empfangen eines Zeit- und Amplitudensignals vom Detektor für jedes Objekt;
- (ii) Durchführen einer Schnell- bzw. Fast-Fourier- Transformation an jedem Zeit- und Amplitudensignal, um eine Vielzahl von Datenpunkten für jedes Objekt zu erzeu gen;
- (iii) Vergleichen eines jeden Datenpunktes mit einem Schwellenwert;
- (iv) Fallenlassen der Datenpunkte unter den erwähn ten Schwellenwert; und
- (v) Erzeugen des erwähnten Rahmens von Datenpunkten unter Verwendung der nicht fallengelassenen Datenpunkte.
9. Verfahren nach Anspruch 8, das weiterhin den fol
genden Schritt aufweist: Bestimmen eines Schwellenwertes,
für den Datenpunkt, wobei der erwähnte Schritt des Be
stimmens des Schwellenwertes folgende Schritte aufweist:
- (i) Auswählen eines Datenpunktes, der einer Schwel lenwertbehandlung unterworfen werden soll;
- (ii) Bestimmen eines Wertes von anderen Datenpunkten in der Nähe des erwähnten ausgewählten Datenpunktes; und
- (iii) Mitteln des erwähnten Wertes der benachbarten Datenpunkte, um den erwähnten Schwellenwert zu bestimmen.
10. Verfahren nach Anspruch 9, wobei der erwähnte
Schritt des Bestimmens eines Wertes aus anderen Daten
punkten einen Schritt des Bestimmens eines Wertes für je
den von 8 Datenpunkten aufweist, die sofort bzw. direkt
benachbart zum erwähnten Datenpunkt sind.
11. Verfahren nach Anspruch 1, das weiter zwischen
den erwähnten Schritten (C) und (D) einen Schritt des
Dämpfens eines Leistungswertes der umgewandelten Daten
punkte aufweist.
12. Verfolgungssystem zum Verfolgen von Objekten,
die im Pfad eines Gastfahrzeugs erfaßt worden sind, wel
ches folgendes aufweist:
einen Sensor, der auf dem Gastfahrzeug montiert ist und konfiguriert ist, um Objekte in einem Blickfeld zu erfassen;
Mittel zur Erzeugung eines aktuellen bzw. laufenden Rahmens von Datenpunkten, wobei die erwähnten Datenpunkte ein oder mehrere Objekte repräsentieren, die von dem er wähnten Sensor erfaßt worden sind;
Mittel zum Umwandeln der Datenpunkte in Datenpunkte, die in globalen Koordinaten repräsentiert sind; und
Mittel zum Eintragen bzw. Kartografieren der erwähn ten umgewandelten Datenpunkte in einen nächsten Rahmen von Datenpunkten, um einen neuen Rahmen von Datenpunkten zu erzeugen, wobei der neue Rahmen von Datenpunkten Ob jekte repräsentiert, die in dem nächsten Rahmen erfaßt worden sind, genauso wie Objekte, die in einem oder meh reren der vorherigen Rahmen erfaßt worden sind.
einen Sensor, der auf dem Gastfahrzeug montiert ist und konfiguriert ist, um Objekte in einem Blickfeld zu erfassen;
Mittel zur Erzeugung eines aktuellen bzw. laufenden Rahmens von Datenpunkten, wobei die erwähnten Datenpunkte ein oder mehrere Objekte repräsentieren, die von dem er wähnten Sensor erfaßt worden sind;
Mittel zum Umwandeln der Datenpunkte in Datenpunkte, die in globalen Koordinaten repräsentiert sind; und
Mittel zum Eintragen bzw. Kartografieren der erwähn ten umgewandelten Datenpunkte in einen nächsten Rahmen von Datenpunkten, um einen neuen Rahmen von Datenpunkten zu erzeugen, wobei der neue Rahmen von Datenpunkten Ob jekte repräsentiert, die in dem nächsten Rahmen erfaßt worden sind, genauso wie Objekte, die in einem oder meh reren der vorherigen Rahmen erfaßt worden sind.
13. System nach Anspruch 12, welches weiterhin fol
gendes aufweist:
Mittel zur Punktkolorierung (Blob Colouring) des neuen Rahmens von Datenpunkten, um Objekte zu definieren; und
Mittel zum Anfertigen einer Liste der erwähnten de finierten Objekte.
Mittel zur Punktkolorierung (Blob Colouring) des neuen Rahmens von Datenpunkten, um Objekte zu definieren; und
Mittel zum Anfertigen einer Liste der erwähnten de finierten Objekte.
14. System nach Anspruch 13, wobei die erwähnten
Mittel zur Punktkolorierung (Blob Colouring) folgendes
aufweisen:
Mittel zum Scannen bzw. Abtasten des neuen Rahmens, um ein Abteil (Bin) zu lokalisieren mit einem Datenpunkt, mit einem Nicht-Null-Leistungswert;
Mittel zum Bezeichnen des lokalisierten Abteils (Bin) mit einer neuen Bezeichnung, wobei das Lokalisierte Abteil (Bin) nicht benachbart zu einem zuvor bezeichneten Abteil (Bin) ist; und
Mittel zum Bezeichnen des lokalisierten Abteils (Bin) mit der gleichen Bezeichnung, die dem erwähnten zu vor bezeichneten Abteil (Bin) zugeordnet war, wobei das lokalisierte Abteil (Bin) benachbart zu dem erwähnten zu vor bezeichneten Abteil (Bin) ist.
Mittel zum Scannen bzw. Abtasten des neuen Rahmens, um ein Abteil (Bin) zu lokalisieren mit einem Datenpunkt, mit einem Nicht-Null-Leistungswert;
Mittel zum Bezeichnen des lokalisierten Abteils (Bin) mit einer neuen Bezeichnung, wobei das Lokalisierte Abteil (Bin) nicht benachbart zu einem zuvor bezeichneten Abteil (Bin) ist; und
Mittel zum Bezeichnen des lokalisierten Abteils (Bin) mit der gleichen Bezeichnung, die dem erwähnten zu vor bezeichneten Abteil (Bin) zugeordnet war, wobei das lokalisierte Abteil (Bin) benachbart zu dem erwähnten zu vor bezeichneten Abteil (Bin) ist.
15. System nach Anspruch 14, das weiter Mittel auf
weist zum Kombinieren des erwähnten Leistungswertes für
jedes lokalisierte Abteil (Bin) mit der gleichen Bezeich
nung.
16. System nach Anspruch 15, welches weiterhin Zäh
lermittel aufweist zum Zählen der Anzahl von Abteilen mit
einer gegeben Bezeichnung.
17. System nach Anspruch 14, welches weiter Mittel
aufweist zum Kombinieren von allen erwähnten Abteilen mit
ersten und zweiten Bezeichnungen, wobei das lokalisierte
Abteil (Bin) benachbart zu einem zuvor lokalisierten Ab
teil (Bin) ist mit einer ersten Bezeichnung und einem zu
vor lokalisierten Abteil (Bin) mit einer zweiten Bezeich
nung.
18, Das Verfolgungssystem nach Anspruch 12, wobei
die erwähnten Mittel zur Erzeugung folgendes aufweisen:
Mittel zum Empfangen eines Zeit- und Amplitudensi gnals für jedes Objekt vom Detektor;
Mittel zur Ausführung einer Schnell- bzw. Fast- Fourier-Transformation auf jedem der Zeit- und Amplitu densignale um einen Datenpunkt für jedes Objekt zu erzeu gen;
Mittel zum Vergleichen eines jeden Datenpunktes mit einem Schwellenwert;
Mittel zum Fallenlassen der Datenpunkte unter dem erwähnten Schwellenwert, und
Mittel zum Erzeugen eines Rahmens von Datenpunkten unter Verwendung der erwähnten Datenpunkte, die nicht fallengelassen wurden.
Mittel zum Empfangen eines Zeit- und Amplitudensi gnals für jedes Objekt vom Detektor;
Mittel zur Ausführung einer Schnell- bzw. Fast- Fourier-Transformation auf jedem der Zeit- und Amplitu densignale um einen Datenpunkt für jedes Objekt zu erzeu gen;
Mittel zum Vergleichen eines jeden Datenpunktes mit einem Schwellenwert;
Mittel zum Fallenlassen der Datenpunkte unter dem erwähnten Schwellenwert, und
Mittel zum Erzeugen eines Rahmens von Datenpunkten unter Verwendung der erwähnten Datenpunkte, die nicht fallengelassen wurden.
19. Verfolgungssystem nach Anspruch 18, welches wei
ter Mittel aufweist zum Bestimmen eines Schwellenwertes
für den Datenpunkt, wobei die Mittel zum Ermitteln des
erwähnten Schwellenwertes folgendes aufweisen:
Mittel zum Auswählen eines Datenpunktes, der einer Schwellenwertbehandlung unterwerfen werden soll;
Mittel zum Bestimmen eines Wertes von anderen Daten punkten in der Nähe des ausgewählten Datenpunktes; und
Mittel zum Mitteln des Wertes der erwähnten benach barten Datenpunkte, um die Schwelle zu bestimmen.
Mittel zum Auswählen eines Datenpunktes, der einer Schwellenwertbehandlung unterwerfen werden soll;
Mittel zum Bestimmen eines Wertes von anderen Daten punkten in der Nähe des ausgewählten Datenpunktes; und
Mittel zum Mitteln des Wertes der erwähnten benach barten Datenpunkte, um die Schwelle zu bestimmen.
20. Verfolgungssystem nach Anspruch 19, wobei die
Mittel zum Bestimmen eines Wertes von anderen Datenpunk
ten Mittel aufweisen zum Bestimmen eines Wertes für jeden
von 8 Datenpunkten, die sofort bzw. direkt benachbart zu
dem erwähnten Datenpunkt sind.
21. Verfolgungssystem nach Anspruch 12, welches wei
ter Mittel aufweist zum Erzeugen einer Anordnung von Ob
jekten und zwar unter Verwendung von Objekten und zwar
unter Verwendung von dem neuen Rahmen von Datenpunkten.
22. Verfolgungssystem nach Anspruch 12, welches wei
ter Mittel aufweist zum Dämpfen eines Leistungswertes der
umgewandelten Datenpunkte.
23. Verfolgungssystem nach Anspruch 12, wobei die
erwähnten Mitteln zum Eintragen bzw. Kartografieren der
umgewandelten Datenpunkte in einen nächsten Rahmen von
Datenpunkten weiter Mittel aufweisen zum Umwandeln der
erwähnten umgewandelten Datenpunkte in einen Referenzrah
men des erwähnten Detektors und zwar zur nächsten Proben
bzw. Aufnahmezeit, so daß Objekte, die in einem oder meh
reren der vorherigen Rahmen erfaßt worden sind, korre
liert werden mit den Objekten im erwähnten nächsten Rah
men.
24. Verfolgungssystem nach Anspruch 12, welches wei
ter einen Digitalsignalprozessor aufweist, der konfigu
riert bzw. eingerichtet ist, um den Rahmen von Datenpunk
ten vom Sensor zu empfangen, die erwähnten Datenpunkte in
eine Leistungs-/Entfernungsrepräsentation bzw.
-darstellung umzuwandeln und die erwähnten empfangenen
Datenpunkte einer Schwellenwertbehandlung zu unterwerfen.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/299,093 US5587929A (en) | 1994-09-02 | 1994-09-02 | System and method for tracking objects using a detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19532597A1 true DE19532597A1 (de) | 1996-03-07 |
Family
ID=23153280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19532597A Withdrawn DE19532597A1 (de) | 1994-09-02 | 1995-09-04 | System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems |
Country Status (5)
Country | Link |
---|---|
US (2) | US5587929A (de) |
JP (1) | JPH0875848A (de) |
AU (1) | AU687218B2 (de) |
DE (1) | DE19532597A1 (de) |
GB (1) | GB2292860B (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19845048A1 (de) * | 1998-09-30 | 2000-04-06 | Volkswagen Ag | Verfahren und Einrichtung zur Erfassung von Hindernissen |
DE19937489B4 (de) * | 1999-08-07 | 2009-07-09 | Volkswagen Ag | Verfahren zur Überwachung eines Fahrspurwechsels eines Kraftfahrzeuges |
DE102012100329A1 (de) * | 2012-01-16 | 2013-07-18 | Hella Kgaa Hueck & Co. | Sensorvorrichtung für eine Überwachungsvorrichtung für die Umgebung eines Fahrzeugs |
DE102006030851B4 (de) * | 2005-07-08 | 2016-02-11 | Denso Corporation | Vorrichtung und Verfahren zur Erkennung einer Fahrbahnform |
DE102011117585B4 (de) | 2010-11-09 | 2022-08-04 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Systeme und Verfahren zum Verfolgen von Objekten |
Families Citing this family (121)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5657251A (en) * | 1995-10-02 | 1997-08-12 | Rockwell International Corporation | System and process for performing optimal target tracking |
JPH09211113A (ja) * | 1996-01-31 | 1997-08-15 | Komatsu Ltd | ミリ波レーダ搭載車両 |
JPH09211116A (ja) * | 1996-01-31 | 1997-08-15 | Komatsu Ltd | ミリ波レーダ搭載車両 |
US5889505A (en) * | 1996-04-04 | 1999-03-30 | Yale University | Vision-based six-degree-of-freedom computer input device |
US6101390A (en) * | 1997-01-08 | 2000-08-08 | Us Wireless Corporation | Calibration table generation for wireless location determination |
US5973732A (en) * | 1997-02-19 | 1999-10-26 | Guthrie; Thomas C. | Object tracking system for monitoring a controlled space |
US6049171A (en) | 1998-09-18 | 2000-04-11 | Gentex Corporation | Continuously variable headlamp control |
US6631316B2 (en) | 2001-03-05 | 2003-10-07 | Gentex Corporation | Image processing system to control vehicle headlamps or other vehicle equipment |
US7653215B2 (en) | 1997-04-02 | 2010-01-26 | Gentex Corporation | System for controlling exterior vehicle lights |
US6861809B2 (en) | 1998-09-18 | 2005-03-01 | Gentex Corporation | Headlamp control to prevent glare |
US6130421A (en) | 1998-06-09 | 2000-10-10 | Gentex Corporation | Imaging system for vehicle headlamp control |
US6587573B1 (en) * | 2000-03-20 | 2003-07-01 | Gentex Corporation | System for controlling exterior vehicle lights |
US6064926A (en) * | 1997-12-08 | 2000-05-16 | Caterpillar Inc. | Method and apparatus for determining an alternate path in response to detection of an obstacle |
US6055042A (en) * | 1997-12-16 | 2000-04-25 | Caterpillar Inc. | Method and apparatus for detecting obstacles using multiple sensors for range selective detection |
US6173215B1 (en) | 1997-12-19 | 2001-01-09 | Caterpillar Inc. | Method for determining a desired response to detection of an obstacle |
JP3942722B2 (ja) * | 1998-02-16 | 2007-07-11 | 本田技研工業株式会社 | 車載レーダ装置 |
JP3910291B2 (ja) * | 1998-02-16 | 2007-04-25 | 本田技研工業株式会社 | 車載レーダ装置 |
FR2784769B1 (fr) * | 1998-10-14 | 2001-06-15 | Air Liquide | Installation de distribution d'un stock de bouteilles de gaz |
JP4197209B2 (ja) | 1999-05-21 | 2008-12-17 | 株式会社小松製作所 | 車両の無人走行システム |
US6201493B1 (en) * | 1999-05-28 | 2001-03-13 | Lucent Technologies Inc. | Radar detector arrangement |
US6894608B1 (en) | 1999-07-22 | 2005-05-17 | Altra Technologies Incorporated | System and method for warning of potential collisions |
AU6894100A (en) | 1999-08-06 | 2001-03-05 | Roadrisk Technologies, Llc | Methods and apparatus for stationary object detection |
US6548616B1 (en) | 1999-12-13 | 2003-04-15 | Dow Global Technologies Inc. | Lightweight tire support and composition and method for making a tire support |
AU2001230871A1 (en) * | 2000-01-10 | 2001-07-24 | The Johns-Hopkins University | Optical communication system using a high altitude tethered balloon |
US6642839B1 (en) * | 2000-02-16 | 2003-11-04 | Altra Technologies Incorporated | System and method of providing scalable sensor systems based on stand alone sensor modules |
JP2003536096A (ja) * | 2000-06-08 | 2003-12-02 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | 追跡マップジェネレータ |
EP1318921B1 (de) * | 2000-09-11 | 2004-12-01 | Dow Global Technologies Inc. | Verfahren und vorrichtung zur herstellung eines reifenstützkörpers |
US6895126B2 (en) * | 2000-10-06 | 2005-05-17 | Enrico Di Bernardo | System and method for creating, storing, and utilizing composite images of a geographic location |
UA77662C2 (en) * | 2000-10-10 | 2007-01-15 | Dbt America Inc | Automated continuous haulage apparatus |
GB2368482B (en) * | 2000-10-26 | 2004-08-25 | Hewlett Packard Co | Optimal image capture |
US6683560B2 (en) | 2000-12-29 | 2004-01-27 | Honeywell International Inc. | System and technique for enhanced radar object detection |
US6411900B1 (en) | 2001-03-27 | 2002-06-25 | Lockhead Martin Corporation | Reduced throughput track data association using look-up tables |
US6469653B1 (en) | 2001-08-22 | 2002-10-22 | Uniden America Corporation | Apparatus and method for selectively monitoring radar signals and providing an alert responsive thereto |
US6693557B2 (en) | 2001-09-27 | 2004-02-17 | Wavetronix Llc | Vehicular traffic sensor |
JP4079623B2 (ja) * | 2001-11-13 | 2008-04-23 | 富士通テン株式会社 | レーダ測距装置 |
ATE304200T1 (de) * | 2001-12-19 | 2005-09-15 | Logobject Ag | Verfahren und vorrichtung zur verfolgung von objekten, insbesondere zur verkehrsüberwachung |
US6933837B2 (en) | 2002-01-25 | 2005-08-23 | Altra Technologies Incorporated | Trailer based collision warning system and method |
US6888622B2 (en) * | 2002-03-12 | 2005-05-03 | Nissan Motor Co., Ltd. | Method for determining object type of reflective object on track |
US6701239B2 (en) | 2002-04-10 | 2004-03-02 | Caterpillar Inc | Method and apparatus for controlling the updating of a machine database |
CN100365430C (zh) * | 2002-07-15 | 2008-01-30 | 汽车系统实验室公司 | 道路曲率估计和车辆目标状态估计系统 |
US7522091B2 (en) | 2002-07-15 | 2009-04-21 | Automotive Systems Laboratory, Inc. | Road curvature estimation system |
US6683820B1 (en) * | 2002-09-12 | 2004-01-27 | The United States Of America As Represented By The Secretary Of The Navy | Method and apparatus for tracking sonar targets |
FI115678B (fi) * | 2003-03-25 | 2005-06-15 | Sandvik Tamrock Oy | Järjestely kaivosajoneuvon törmäyksenestoon |
US6834232B1 (en) * | 2003-07-30 | 2004-12-21 | Ford Global Technologies, Llc | Dual disimilar sensing object detection and targeting system |
US20050031169A1 (en) * | 2003-08-09 | 2005-02-10 | Alan Shulman | Birds eye view virtual imaging for real time composited wide field of view |
US6845311B1 (en) | 2003-11-04 | 2005-01-18 | Caterpillar Inc. | Site profile based control system and method for controlling a work implement |
US7079931B2 (en) * | 2003-12-10 | 2006-07-18 | Caterpillar Inc. | Positioning system for an excavating work machine |
US8055100B2 (en) * | 2004-04-02 | 2011-11-08 | The Boeing Company | Method and system for image registration quality confirmation and improvement |
US7071867B2 (en) * | 2004-06-25 | 2006-07-04 | The Boeing Company | Method, apparatus, and computer program product for radar detection of moving target |
US7688999B2 (en) * | 2004-12-08 | 2010-03-30 | Electronics And Telecommunications Research Institute | Target detecting system and method |
US8665113B2 (en) * | 2005-10-31 | 2014-03-04 | Wavetronix Llc | Detecting roadway targets across beams including filtering computed positions |
US7865285B2 (en) * | 2006-12-27 | 2011-01-04 | Caterpillar Inc | Machine control system and method |
US8935086B2 (en) * | 2007-02-06 | 2015-01-13 | GM Global Technology Operations LLC | Collision avoidance system and method of detecting overpass locations using data fusion |
JP2009109219A (ja) * | 2007-10-26 | 2009-05-21 | Ihi Corp | 移動体の障害物位置認識方法及び移動体 |
CN102007516A (zh) * | 2008-04-14 | 2011-04-06 | 汤姆森特许公司 | 自动跟踪对象的技术 |
US7958982B2 (en) * | 2008-04-29 | 2011-06-14 | Caterpilar Inc. | Cable guide having a signaling instrument |
US7793442B2 (en) * | 2008-04-29 | 2010-09-14 | Caterpillar Inc | Avoidance system for locating electric cables |
MX2010000225A (es) * | 2008-08-09 | 2010-07-20 | Eickhoff Bergbautechnik Gmbh | Metodo y dispositivo para la supervision de una maquina para extraccion de cortes. |
JP5618313B2 (ja) * | 2009-03-18 | 2014-11-05 | 独立行政法人宇宙航空研究開発機構 | 遠隔気流の警報表示方法及びそのシステム |
US8332106B2 (en) * | 2009-10-21 | 2012-12-11 | Caterpillar Inc. | Tether tracking system and method for mobile machine |
TWI430902B (zh) * | 2010-12-15 | 2014-03-21 | Wistron Neweb Corp | 無線訊號收發器及盲點偵測系統 |
CN102298142B (zh) * | 2011-05-16 | 2013-06-19 | 中国人民解放军海军航空工程学院 | 雷达测距模糊条件下多微弱目标ht-stc-tbd检测方法 |
US8879139B2 (en) | 2012-04-24 | 2014-11-04 | Gentex Corporation | Display mirror assembly |
US8983135B2 (en) | 2012-06-01 | 2015-03-17 | Gentex Corporation | System and method for controlling vehicle equipment responsive to a multi-stage village detection |
CN104508595B (zh) | 2012-06-12 | 2017-07-18 | 金泰克斯公司 | 提供多级对准稳定性指示的车辆成像系统 |
CN104583012B (zh) | 2012-08-02 | 2018-01-05 | 金泰克斯公司 | 用于响应于对小型卡车的检测来控制外部车辆灯的系统和方法 |
US9412271B2 (en) | 2013-01-30 | 2016-08-09 | Wavetronix Llc | Traffic flow through an intersection by reducing platoon interference |
US8898016B2 (en) * | 2013-03-15 | 2014-11-25 | Applied Minds, Llc | Method and apparatus for two-stage planning |
US11022446B2 (en) | 2013-03-15 | 2021-06-01 | Applied Invention, Llc | Method and apparatus for two-stage planning |
SE536983C2 (sv) * | 2013-03-19 | 2014-11-25 | Scania Cv Ab | Reglersystem samt metod för reglering av fordon vid detektion av hinder |
RU2540951C1 (ru) * | 2013-07-08 | 2015-02-10 | Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж") Министерства обороны Российской Федерации | Способ определения количества целей в группе |
WO2015026810A1 (en) | 2013-08-19 | 2015-02-26 | Gentex Corporation | Vehicle imaging system and method for distinguishing reflective objects from lights of another vehicle |
CN105555606B (zh) | 2013-08-19 | 2018-06-12 | 金泰克斯公司 | 用于在车辆尾灯与闪烁的红色停车灯之间进行判别的车辆成像系统和方法 |
EP3049286B1 (de) | 2013-09-24 | 2018-05-09 | Gentex Corporation | Spiegelanordnung für eine anzeige |
WO2015050996A1 (en) | 2013-10-01 | 2015-04-09 | Gentex Corporation | System and method for controlling exterior vehicle lights on motorways |
WO2015073842A1 (en) | 2013-11-15 | 2015-05-21 | Gentex Corporation | Imaging system including dynamic compensation for color attenuation for vehicle windscreens |
US9664784B2 (en) * | 2013-12-04 | 2017-05-30 | Trimble Inc. | System and methods for data point detection and spatial modeling |
US10254395B2 (en) | 2013-12-04 | 2019-04-09 | Trimble Inc. | System and methods for scanning with integrated radar detection and image capture |
WO2015116915A1 (en) | 2014-01-31 | 2015-08-06 | Gentex Corporation | Backlighting assembly for display for reducing cross-hatching |
CN106061794B (zh) | 2014-03-21 | 2019-06-07 | 金泰克斯公司 | 三态显示镜组件 |
JP6384018B2 (ja) | 2014-03-25 | 2018-09-05 | 日本無線株式会社 | 車載用レーダ装置 |
CN106163873B (zh) | 2014-04-01 | 2019-04-26 | 金泰克斯公司 | 自动显示镜组件 |
JP6393123B2 (ja) * | 2014-09-04 | 2018-09-19 | 日立建機株式会社 | 障害物検出システム及び運搬車両 |
US9694751B2 (en) | 2014-09-19 | 2017-07-04 | Gentex Corporation | Rearview assembly |
KR101596751B1 (ko) * | 2014-09-26 | 2016-02-23 | 현대자동차주식회사 | 운전자 맞춤형 사각 영역 표시 방법 및 장치 |
WO2016073848A1 (en) | 2014-11-07 | 2016-05-12 | Gentex Corporation | Full display mirror actuator |
KR101977685B1 (ko) | 2014-11-13 | 2019-05-13 | 젠텍스 코포레이션 | 디스플레이를 갖춘 후방 미러 시스템 |
EP3227143B1 (de) | 2014-12-03 | 2019-03-13 | Gentex Corporation | Spiegelanordnung für eine anzeige |
USD746744S1 (en) | 2014-12-05 | 2016-01-05 | Gentex Corporation | Rearview device |
US9457718B2 (en) | 2014-12-19 | 2016-10-04 | Caterpillar Inc. | Obstacle detection system |
US9744907B2 (en) | 2014-12-29 | 2017-08-29 | Gentex Corporation | Vehicle vision system having adjustable displayed field of view |
US9720278B2 (en) | 2015-01-22 | 2017-08-01 | Gentex Corporation | Low cost optical film stack |
US9649979B2 (en) | 2015-01-29 | 2017-05-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation in view-obstructed environments |
JP2018513810A (ja) | 2015-04-20 | 2018-05-31 | ジェンテックス コーポレイション | 装飾を備えた後方視認アセンブリ |
EP3297870B1 (de) | 2015-05-18 | 2020-02-05 | Gentex Corporation | Rückblickvorrichtung mit vollanzeige |
EP3310618A4 (de) | 2015-06-22 | 2018-07-04 | Gentex Corporation | System und verfahren zur verarbeitung von gestreamten videobildern zur korrektur des flimmerns von amplitudenmodulierten lichtern |
USD797627S1 (en) | 2015-10-30 | 2017-09-19 | Gentex Corporation | Rearview mirror device |
USD798207S1 (en) | 2015-10-30 | 2017-09-26 | Gentex Corporation | Rearview mirror assembly |
EP3368374B1 (de) | 2015-10-30 | 2023-12-27 | Gentex Corporation | Umschaltpaddel |
CN108349436B (zh) | 2015-10-30 | 2019-12-20 | 金泰克斯公司 | 后视装置 |
USD800618S1 (en) | 2015-11-02 | 2017-10-24 | Gentex Corporation | Toggle paddle for a rear view device |
US10179583B2 (en) | 2016-03-29 | 2019-01-15 | Ford Global Technologies, Llc | Vehicle subsystem coordination and control |
USD845851S1 (en) | 2016-03-31 | 2019-04-16 | Gentex Corporation | Rearview device |
USD817238S1 (en) | 2016-04-29 | 2018-05-08 | Gentex Corporation | Rearview device |
US10025138B2 (en) | 2016-06-06 | 2018-07-17 | Gentex Corporation | Illuminating display with light gathering structure |
US10151830B2 (en) | 2016-09-14 | 2018-12-11 | Caterpillar Inc. | Systems and methods for detecting objects proximate to a machine utilizing a learned process |
USD809984S1 (en) | 2016-12-07 | 2018-02-13 | Gentex Corporation | Rearview assembly |
USD854473S1 (en) | 2016-12-16 | 2019-07-23 | Gentex Corporation | Rearview assembly |
WO2018125898A1 (en) | 2016-12-30 | 2018-07-05 | Gentex Corporation | Full display mirror with on-demand spotter view |
WO2018170353A1 (en) | 2017-03-17 | 2018-09-20 | Gentex Corporation | Dual display reverse camera system |
US10347141B2 (en) * | 2017-04-26 | 2019-07-09 | Honeywell International Inc. | System and method for transmitting obstacle alerts to aircraft from a ground based database |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US11573573B2 (en) | 2017-06-06 | 2023-02-07 | Plusai, Inc. | Method and system for distributed learning and adaptation in autonomous driving vehicles |
US11099264B2 (en) * | 2017-09-20 | 2021-08-24 | Motional Ad Llc | Variable range and frame-rate radar operation for automated vehicle |
EP3460512B1 (de) * | 2017-09-21 | 2022-11-16 | Arriver Software AB | Fahrzeugradar zur umfelderfassung |
US10845293B2 (en) * | 2017-11-28 | 2020-11-24 | King Fahd University Of Petroleum And Minerals | System, apparatus, and method for determining characteristics of rock samples |
JP7103824B2 (ja) * | 2018-03-30 | 2022-07-20 | 株式会社小松製作所 | 作業機械の制御システム、作業機械、及び作業機械の制御方法 |
US11521397B2 (en) | 2020-09-08 | 2022-12-06 | Caterpillar Inc. | Object tracking for work machines |
US11328601B1 (en) | 2021-02-22 | 2022-05-10 | Volvo Car Corporation | Prevention of low-speed sideswipe collisions with non-moving objects |
US11994272B2 (en) | 2021-08-20 | 2024-05-28 | Gentex Corporation | Lighting assembly and illumination system having a lighting assembly |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1510148A (en) * | 1975-04-17 | 1978-05-10 | Secr Defence | Digital scan converters |
US4465155A (en) * | 1981-06-17 | 1984-08-14 | Collins Marshall S | Automated operatorless vehicles |
US5418536A (en) * | 1981-12-21 | 1995-05-23 | Westinghouse Electric Corporation | Bandwidth and amplitude insensitive frequency discriminator |
GB8304686D0 (en) * | 1983-02-19 | 1983-03-23 | Sperry Ltd | Collision avoidance apparatus |
US4916450A (en) * | 1988-05-12 | 1990-04-10 | Radar Control Systems Corporation | Radar system for headway control of a vehicle |
US4899161A (en) * | 1988-07-21 | 1990-02-06 | International Business Machines Corporation | High accuracy coordinate conversion method for air traffic control applications |
US4937878A (en) * | 1988-08-08 | 1990-06-26 | Hughes Aircraft Company | Signal processing for autonomous acquisition of objects in cluttered background |
US5170352A (en) * | 1990-05-07 | 1992-12-08 | Fmc Corporation | Multi-purpose autonomous vehicle with path plotting |
IT1240974B (it) * | 1990-07-05 | 1993-12-27 | Fiat Ricerche | Metodo e apparecchiatura per evitare la collisione di un autoveicolo contro ostacoli. |
IL100175A (en) * | 1991-11-27 | 1994-11-11 | State Of Isreal Ministry Of De | Vehicle collision warning device |
US5280288A (en) * | 1992-08-14 | 1994-01-18 | Vorad Safety Systems, Inc. | Interference avoidance system for vehicular radar system |
JP3485336B2 (ja) * | 1992-09-08 | 2004-01-13 | キャタピラー インコーポレイテッド | 乗物の位置を決定する方法及び装置 |
US5374932A (en) * | 1993-08-02 | 1994-12-20 | Massachusetts Institute Of Technology | Airport surface surveillance system |
US5434927A (en) * | 1993-12-08 | 1995-07-18 | Minnesota Mining And Manufacturing Company | Method and apparatus for machine vision classification and tracking |
-
1994
- 1994-09-02 US US08/299,093 patent/US5587929A/en not_active Expired - Lifetime
-
1995
- 1995-08-11 AU AU28502/95A patent/AU687218B2/en not_active Ceased
- 1995-08-23 GB GB9517289A patent/GB2292860B/en not_active Expired - Fee Related
- 1995-08-30 JP JP7221231A patent/JPH0875848A/ja active Pending
- 1995-09-04 DE DE19532597A patent/DE19532597A1/de not_active Withdrawn
-
1996
- 1996-06-04 US US08/657,509 patent/US5668739A/en not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19845048A1 (de) * | 1998-09-30 | 2000-04-06 | Volkswagen Ag | Verfahren und Einrichtung zur Erfassung von Hindernissen |
DE19937489B4 (de) * | 1999-08-07 | 2009-07-09 | Volkswagen Ag | Verfahren zur Überwachung eines Fahrspurwechsels eines Kraftfahrzeuges |
DE102006030851B4 (de) * | 2005-07-08 | 2016-02-11 | Denso Corporation | Vorrichtung und Verfahren zur Erkennung einer Fahrbahnform |
DE102011117585B4 (de) | 2010-11-09 | 2022-08-04 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Systeme und Verfahren zum Verfolgen von Objekten |
DE102012100329A1 (de) * | 2012-01-16 | 2013-07-18 | Hella Kgaa Hueck & Co. | Sensorvorrichtung für eine Überwachungsvorrichtung für die Umgebung eines Fahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
JPH0875848A (ja) | 1996-03-22 |
US5587929A (en) | 1996-12-24 |
GB2292860B (en) | 1997-11-19 |
GB9517289D0 (en) | 1995-10-25 |
AU687218B2 (en) | 1998-02-19 |
US5668739A (en) | 1997-09-16 |
GB2292860A (en) | 1996-03-06 |
AU2850295A (en) | 1996-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19532597A1 (de) | System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems | |
DE102015100134B4 (de) | Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren | |
EP1267178B1 (de) | Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes | |
EP2800982B1 (de) | Verfahren und vorrichtung zur radunabhängigen geschwindigkeitsmessung bei einem fahrzeug | |
DE102006009121B4 (de) | Verfahren zur Verarbeitung und Darstellung von mittels Synthetik-Apertur-Radarsystemen (SAR) gewonnen Bodenbildern | |
EP3540457A1 (de) | Identifikation von objekten mittels radardaten | |
DE102004016025A1 (de) | Verfahren zur Bestimmung eines Objektstandorts aus Daten eines seitswärts gerichteten Sensors | |
DE69924473T2 (de) | Verbesserungen an oder bezüglich radarsystemen | |
DE102017128194A1 (de) | Genaue Selbstortung unter Verwendung eines Automobilradars mit synthetischer Apertur | |
DE102020115997A1 (de) | Fahrzeugsensorverbesserungen | |
DE102017119042A1 (de) | Vermeidung von Totwinkelwarnungen durch Gischt | |
DE102018202864A1 (de) | Verfahren und System für Synthetische-Apertur-Radarsignalverarbeitung | |
EP1298012B1 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
DE10148062A1 (de) | Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes | |
DE2815981A1 (de) | Radarempfaenger | |
DE102018104056B3 (de) | Verfahren zur optimierten Anordnung und Ausrichtung eines Feldgerätes | |
EP4211490A1 (de) | Verfahren, radarsystem und fahrzeug zur signalverarbeitung von radarsignalen | |
DE102009013768A1 (de) | Verfahren und Einrichtung zum Ermitteln von Aspektwinkeln | |
Yao et al. | Airborne traffic monitoring in large areas using LiDAR data–theory and experiments | |
WO2004059341A1 (de) | Verfahren zum erfassen von umgebungsinformationen und zum bestimmen der lage einer parklücke | |
DE4205056A1 (de) | Verfahren und system zum abtasten einer szene zu dem zweck des klassifizierens einer mehrzahl von sich bewegenden objekten | |
DE102019215440B4 (de) | Erkennung von Verkehrsschildern | |
DE102021204372A1 (de) | Orientierungsbasierte Positionsermittlung von Schienenfahrzeugen | |
WO2021239326A1 (de) | Verfahren zum schätzen einer eigengeschwindigkeit | |
DE102019104245A1 (de) | Verfahren und System zum Modellieren einer Radarerfassung einer Umgebung eines Fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G08G 9/02 |
|
8139 | Disposal/non-payment of the annual fee |