DE19532597A1 - System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems - Google Patents

System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems

Info

Publication number
DE19532597A1
DE19532597A1 DE19532597A DE19532597A DE19532597A1 DE 19532597 A1 DE19532597 A1 DE 19532597A1 DE 19532597 A DE19532597 A DE 19532597A DE 19532597 A DE19532597 A DE 19532597A DE 19532597 A1 DE19532597 A1 DE 19532597A1
Authority
DE
Germany
Prior art keywords
data points
frame
bin
compartment
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19532597A
Other languages
English (en)
Inventor
Richard R League
Norman K Lay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Caterpillar Inc
Original Assignee
Caterpillar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Caterpillar Inc filed Critical Caterpillar Inc
Publication of DE19532597A1 publication Critical patent/DE19532597A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/288Coherent receivers
    • G01S7/2883Coherent receivers using FFT processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Navigation (AREA)

Description

Technisches Gebiet
Die vorliegende Erfindung bezieht sich allgemein auf Verfolgungssysteme und insbesondere auf ein Verfahren zum Verfolgen von Objekten, die von einem Bewegungsde­ tektor ermittelt bzw. detektiert wurden.
Technischer Hintergrund
Radar, Lidar, Sonar und andere Erfassungstechniken werden oft verwendet, um Objekte zu erfassen ohne Sicht­ kontakt zu erfordern. Die Anwendung von solchen Erfas­ sungstechniken ist erweitert worden, um die Verwendung in sowohl passiven als auch aktiven Kollisionsverhinderungs­ systemen einzuschließen. In solchen Kollisionsverhinde­ rungsanwendungen wird ein Erfassungssystem verwendet, um Objekte im Weg eines sich bewegenden Fahrzeugs (auf das als das Gastfahrzeug Bezug genommen wird) zu erfassen bzw. zu ermitteln. Wenn ein Objekt erfaßt bzw. ermittelt wird, werden geeignete Schritte unternommen, um eine Kol­ lision mit dem Gastfahrzeug zu vermeiden. Solche Schritte können das Anhalten des Gastfahrzeugs umfassen, das Än­ dern des Pfades bzw. des Fahrtwegs des Gastfahrzeugs oder einfach das Alarmieren eines Bedieners des Gastfahrzeugs, und zwar dahingehend, daß es eine Kollisionsbedrohung gibt.
Eine Herausforderung für Kollisionsverhinderungssyste­ me, die konventionelle Detektorerfassungssysteme verwen­ den, ist es, Falschalarme zu minimieren. Abhängig von den Systemcharakteristiken, den Schwellensetzpunkten und dem Betriebsumfeld bzw. der Betriebsumgebung können konven­ tionelle Systeme anfällig sein für Falschalarme. Bei­ spielsweise in einer Umgebung mit einer hohen Konzentra­ tion von Staubpartikeln können solche Partikel einen Li­ dar- (light detection and ranging = Lichterfassungs- und Entfernungsmeß-) System als Hindernisse erscheinen.
Eine weitere Herausforderung für Kollisionsverhinde­ rungssysteme ist die, ein Objekt zu verfolgen, während das Gastfahrzeug in Bewegung ist. Während sich das Gastfahr­ zeug entlang seiner Route bzw. seines Weges bewegt, kann ein Objekt, das vom einem Detektor- bzw. Erfassungssystem erfaßt worden ist, das auf dem Gastfahrzeug montiert ist, erscheinen, wie wenn es sich relativ zum Gastfahrzeug be­ wegt. Für Detektoren, die ein Einzelbild zu jeder Proben­ zeit abfühlen, mag das Objekt erscheinen, wie wenn es von einer Position zur nächsten springt. Solche Sprünge kön­ nen Fragen auftauchen lassen, wie beispielsweise, ob ein Objekt wirklich anwesend ist, ob die Signalrückgabe bzw. Signalrückantwort nur Rauschen ist, ob es mehr als ein Objekt gibt, usw.
Offenbarung der Erfindung
Die vorliegende Erfindung betrifft ein System und ein Verfahren zur Verfolgung von Objekten, detektiert un­ ter Verwendung eines Detektions- bzw. Erfassungssystems. Gemäß der Erfindung ist das Erfassungssystem auf einem Gastfahrzeug montiert. Ein Sensor innerhalb des Erfas­ sungssystems scannt bzw. tastet über sein Blickfeld, um einen Rahmen von Datenpunkten zu erzeugen. Jedes Objekt, das vom Detektor erfaßt wurde, resultiert in mehrere Da­ tenpunkten in jedem Rahmen bzw. Bild. Jeder Datenpunkt stellt einen Teil eines erfaßten Objekts dar. Daher kann eine Gruppe von benachbarten Datenpunkten ein Einzelob­ jekt repräsentieren oder eine Ansammlung von benachbarten sich überlappenden Objekten. Jeder Datenpunkt umfaßt eine Winkel-Entfernungs- und Leistungskomponente bezüglich des Detektors zur Proben zeit.
Eine adaptive Schwellenmethode kann verwendet wer­ den, um Datenpunkte aus einem Rahmen zu eliminieren, die nicht von Interesse sind. Nach dem Schwellenvorgang wird jeder Datenpunkt vom Referenzrahmen des Sensors in ein globales Koordinatensystem eingetragen bzw. einkartogra­ fiert. So wird jedes Objekt Datenpunkt für Datenpunkt in das globale Koordinatensystem eingetragen bzw. kartogra­ fiert. Das globale Koordinatensystem hat vorzugsweise ei­ nen Referenzrahmen, der stationär und unabhängig vom Sen­ sor ist.
Mit vergehender Zeit, wird der Sensor zu einer zwei­ ten Proben zeit wieder abgeprüft bzw. abgetastet (sampled), um einen neuen Datenrahmen zu erzeugen. Wie beim vorherigen Rahmen umfassen die Datenpunkte in diesem neuen Rahmen eine Winkel-, Entfernungs- und Leistungskom­ ponente mit Bezug auf den Sensor bei dieser zweiten Pro­ ben- bzw. Testzeit.
Die Daten des ersten Rahmens, die in globale Koordi­ naten umgewandelt wurden, werden nun in den neuen Rahmen von Datenpunkten eingetragen bzw. kartografiert. D.h., die Daten in Globalkoordinaten werden in Koordinaten im Referenzrahmen des Sensors zur zweiten Probenzeit umge­ wandelt, und zum neuen Rahmen hinzugefügt. Infolgedessen umfaßt der neue Rahmen aktuelle Daten, die zur zweiten Probenzeit bzw. Aufnahmezeit aufgenommen wurden, genauso wie Daten vom vorherigen Rahmen.
Ein Suchgebiet, das um die Route des Fahrzeugs herum zentriert ist, kann als eine Untereinstellung bzw. Subset (Untersatz) des gesamten Blickfeldes definiert werden. Um die Prozeß- bzw. Verarbeitungszeit zu reduzieren, können die oben beschrieben Datenpunktoperationen auf nur jene Datenpunkte beschränkt werden, die in das Suchgebiet fal­ len.
Diese kombinierten Daten (nun im zweiten Rahmen) werden in globale Koordinaten umgewandelt und in den nächsten Datenrahmen eingetragen. Der Prozeß des Umwan­ delns der kombinierten Daten jedes Rahmens und des Ein­ tragens der Daten in den nächsten Rahmen geht so weiter, daß jeder neue Rahmen nicht nur aktuelle Objektdaten um­ faßt, sondern auch Altdaten.
Bevor die Daten eines vorherigen Rahmens in den nächsten Rahmen eingetragen werden, wird der Leistungs­ wert eines jeden Datenpunkts durch einen Skalierungsfak­ tor gedämpft. Diese Dämpfung verhindert, daß der Lei­ stungswert von einem tatsächlichen bzw. aktuellen Objekt aus der Proportion wächst. Eine solche Abschwächung bzw. Dämpfung stellt auch sicher, daß Rauschrückantworten, die nur in einem oder zwei Rahmen auftreten, aus dem System nach mehrerer Proben- bzw. Aufnahmezeiten abgeschwächt bzw. gedämpft werden.
Die Datenpunkte können in eine Liste von Objekten im Blickfeld gruppiert werden. Diese Objektliste kann durch­ sucht werden, um zu ermitteln, ob ein Objekt im Pfad bzw. Weg des Gastfahrzeugs ist und in einem Bereich, der es erfordert, daß das Gastfahrzeug sich verlangsamt, anhält oder den Kurs ändert.
Ein Vorteil der Erfindung ist, daß Rauschdaten (beispielsweise ein Objekt, das nur in einem Rahmen er­ scheint) gedämpft und fallengelassen werden. Als eine Folge weist das System automatisch Rauschen ab, um fal­ sche Erfassungen bzw. Detektionen zu verhindern.
Ein anderer Vorteil der Erfindung ist es, daß ein stationäres Objekt in derselben relativen Position des Sensors erscheint, wenn sich das Fahrzeug bewegt, und zwar ungeachtet der Fahrzeugposition (solange, wie das Objekt noch im Blickfeld ist) . In anderen Worten wird das stationäre Objekt bei jeder Proben- bzw. Aufnahme zeit auf sich selbst abgebildet bzw. kartografiert. Wenn ein Ob­ jekt über mehrere Probenzeiten erfaßt wird, fährt der Leistungswert fort zu wachsen, was die Richtigkeit (Legitimität) der Daten anzeigt. Dies ist insbesondere nützlich beim Erfassen von Objekten, die niedrige Lei­ stungswerte haben.
Weitere Eigenschaften und Vorteile der vorliegenden Erfindung genauso wie die Struktur und der Betrieb von verschiedenen Ausführungsbeispielen der vorliegenden Er­ findung werden im Detail unten beschrieben und zwar mit Bezugnahme auf die begleitenden Zeichnungen.
Kurze Beschreibung der Zeichnungen
Die vorliegende Erfindung ist mit Bezugnahme auf die begleitenden Zeichnungen beschrieben. In den Zeichnungen zeigen gleiche Bezugszeichen identische oder funktionell ähnliche Elemente an. Zusätzlich identifiziert (identifi­ zieren) die linke (linken) Zahl (Zahlen) eines Bezugszei­ chen die Zeichnung, in der das Bezugszeichen zuerst auf­ taucht.
Fig. 1 ist ein Diagramm, das ein Erfassungssystem verdeutlicht, das auf einem Gastfahrzeug montiert ist.
Fig. 2 ist ein Blockdiagramm, das ein Erfassungssy­ stem verdeutlicht.
Fig. 3 ist ein Diagramm, das einen Detektor und sein zugeordnetes Blickfeld verdeutlicht.
Fig. 4 ist ein Diagramm, das einen Rahmen von Da­ tenpunkten von einem Detektor verdeutlicht.
Fig. 5 ist ein Flußdiagramm, das die Verfolgung von Objekten verdeutlicht, die von einem Detektor erfaßt wur­ den.
Fig. 6 ist ein Flußdiagramm, das eine Umwandlung von Daten, die von einem Detektor ermittelt bzw. erfaßt wurden, verdeutlicht.
Fig. 7 ist ein Diagramm, das ein repräsentatives Szenario für eine Punkt- bzw. Fleckkolorierung (Blob Co­ louring) verdeutlicht.
Fig. 8 ist ein Betriebsflußdiagramm, das den Prozeß der Punkt- bzw. Fleckkolorierung (Blob Colouring) gemäß eines Ausführungsbeispiels verdeutlicht.
Fig. 9 ist ein Blockdiagramm, das ein Beispieler­ fassungs- bzw. -detektionssystem und ein Navigationssy­ stem verdeutlicht.
Bestes Modell zur Ausführung der Erfindung
Die vorliegende Erfindung ist eine Verfolgungs- bzw. Nachführ- (tracking) Technik zur Verwendung in einem Er­ fassungs- bzw. Detektionssystem. Das Erfassungssystem, wie z. B. Radar, Lidar, Sonar oder ein anderes Erfassungs­ system kann auf einem Gastfahrzeug montiert sein. Das Er­ fassungssystem wird verwendet um zu erfassen bzw. zu er­ mitteln, ob Objekte im Wege oder in der generellen Nach­ barschaft des Gastfahrzeugs sind. Eine solche Anwendung ist nützlich beim Implementieren von Kollisionsverhinde­ rungstechniken.
Zur Erleichterung der Besprechung wird die Erfindung mittels einer Beispielapplikation, wie in Fig. 1 ver­ deutlicht, besprochen. In dieser Beispielapplikation ist das Gastfahrzeug 104 ein Halden- bzw. Minenlastwagen und das Erfassungssystem 108 ist ein nach vorne sehendes Ra­ darsystem, das auf dem Gastfahrzeug 104 montiert ist, um Objekte 102 wie z. B. Felsen im Weg des Gastfahrzeugs zu erfassen.
Obwohl die Erfindung im Hinblick auf diese Beispie­ lapplikation besprochen wird, wird es nach dem Lesen der folgenden Beschreibung dem Fachmann offensichtlich wer­ den, wie die Erfindung in alternative Umgebungen imple­ mentiert werden kann und zwar mit alternativen Erken­ nungs- bzw. Erfassungs- und Navigationssystemen. Andere Anwendungen können folgendes umfassen, sind jedoch nicht darauf begrenzt:
Kollisionsverhinderungs- und/oder Navigationssysteme für Flugzeuge, Automobile, Lokomotiven und andere Beför­ derungsmittel.
Gemäß der Beispielanwendung ist das Gastfahrzeug 104 ein selbständiger Minenlastwagen, der während des normalen Betriebs nicht von einem menschlichen Bediener gefahren wird. Statt dessen wird das Gastfahrzeug 104 durch ein Computersystem entlang einer definierten Route betrieben. Das Radarerkennungssystem 108 wird verwendet, um Objekte 102 im Weg des Gastfahrzeugs zu erfühlen.
Die Charakteristiken bzw. Merkmale des speziellen ausgewählten Erfassungssystems hängen von der Anwendung ab. Für Kollisionsverhinderungs- und/oder Navigationssy­ steme für sich relativ langsam bewegende Fahrzeuge die z. B. ein Automobil oder ein Minenlastwagen) befaßt sich das System in erster Linie mit Objekten, die nahe des Fahrzeugs sind (beispielsweise innerhalb 300 m) . Für Hochgeschwindigkeitsanwendungen wie beispielsweise Düsen­ flugzeug-Kollisionsverhinderungssysteme ist Frühwarnung erforderlich und daher sind die längeren Entfernungen wichtig.
In der beispielhaften Umgebung des selbständigen Mi­ nensystems ist nur das Gebiet nahe des Fahrzeugs wichtig. In einem Ausführungsbeispiel wird der (in Fig. 2 ver­ deutlichte) Sensor 204 des Erfassungssystems 108 ungefähr 6 Fuß über dem Boden montiert, der Sensor 204 sieht nach unten, um Objekte, wie beispielsweise Felsen im Weg des Gastfahrzeugs zu erfassen. Der Boden des Sensorstrahls schneidet den Boden bei einer Entfernung l₁, die in einem Ausführungsbeispiel ungefähr 15 m ist. Das obere Ende des Sensorstrahls ist ungefähr einen Grad über dem Horizont (siehe Fig. 1) Der Interessensbereich in diesem Ausfüh­ rungsbeispiel ist 100 m. Der Winkel α ist das vertikale Blickfeld und ist in diesem Ausführungsbeispiel 8 Grad.
Fig. 2 ist ein Blockdiagramm, das das Erfassungssy­ stem 108 und ein Navigationssystem 112 verdeutlicht. Das Erfassungssystem 108 weist einen Sensor 204 und ein Er­ fassungsverarbeitungssystem 208 auf. In diesem Beispiel ist der Sensor 204 ein Radarsensor, der die Anwesenheit von Objekten 102 in seinem Blickfeld erkennt. In einem Ausführungsbeispiel kann der Sensor 204 ein nach vorne sehender Sensor sein, um nur Objekte vor dem Gastfahrzeug 104 zu ermitteln bzw. zu erfassen. In einem alternativen Ausführungsbeispiel kann der Sensor 204 verwendet werden, um Objekte in jeglicher erwünschter Richtung ab zu fühlen und kann bis 360 Grad Abdeckung vorsehen.
In einigen vereinfachten Erfassungssystemen kann die Größe des Objektes ignoriert werden und alles, was gemes­ sen wird, ist die Anwesenheit eines Objektes 102, seine Entfernung und die Rate bzw. Geschwindigkeit mit der es sich bezüglich des Fahrzeugs bewegt. Ein solches verein­ fachtes System, ähnlich denen, die für einige einfache Schnellstraßenanwendungen für intelligente Fahrzeuge vor­ geschlagen wurden,empfängt eine einzelne Rückgabe bzw. Rückantwort für ein Objekt im Weg des Fahrzeugs und ant­ wortet, wenn das Objekt gefährlich nahe ist oder schnell aufschließt bzw. näherkommt. Das System beschäftigt sich nicht mit der Größe oder der Art des erfaßten bzw. detek­ tierten Objektes, sondern beschäftigt sich nur damit, ob es ein Objekt im Weg des Fahrzeugs gibt.
In der beispielhaften Implementierung muß spezielle­ res Vorgehen getroffen werden. Beispielsweise muß, weil es keinen Fahrer gibt, die Breite des Objektes 102 be­ kannt sein, so daß das Gastfahrzeug 104 um das Objekt 102 herumgesteuert werden kann, falls nötig.
Zusätzlich ist es wichtig zu wissen, ob andere Ob­ jekte 102, wie beispielsweise Felsen im Weg des Gastfahr­ zeugs 104 sind. Felsen können schwer zu detektieren bzw. zu erfassen sein. Man erwäge beispielsweise einen relativ kleinen Felsen im Nahfeld, wie beispielsweise das Objekt 102 a, das in Fig. 1 abgebildet ist. Das Erfassungssy­ stem 108 wird Rückantworten vom Objekt 102 erfassen ge­ nauso wie Rückgaben von der Straße vor und hinter dem Ob­ jekt 102a. Daher kann es schwierig sein, die Anwesenheit des Objektes 102a vom Hintergrundrauschen zu unterschei­ den (d. h. Rückgaben der Straße).
Wegen dieser spezifischen Erfordernisse dieser Bei­ spielimplementiereung ist das Erfassungssystem 108 als ein Millimeter-Wellen-Radarsystem implementiert. Ein sol­ ches System sieht eine Hochauflösungsverfolgung mit einer sehr engen Strahlbreite vor. Als eine Folge können wäh­ rend eines Scans bzw. einer Abtastung über das Blickfeld mehrere benachbarte Rückgaben für jedes Objekt 102 im Weg des Gastfahrzeugs 104 empfangen werden. So kann jedes in­ dividuelle Objekt von mehrere Datenpunkten repräsentiert werden, und zwar jeder in seinem eigenen Abteil (Bin).
Der Sensor 204 tastet über sein Blickfeld ab und er­ zeugt ein elektronisches Signal, das die abgefühlte Szene repräsentiert. Auf diese Repräsentation bzw. Darstellung wird Bezug genommen als ein Rahmen 216. Am Ende jeder Ab­ tastung bzw. jedes Scans wird ein Datenrahmen 216 vollen­ det und ein Erfassungsberechnungs- bzw. Erfassungsverar­ beitungssystem 208 gesendet. In einem Ausführungsbeispiel werden die Abtastungsdaten in einem Wort zu einer Zeit gesendet, wobei 512 Werte die Daten für eine Antennenpo­ sition darstellen. Timing- (Zeitsteuerungs) und/oder Syn­ chronisationsmechanismen werden verwendet, um die Rahmen zu verfolgen.
Das Erfassungsverarbeitungssystem 208 empfängt jeden Rahmen 216. Das Erfassungsverarbeitungssystem 208 unter­ sucht jeden Rahmen 216, um die Bestimmung zu erleichtern, ob ein erfaßtes Objekt 102 ein reales Objekt oder Rau­ schen ist, und ob eine Kurskorrektur erforderlich ist, um das Objekt 102 zu vermeiden bzw. zu umfahren.
Es ist aus mehreren Gründen nützlich, Objekte 102 zu verfolgen, die vom Erfassungssystem 108 erfühlt worden sind. Zuerst lösen Erfassungssysteme 108 manchmal auf Rauschen hin aus, und geben als eine Folge falsche Signa­ le zurück. Beispielsweise kann dies auftreten, wenn ein Lichtblitz von einem entfernten Objekt reflektiert wird und von einen Lidar-Erfassungssystem abgefühlt wird. Sol­ che Rauschsignale treten gewöhnlicherweise nur in einem einzelnen Detektorrahmen 216 auf. Ein unnötiges Stoppen oder eine Wegänderung bzw. Umleitung des Gastfahrzeugs 104 wegen eines Rauschsignals würde in ineffektivem Be­ trieb resultieren.
Ein anderer Grund, Objekte 102 zu verfolgen, ist es, die Entfernung vom Gastfahrzeug 104 zum erfaßten Objekt 102 zu bestimmen. Eine solche Bestimmung gestattet es ei­ nem Bediener oder automatisierten Navigationssystem zu bestimmen, ob eine korrigierende Handlung bzw. ein Ein­ greifen erforderlich ist und um ferner die Härte bzw. das Ausmaß einer solchen korrigierten Handlung zu bestimmen. Beispielsweise kann ein großes Objekt 102, das in kürzere Entfernung vor dem Halden- bzw. Minenlastwagen erscheint, erfordern, daß der Lastwagen sofort angehalten wird oder daß drastische Wegänderungen implementiert bzw. vorgenom­ men werden.
Wie die obigen Gründe hervorheben, ist es wichtig, Objekte 102 zu verfolgen, die vom Erfassungssystem 108 erfühlt worden sind. Jedoch gibt es Schwierigkeiten, die mit einer solchen Verfolgung verbunden sind. Eine Schwie­ rigkeit, die eine Schlüssestellung bildet, besteht darin, daß, wenn sich das Gastfahrzeug 104 entlang eines Weges bzw. Pfades bewegt, ein Objekt 102 erscheint, wie wenn es sich relativ zum Gastfahrzeug 104 bewegt und zwar obwohl das Objekt 102 stationär bzw. unbeweglich ist. Somit kann ein Objekt 102, das an einem ersten Ort in einem erstem Rahmen 216 erscheint, als ein zweites Objekt 102 erschei­ nen, und zwar an einem zweiten Ort in einem folgenden Rahmen 216. Dieses Phänomen kann zu der irrtumlichen Schußfolgerung führen, daß es mehrfache Objekte 102 zu vermeiden bzw. zu umfahren gibt und zwar eins an jedem Ort. Dieses Phänomen kann auch zur irrtümlichen Schluß­ folgerung führen, daß das Objekt nur Rauschen ist, weil es nur an einem gegebenen Ort für einen Rahmen 216 er­ scheint.
Die Objektverfolgung wird nun beschrieben und zwar hinsichtlich der Beispielanwendung, die oben angeführt wurde.
Im allgemeinen werden Objekte wie folgt verfolgt: Jedes Objekt 102, das von einem Sensor 204 erfaßt wird, wird in einem ersten Rahmen 216 als mehrere Datenpunkte repräsentiert. Jeder Datenpunkt gibt einen Leistungswert an, und zwar bei einem gegebenen Winkel und einer Entfer­ nung. Diese Repräsentation bzw. Darstellung, auf die Be­ zug genommen wird als ein Rahmen von Datenpunkten, gibt die Position des Objekts 102 bezüglich des Sensors 204 an.
In dem beispielhaften Ausführungsbeispiel, das einen Radarsensor 204 verwendet, werden, wenn ein Objekt 102 vom Sensor 204 erfaßt wird, die Rückgaben in Form von Zeit und Amplitude gegeben. Diese Daten müssen in Entfer­ nungs- und Leistungsdaten bei jedem horizontalen Ab­ tastwinkel umgewandelt werden. Im beispielhaften Ausfüh­ rungsbeispiel wird dies getan durch die Ausführung einer Schnell- bzw. Fast-Fourier-Transformation (FFT = Fast- Fourier-Transform) mit den Daten bei jedem horizontalen Abtastwinkel.
Nachdem die Daten empfangen worden sind, wird die FFT ausgeführt, die Daten werden im Rahmen 216 gespei­ chert und jeder Datenpunkt wird in globale Koordinaten umgewandelt, so daß die Objektposition bekannt ist, und zwar unabhängig von der Detektorposition. Die globalen Koordinaten können bezogen werden auf einen festen Ort am Boden, sowie beispielsweise ein Bedienungshauptquartier. Somit bleibt ein stationäres Objekt 102 innerhalb des Re­ ferenzglobalkoordinatenrahmens fixiert und zwar ungeach­ tet dessen, wo das Gastfahrzeug 104 (und daher der Sensor 204) positioniert sind.
Wenn das Gastfahrzeug 104 fortschreitet, auf seinem Weg bzw. Pfad voranzuschreiten, werden Objekte 102 erfaßt und durch Datenpunkte in einem zweiten Rahmen 216 darge­ stellt und zwar bei einer zweiten Tast- bzw. Aufnahme­ zeit. Die Rahmendaten in globalen Koordinaten (vom vorhe­ rigen Rahmen) werden in Winkel- und Entfernungskoordina­ ten umgewandelt und zwar relativ zur Detektorposition 204, wenn der zweite Rahmen 216 erfaßt wird. Diese Daten werden dann mit den Rahmendaten im zweiten Rahmen 216 kombiniert.
Die kombinierten Datenpunkte im zweiten Rahmen 216 werden dann in globale Koordinaten umgewandelt und in den nächsten (dritten) Rahmen 216 eingegeben bzw. kartogra­ fiert. Dieser Prozeß geht weiter, so daß Datenpunkte von allen vorherigen Rahmen 216 in jeden darauffolgenden Rah­ men 216 eingetragen werden und damit kombiniert werden.
Als Folge dieses Eintragens bzw. Kartografierens er­ scheint ein Datenpunkt, der im ersten Rahmen erschien, koinzident mit sich selbst in dem zweiten und den darauf­ folgenden Rahmen 216, und zwar auch, wenn das Gastfahr­ zeug 104 sich bewegt (d. h. auch wenn der Sensor 204 sich bezüglich des Objekts 102 bewegt). Dies ist so, weil Da­ ten von einem Rahmen 216 in globale Koordinaten konver­ tiert werden, dann rückkonvertiert in den Referenzrahmen und des Sensors 204 zur nächsten Tast- bzw. Aufnahmezeit, dann in den neuen Rahmen 216 eingetragen bzw. kartogra­ fiert werden.
Um das Eintragen besser zu verdeutlichen, ist es hilfreich, die Erzeugung eines Rahmens 216 genauer zu verstehen. Das Erfassungssystem 108 und die Erzeugung der Rahmen 216 werden nun im Detail beschrieben und zwar in Form eines beispielhaften Erfassungssystems, das ausge­ wählt wurde, um eine Objektverfolgung in der beispielhaf­ ten Umgebung zu implementieren.
Fig. 3 verdeutlicht Objekte 102 im Blickfeld eines Sensors 204. Fig. 4 verdeutlicht eine Darstellung bzw. Repräsentation eines Rahmens 216. Ein inhärentes Merkmal des Erfassungssystems 108 ist ein Blickfeld 304. Das Blickfeld 304 wird durch die Grenzen der horizontalen Ab­ tastung des Sensors 204 definiert.
Gemäß dieses Beispiels ist der Sensor 204 eine Mil­ limeterwellen-Radareinheit mit frequenzmodulierter konti­ nuierlicher Welle (FMCW = Frequency Modulated Continous Wave), die bei einer Frequenz von 77 Ghz arbeitet. Der Sensor 204 tastet einen Ein-Grad-Strahl (als theta in Fig. 3 verdeutlicht) über ein 64-Grad-Horizontalblickfeld bei 1-Grad-Intervallen. RF-Energie, die bei ungefähr 77 Ghz zentriert ist wird übermittelt, und zwar in einem Aufwärtsrampenteil und einem Abwärtsrampenteil. Das emp­ fange Signal wird mit diesem übermittelten bzw. gesende­ ten Signal gemischt und ein Zwischenfrequenz-IF-Signal ergibt sich. Wenn Radarenergie von Objekten im Blickfeld des Radars reflektiert wird, ist die Entfernung (Größe) dieser Objekte direkt proportional zu Frequenzen in dem IF-Signal.
Ein Antialias-Filter wird verwendet, um Frequenzen über 500 kHz im IF-Signal zu eliminieren. Die Cut-Off- Frequenz des Antialias-Filters ist 390 KHz, was einem Be­ reich von 100 m entspricht. Das IF-Signal wird auch durch einen Rˆ4-Filter geschickt, der den Effekt des Ausfalls von Radarleistung eliminiert, wenn der Radius von der Quelle ansteigt. Dies bedeutet, daß ein Objekt ungefähr die gleiche Leistung bei 100 m hat wie bei 5 m.
Der Teil des IF-Signals, der der Aufwärtsrampen-Zeit und der Abwärtsrampen-Zeit entspricht, wird werden) di­ gitalisiert und an das Erfassungsberechnungs- bzw. -verarbeitungssystem 208 gesendet. Jeder Aufwärtsrampen- Teil und Abwärtsrampen-Teil des Signals wird in 256 Worte oder Zeitinkremente digitalisiert. Der Rahmen 216 wird vom Erfassungsberechnungs- bzw. -verarbeitungssystem 208 erzeugt und zwar durch Ausführen einer Schnell- bzw. Fast-Fourier-Transformation (FFT) am Abwärtsrampen-Teil der Daten und zwar bei jedem 1-Grad-Intervall. Die FFT transformiert die 256 Punkte von Digitaldaten in die Lei­ stungsdomäne bzw. den Leistungsbereich, was in 128 Werten resultiert, die den reflektierten Leistungswerten ent­ sprechen, und zwar bei 1-Meter-Inkrementen bis zu 128 Me­ tern vom Sensor 204. Weil die Cut-Off- bzw. Abschneid- Frequenz des Antialias-Filters bei 390 KHz ist, werden die Werte nach 100 m ignoriert, und der Rahmen 216 wird mit 64 Azimuthpositionen und Leistungswerten aus 100 m erzeugt.
Ein zusätzlicher Schritt, der in diesem Stadium aus­ geführt werden könnte, ist es, eine FFT am Aufwärtsram­ pen-Teil auszuführen und die Information über die Objekt­ verschiebung im Aufwärtsrampen- und Abwärtsrampen-Teil zu verwenden, um die Relativgeschwindigkeit von den Objekten im Blickfeld 304 zu berechnen. In der vorliegenden Erfin­ dung wird dieser Schritt nicht ausgeführt und zwar wegen der begrenzten Rechen- bzw. Verarbeitungsleistung, die bei der Beispielhardware zur Verfügung steht, aber es wurde erkannt, daß dieser Schritt zusätzliche Relativge­ schwindigkeitsinformation hinzufügen könnte. Dieser Schritt wird auch nicht ausgeführt, weil in diesem Stadi­ um ein einzelnes Objekt 102 im Rahmen 216 durch mehrere Datenpunkte (Leistungswerte im Rahmen 216) repräsentiert werden kann. Rahmenraten bzw. Bildwiederholungsraten von 4-5 Hertz am Rahmen 216 gestatten es, daß die Objekte 102 mehrere Male pro Sekunde gesehen werden und haben die Notwendigkeit für Relativgeschwindigkeitsinformation in der vorliegenden Anwendung verringert, wo die Höchstge­ schwindigkeit des Gastfahrzeugs 35 Meilen pro Stunde ist. Das Ansehen der Objekte 102 in Mehrfachstrahlen und bei Rahmenraten bzw. Bildwiederholungsraten von 4-5 Hertz ist vorteilhafter, um Objekte mit kleiner Leistung zu finden, als die Zeit zu nehmen, um die Relativgeschwin­ digkeit der Objekte zu berechnen.
Die Daten im Rahmen 216 zeigen den Ort der Objekte 102 relativ zur Position des Sensors 204 an und zwar un­ gefähr bei der Zeit, zu der die Rückgabe bzw. Rückmeldung empfangen wird. Diese Zeit kann angenähert werden als un­ gefähr gleich der Zeit, zu der die Abtastung bzw. der Scan vollendet ist. So kann der Ausdruck "Tastzeit" bzw. "Aufnahmezeit", wie er in diesem Dokument verwendet wird, sich auf das Ende eines Schwenks beziehen, die Zeit, zu der eine Rückgabe vom Sensor 204 empfangen wird, oder ir­ gendeine andere Zeit, die sich auf den Empfang einer Si­ gnalrückgabe bezieht.
In Fig. 3 sind zwei Objekte 102a, 102b im Blick­ feld 304 des Erfassungssystems 108.
Nun bezugnehmend auf Fig. 4 wird jeder Rahmen 216 in eine Vielzahl von Abteilen (Bins) 404 aufgeteilt. Die Abteile (Bins) werden verwendet, um den Ort von Daten­ punkten zu repräsentieren, die Signalrückgaben von Objek­ ten 102 im Blickfeld 304 repräsentieren. In einem Ausfüh­ rungsbespiel wird das Blickfeld in 1-Grad-Imkremente in
der theta (Θ)-Richtung aufgeteilt und in 1-Meter- Inkremente in der Vorwärts- oder Führungsrichtung. Somit wird für ein Blickfeld mit einem Schwenk von 64 Grad und einer Tiefe von 100 m das Blickfeld in 6400 Inkremente aufgeteilt. Um dies einzurichten, kann der Rahmen 216 lo­ gisch definiert werden, so daß er 6400 Behälter bzw. Ab­ teilungen 404 besitzt. Jedes Abteil (Bin) 404 wird als ein Gitterpunkt in Fig. 4 verdeutlicht, wobei die Ordi­ nate den Schwenkwinkel definiert und die Abszisse die Tiefe definiert. Für jeden Datenpunkt der für ein erfaß­ tes Objekt zurückgegeben wird, wird ein Wert, der die Si­ gnalleistung darstellt in eine Abteilung 404 gesetzt wer­ den, und zwar assoziiert mit der Position des Teils des Objektes (in Schwenkwinkel und Tiefe) innerhalb des Blickfeld 304.
Die obige Besprechung beschreibt, wie Datenpunkte, die jedes Objekt 102 darstellen, in einem Rahmen 216 re­ präsentiert werden. Was nun beschrieben wird ist, wie die Objekte 102 von einem Rahmen 216 zu einem anderen Rahmen 216 verfolgt werden, wenn das Gastfahrzeug 104 sich ent­ lang seines Pfades bewegt. Wie oben festgestellt, ist dies wichtig, weil, wenn das Gastfahrzeug 104 sich be­ wegt, der Ort eines stationären Objektes 102 sich in Be­ zug auf den Sensor 204 verändern wird. Die Diskussion ist aus Einfachheitsgründen bezüglich eines einzelnen Objek­ tes 102a vorgesehen. Nach dem Lesen der folgenden Be­ sprechung würde es einem Fachmann offensichtlich werden, wie diese Technik auf eine Vielzahl von Objekten ange­ wandt wird.
Es ist hilfreich, zuerst die Objektverfolgung zusam­ menzufassen, bevor man den Prozeß im Detail beschreibt. Einfach gesagt, ist es das Ziel bei der Objektverfolgung, jedes Objekt 102 in globalen Koordinaten zu kartografie­ ren, so daß das Objekt unabhängig von der Sensorposition repräsentiert werden kann. Das kartografierte Objekt 102 wird dann in einem darauffolgenden Datenrahmen wieder­ bzw. zurückkartografiert oder zurückeingetragen. D.h. seine Position (die nunmehr in globalen Koordinaten be­ kannt ist) wird in die Koordinaten des Sensors 204 einge­ tragen und zwar zu der Zeit, zu der der darauffolgende Datenrahmen aufgenommen wird. Infolgedessen wird ein sta­ tionäres Objekt 102 auf sich selbst eingetragen bzw. kar­ tografiert und zwar für jeden darauffolgenden Rahmen, in dem es erscheint.
In einigen konventionellen Verfolgungssystemen sind Objekte 102, die verfolgt werden, in sehr großen Entfer­ nungen vom Radar. Ein Bereich eines Objektes kann irgend­ wo von einigen paar km bis einigen 100 km sein. Infolge­ dessen erscheint jedes Objekt als ein einzelner Daten­ punkt in einem einzelnen Abteil (Bin) . Solche Objekte 102 könnten leicht verfolgt werden durch Eintragen des ein­ zelnen Datenpunktes, der mit jedem Objekt verbunden bzw. assoziiert ist, in den nächsten Datenrahmen.
Im Gegensatz dazu werden in der Beispielimplentie­ rung genauso wie in einigen anderen Anwendungen Objekte nahe des Fahrzeugs erfaßt. Weil sich die Beispielanwend­ nung damit befaßt, Objekte zu vermeiden, die relativ nahe des Fahrzeugs sind (z. B. in einem Bereich von 100 m oder weniger) erscheinen Objekte in einem Rahmen 216 als meh­ rere Datenpunkt. Wie unten beschrieben, stellt dies meh­ rere einzigartige Probleme dar, die überwunden werden müssen, wenn Objekte von einem Rahmen in den nächsten eingetragen bzw. kartografiert werden.
In der Praxis wird die Genauigkeit des Radars durch Umgebungseffekte eingeschränkt, durch Zielcharakteristi­ ken und durch Instrumentenfehler. Umwelteffekte können Mehrweg-Signal-Fortpflanzung und Brechung umfassen. Zielcharakteristiken können Zieloberflächentexturen um­ fassen, die in individuellen Streuungszentren resultie­ ren, und abgerundete Kanten die in ungleichförmigen Rück­ gaben um die Kanten des Ziels resultieren. Ein Instrumen­ tenfehler, der durch saubere Ausrichtungs- und Kalibrati­ onstechniken minimiert werden kann, schränkt die Leistung genauso ein. Zusätzlich können Paralaxenfehler in dieser Anwendung resultierten, wo der Sensor 204 über dem Boden montiert ist und verwendet wird, um Objekte 102 auf dem Boden zu verfolgen.
Weil diese Effekte in Objektbildern resultieren kön­ nen, die zu wandern und zu schimmern scheinen, ist es schwierig, ein Objekt 102 von einem Rahmen in den näch­ sten einzutragen. Die Erfinder haben eine Lösung vorgese­ hen, um dieses Problem zu überwinden. Gemäß der Lösung der Erfinder werden die Objekte 102 nicht für sich als Objekte eingetragen bzw. kartografiert. Statt dessen trägt die Lösung der Erfinder individuell jeden Datenpunkt in den darauffolgenden Rahmen ein. Als eine Folge wird jeder Datenpunkt eines Objektes 102 in einem Rahmen in den dar­ auffolgenden Rahmen eingetragen.
Dann wird ein Schritt, auf den Bezug genommen wird als Punktkolorierung (Blop Colouring), ausgeführt, um die kombinierten Datenpunkte in Sätze zu gruppieren, die Ob­ jekte 102 repräsentiert.
Fig. 5 ist ein Betriebsflußdiagramm, das die Ob­ jektverfolgung unter einer Serie von Rahmen 216 verdeut­ licht. In einem Schritt 504 empfängt das Verfolgungssy­ stem 212 einen aktuellen Datenrahmen 216. Der aktuelle Datenrahmen 216 umfaßt eine Darstellung eines jeden Ob­ jektes 102, das im Blickfeld 304 erfaßt wurde. Wie oben festgestellt, wird in der Beispielumgebung jedes Objekt typischerweise durch mehrere Datenpunkte repräsentiert.
Wie oben festgestellt, repräsentiert das Signal, das in jeder Abteilung gespeichert ist, den Bereich, den Win­ kel und die Leistung des Rückgabesignals. Der Leistungs­ teil repräsentiert die Signalstärke, die von den erfaßten Objekten 102 empfangen wurde. Die Signalstärke oder -leistung kann eine Angabe der Größe, der Form und/oder der Zusammensetzung des Objekts 102 sein. Die Leistung bezieht sich auf die Anzahl der Rahmen, in der ein Objekt 102 erschienen ist.
Das Gastfahrzeug 104 fährt fort, sich auf seinem Pfad zu bewegen. Während dieser Zeit macht das Erfas­ sungssystem 108 eine nächste Abtastung, um Objekte 102 innerhalb des Blickfeldes 304 zu erfassen. Am Ende der Abtastung hat das Erfassungsverarbeitungs- bzw. -berechnungssystem 208 einen vollständigen Rahmen 216 von Datenpunkten empfangen. Somit empfängt das Erfassungsver­ arbeitungs- bzw. -berechnungssystem 208 in einem Schritt 512 einen nächsten Datenrahmen 216. Weil das Gastfahrzeug 104 sich bewegt hat, seitdem der letzte Rahmen 216 in Schritt 504 empfangen wurde, ist es wahrscheinlich, daß in diesem neuen Rahmen 216 das Objekt 102a von einem an­ deren Satz von Datenpunkten in anderen Abteilungen 404 repräsentiert wird als es im alten Rahmen 216 wurde.
Daher werden in einem Schritt 516 die Datenpunkte, die in Schritt 504 empfangen wurden, zuerst in globale Koordinaten eingetragen bzw. kartografiert und dann in diesen nächsten Rahmen 216 eingetragen, der in Schritt 512 empfangen wurde. Dies erzeugt einen neuen aktuellen Rahmen 216, der Daten enthält, die in Schritt 512 empfan­ gen wurden genauso wie Daten vom vorherigen Rahmen 216, der in Schritt 504 empfangen wurden. Weil die Datenpunkte vom vorherigen Rahmen 216 zuerst in globale Koordinaten eingetragen wurden, und weil die Position des Erfassungs­ systems 108 in globalen Koordinaten, zu der Zeit bekannt ist, zu der nächste Rahmen 216 erzeugt wurde, können die Datenpunkte vom vorherigen Rahmen 216 in den nächsten Rahmen 216 eingetragen werden, und zwar bei der korrekten Entfernungs- bzw. Winkelposition (d. h. im korrekten Ab­ teil bzw. Bin 404). Um dies durchzuführen, werden die Da­ tenpunkte in globale Koordinaten umgewandelt und dann in das Koordinatensystem des Erfassungssystems 108 (d. h. Lo­ kalkoordinaten) eingetragen und übersetzt bzw. überführt, um die Position des Erfassungssystems 108 zu reflektieren bzw. darzustellen und zwar zu der Zeit, zu der der näch­ ste Rahmen 216 erzeugt wurde.
In diesem Schritt wird jeder Datenpunkt individuell in globale Koordinaten eingetragen bzw. kartografiert und zwar ohne Rücksicht darauf, welches Objekt er darstellt. In anderen Worten werden gemäß der Erfindung "Objekte" für sich nicht eingetragen bzw. kartografiert. Statt des­ sen werden individuelle Datenpunkte kartografiert. Gemäß eines Ausführungsbeispiels wird jeder Datenpunkt in glo­ bale Koordinaten kartografiert und dann sofort in neue Lokalkoordinaten kartografiert. Daher ist in diesem Aus­ führungsbeispiel nur ein Datenpunkt jemals in globalen Koordinaten und dann nur für eine sehr kurze Zeitperiode. Der Algorhythmus zieht Vorteile aus dem impliziten Koor­ dinatensystem der Bereichs- bzw. Anordnungsstruktur des Rahmens selbst. D. h. Reihenindizes sind Azimuthe und Spaltenindizes sind Entfernungen. Ein ähnlicher Bereich bzw. eine ähnliche Anordnung, die das Gebiet umfaßt, das vom Gastfahrzeug überquert wird, wäre enorm groß. Daher wird im bevorzugten Ausführungsbeispiel jeder Punkt im aktuellen bzw. laufenden Rahmen in globale Koordinaten kartografiert worden und Osten), die dann verwendet wer­ den um einen Azimuthindex und einen Entfernungsindex zu berechnen. Diese Indizes zeigen dort hin, wo die (abgeschwächten bzw. gedämpften) Leistungswerte vom aktu­ ellen Rahmen in den nächsten Rahmen summiert werden. So­ mit ist ein Speicher für nur ein Norden-Osten-Paar erfor­ derlich, weil, er für jeden Datenpunkt wiederverwendet wird.
Ein alternatives Ausführungsbeispiel fordert, die Leistungswerte vom aktuellen Rahmen in vier Punkte im nächsten Rahmen zu interpolieren, weil das Kartografieren von globalen Koordinaten in Bereichs- bzw. Anordnungsin­ dizes nicht exakt ist. Der kartografierte Punkt liegt im­ mer (außer an den Kanten) in einem Bereich bzw. einer Re­ gion, die von vier Punkten im nächsten Rahmen begrenzt wird. Das bevorzugte Ausführungsbeispiel interpoliert nicht, sondern kartografiert vielmehr die Leistungswerte vom augenblicklichen Rahmen auf den nächsten Punkt im nächsten Rahmen. Das alternative Ausführungsbeispiel wür­ de einen Diffusionseffekt an den Kanten von Objekten be­ wirken, was einen zusätzlichen Schwellenprozeß erfordert.
In einem Ausführungsbeispiel wird das globale Koor­ dinatensystem definiert und zwar unter Verwendung eines Referenzrahmens, der an einem festen Ort ist. Beispiels­ weise könnte der Referenzrahmen des globalen Koordinaten­ systems bei einer festen Basisstation zentriert sein, oder bei einem Betriebshauptquartier. Mit einem solchen stationären Referenzrahmen ist ein stationäres Objekt 102 immer bei den gleichen Koordinaten gelegen. Dies ist im Gegensatz zum Referenzrahmen des Erfassungssystems 108, der sich bewegt, wenn sich das Gastfahrzeug 104 bewegt. Mit einem sich bewegenden Referenzrahmen erscheint ein stationäres Objekt 102 bei verschiedenen Koordinaten, wenn sich der Referenzrahmen relativ zum stationären Ob­ jekt 102 bewegt.
Somit überträgt der Schritt 516 die Datenpunkte, die vom Referenzrahmen des Erfassungssystems 108 gemessen worden sind, in ein globales Koordinatensystem, das nicht abhängig ist von der Position des Gastfahrzeugs 104. Um diese Umwandlung auszuführen, ist es zuerst notwendig, die Position des Erfassungssystems 108 zu kennen und zwar in globalen Koordinaten zur Tast- bzw. Aufnahme zeit (sample time) . Im beispielhaften Ausführungsbeispiel kann die Position des Gastfahrzeugs 104 in globalen Koordinaten bestimmt werden und zwar unter Verwendung von beispiels­ weise einem GPS-Empfänger (Global Positioning System = GPS = globales Positionsbestimmungssystem) . Wenn die Po­ sition des Gastfahrzeugs 104 bekannt ist, kann eine ein­ fache Übertragung vorgenommen werden, um die Position des Erfassungssystems 108 in globalen Koordinaten zu bestim­ men.
Sobald die Position des Erfassungssystem 108 bekannt ist, werden die Winkel/Tiefekoordinaten, die vom Erfas­ sungssystems 108 geliefert werden, übertragen bzw. über­ setzt, um der Position des Erfassungssystems 108 in glo­ balen Koordinaten Rechnung zu tragen. Als eine Folge wird jeder Datenpunkt in globalen Koordinaten dargestellt, die wahre Koordinaten sind, und zwar in Bezug auf die Basis­ station und unabhängig von der Position des Gastfahrzeugs 104 und des Erfassungssystems 108. Die Mechanismen des Koordinateneintragens bzw. der Koordinatentransformation sind dem Fachmann wohl bekannt.
In einem Schritt 520 wird ein Punktkolorierung (Blop Colouring) genannter Schritt ausgeführt und zwar basie­ rend auf den Daten, die im neuen aktuellen bzw. laufenden Rahmen 216 enthalten sind. In diesem Schritt wird jeder Datenpunkt mit benachbarten Datenpunkten kombiniert, um ein oder mehr Objekte aus der Sammlung von kartografier­ ten Datenpunkten zu definieren. Dieser Schritt wird in größerer Genauigkeit unten beschrieben.
In einem Schritt 524 wird eine Liste von Objekten 102 erzeugt, und zwar basierend auf den Resultaten der Punktkolorierung. Diese Liste umfaßt den Winkel, die Ent­ fernung und die Leistung eines jeden Objektes, das im neuen aktuellen Rahmen 216 enthalten ist.
Wie von der Flußlinie 562 verdeutlicht, wird ein an­ derer Datenrahmen 216 empfangen (Schritt 512), und die aktuellen Daten werden in globalen Koordinaten eingetra­ gen bzw. kartografiert und dann in den jüngsten Rahmen 216 zurückgetragen, um einen anderen neuen aktuellen Rah­ men 216 zu erzeugen (Schritt 516). Die Punktkolorierung wird wieder in Schritt 520 ausgeführt und die Objektliste wird auf den neusten Stand gebracht. Dieser Prozeß fährt fort, sich zu wiederholen und während es dies tut, wird die Objektliste weiterhin auf den neuen Stand gebracht.
Fig. 6 ist ein Betriebsflußdiagramm, das den Schritt 504 in größerer Genauigkeit verdeutlicht. Nun be­ zugnehmend auf Fig. 6 wird ein Datenrahmen 216 in einen Schritt 604 vom Sensor 204 empfangen. Dieser Rahmen 216 ist in einer Zeitdomäne bzw. in einem Zeitbereich, in dem jedes Objekt durch Zeit- und Amplitudenwerte repräsen­ tiert wird. In einem Schritt 608 führt das Verfolgungssy­ stem 212 eine Schnell- bzw. Fast-Fourier-Transformation mit diesen Daten aus, um eine Entfernung (Bereich), einen Winkel und eine Leistung für jeden Datenpunkt zu bekom­ men.
In einem Schritt 612 wird jeder Datenpunkt mit einem Schwellenpegel verglichen, um zu bestimmen, ob der Daten­ punkt gültig ist. Wenn sie unterhalb der Schwelle sind (Entscheidungsblock 616), dann werden die Daten in einem Schritt 620 fallengelassen. Wenn sie oberhalb der Schwel­ le sind, wird der Datenpunkt in einem Schritt 624 einge­ geben.
In einem Ausführungsbeispiel wird die Schwelle unter Verwendung eines konstanten Falschalarmratenalgorhythmus (CFAR = Constant False Alarm Rate) bestimmt. Dieser Al­ gorhythmus sieht Mittel vor zum Bestimmen einer Schwelle für jedes Bereichs- bzw. Entfernungsabteil (Bin) 404 und zwar durch Vergleichen des Wertes eines Bereichs- bzw. Entfernungsabteils (Bin) 404 mit dem Mittel seiner Nach­ barn oder irgendeiner Gruppierung seiner Nachbarn. Siehe Seiten 392-395 in "Introduction to Radar Systems" von Merrill I. Skolnik, McGraw-Hill, Inc., 1980, für eine Be­ schreibung eines CEAR-Radarempfängers.
In einem bevorzugten Ausführungsbeispiel wird jeder Datenpunkt verglichen mit dem Mittel der Datenpunkte in 5 Bereichs- bzw. Entfernungsabteilen (Bins) 404 vor dem Da­ tenpunkt und den 5 Bereichs- bzw. Entfernungsabteilen (Bins) hinter dem Datenpunkt und mit denselben Bereichs­ abteilen (Bins) 404 in den Radarstrahlen links und rechts der Datenpunkte. Auf diese Weise wird ein Fenster um den Datenpunkt mit den Abmessungen von 3 Strahlen im Azimuth mal 11 in Entfernungs- bzw. Bereichsinkrementen gebildet. Das Mittel der 32 Datenpunkte um den Datenpunkt wird ge­ funden, und wenn der Punkt größer ist als 3x dieses Mit­ tel, dann ist der Punkt oberhalb der Schwelle und der Punkt wird als gültig angesehen, andernfalls wird der Wert des Bereichs- bzw. Entfernungsabteils auf Null redu­ ziert. Verschiedene andere Kriterien mit Bezug auf die Nachbarn um den Datenpunkt könnten verwendet werden, um die Schwelle zu bestimmen.
Wie oben festgestellt, wird der Schritt 520 der Punktkolorierung (Blob Colouring) ausgeführt, um zu be­ stimmen, welche Datenpunkte kombiniert werden können, um die Anwesenheit eines Objekts anzuzeigen. Die Punktkolo­ rierung ist eine Technik, die im Computersicht- bzw. Com­ puterbilderkennungsgebiet verwendet wird, um Objekte in einem Computerbild zu kennzeichnen. Ein Punktkolorierungs­ alogrhythmus ist auf Seite 151 von "Computer Vision", Ballad und Braun, Prentis-Hall, Inc., 1982, gegeben. Die­ ser Schritt wird nun mit größerer Genauigkeit beschrie­ ben. Fig. 7 ist ein Diagramm, das ein repräsentatives Szenario für die Punktkolorierung verdeutlicht. Fig. 8 ist ein Betriebsflußdiagramm, das den Prozeß der Punktko­ lorierung gemäß eines Ausführungsbeispiels verdeutlicht.
Fig. 7 verdeutlicht einen Teil eines Rahmens 216. Weil die Punktkolorierung, die nach Rahmen 216 ausgeführt wird, mit Datenpunkten von vorherigen Rahmen 216 kombi­ niert ist (d. h. Schritte 504 - 516), ist der Teil von Rahmen 216, der in Fig. 7 verdeutlicht ist, ein Teil ei­ nes Rahmens von kombinieren Datenpunkten. Jedes Abteil 701, 702, 703 und folgende enthält einen Leistungswert. Für Abteile, für die es keine Datenpunkte gab, ist der Leistungswert Null. Für Abteile, in denen es eine Rückga­ be bzw. Rückmeldung in einem oder mehreren früheren Rah­ men und/oder im aktuellen Rahmen gab gibt es einen Lei­ stungswert. Der Leistungswert ist der Leistungswert vom aktuellen (d. h. den allerneuesten) Rahmen 216, summiert mit dem abgeschwächten bzw. gedämpften Leistungswert, der von einem oder mehreren der vorherigen Rahmen eingetragen wurde.
In einem Schritt 804 wird der Rahmen 216 abgetastet, um nach Abteilen (Bins) 701, 702, 703 und folgende zu su­ chen, in denen Leistungswerte sind, die nicht Null sind. In dem in Fig. 7 verdeutlichten Beispiel ist das erste mit einem Nicht-Null-Leistungswert im Teil des Rahmens 216 angetroffene Abteil (Bin) das Abteil 701.
Wenn ein Abteil (Bin) mit einem Nicht-Null-Wert an­ getroffen wird, werden vorher abgetastete benachbarte Ab­ teile (Bins) geprüft, um zu bestimmen, ob das gerade ge­ troffene Abteil (Bin) benachbart zu einem Abteil (Bin) mit einem Leistungswert ist. Dies wird bei Schritt 808 verdeutlicht. Weil das Abteil (Bin) 701 das erste Abteil (Bin) ist, das mit einem Nicht-Null-Wert getroffen wird (Abteil 702 ist noch nicht geprüft worden), ist die Ant­ wort auf diese Frage nein und der Betrieb fährt bei Schritt 812 fort.
Im Schritt 812 wird das getroffene Abteil als eine neue "Box" bezeichnet und der Leistungswert, der in dem Abteil enthalten ist, wird in einer Tabelle unter dieser Bezeichnung gespeichert. In dem in Fig. 7 verdeutlichten Beispiel wird das Abteil 701 als Box 1 bezeichnet und sein Leistungswert wird in einer Tabelle unter Box 1 ge­ speichert.
Ein zweites Beispiel der Schritte 804, 808 und 812 wird verdeutlicht durch die Untersuchung von Abteil (Bin) 704. Wenn das Abteil (Bin) 704 als eines mit einem Nicht- Null-Wert getroffen wird, wird das benachbarte Abteil (Bin) 703 in Schritt 808 geprüft denn wir nicht in der oberen Reihe des Rahmens 216 sind, wird das Abteil (Bin) 794 überhalb des Abteils (Bin) 704 auch geprüft). Weil es keine benachbarten zuvor geprüften Abteile (Bins) mit Nicht-Null-Leistungen gibt, wird das Abteil (Bin) 704 als eine neue Box, Box 2, bezeichnet, seine Leistung wird in Box 2 gespeichert und ein Zähler für Box 2 wird gesetzt, um anzuzeigen, daß ein Abteil (Bin) in Box 2 ist.
Über die Flußlinie 862 fährt der Scan bzw. Abtastbe­ trieb fort, und zwar bei Schritt 804, bis das nächste Ab­ teil (Bin) mit einem Nicht-Null-Wert angetroffen wird. Wenn ein Abteil (Bin) angetroffen wird, das einen Nicht- Null-Leistungswert hat, und dieses Abteil (Bin) ist be­ nachbart zu einem zuvor abgetasteten Abteil (Bin), das auch eine Nicht-Null-Leistung hat, fährt der Betrieb bei Schritt 816 fort.
In Schritt 816 wird das neue Abteil (Bin) mit der­ selben Bezeichnung bezeichnet, die für das benachbarte Abteil (Bin) vorgesehen ist, seine Leistung wird kombi­ niert mit dem Leistungswert, der für diese Box gespei­ chert ist (Schritt 820), und ein Zähler, der die Anzahl der Abteile (Bins) in der Box anzeigt, wird um 1 inkre­ mentiert (Schritt 824). Auf die Box, die einen oder meh­ rere Datenpunkte umfaßt, kann Bezug genommen werden als ein "Punkt" (Blop). Mehrere Beispiele für diese sind in Fig. 7 verdeutlicht.
In einem ersten Beispiel beachte man das Abteil (Bin) 702. Das Abteil (Bin) 702 hat einen Nicht-Null-Wert und ist benachbart zu Abteil (Bin) 701, das zu Box 1 ge­ hört. In den Schritten 816 bis 824 wird das Abteil (Bin) 702 als zu Box 1 zugehörig bezeichnet, sein Leistungswert wird zu dem Wert von Box 1 addiert, und der Abteilzähler (Bincounter) der Box 1 wird inkrementiert. Zu dieser Zeit kann die Box 1 visualisiert werden als eine Grenzbox, die die Abteile (Bins) 701 und 702 umrundet, und zwar durch die dickseitige Box um diese Abteile (Bins) herum ver­ deutlicht.
Ein zweites Beispiel der Schritte 816 - 824 wird bei Abteil (Bin) 714 verdeutlicht. Dieses Abteil (Bin) hat einen Nicht-Null-Wert und ist benachbart zum Abteil (Bin) 704. In den Schritten 816-824 wird das Abteil (Bin) 714 als zu Box 2 zugehörig bezeichnet, sein Leistungswert wird zum Wert der Box 2 addiert und der Abteilzähler der Box 2 wird inkrementiert.
Fortfahrend bei Schritt 828 wird, wenn ein Abteil (Bin) angetroffen wird und als zur Box zugehörig bezeich­ net wird, die zu einem benachbarten Abteil (Bin) zugeord­ net ist, das andere benachbarte Abteil (Bin) geprüft, um zu sehen, ob es auch nicht Null ist und wird auch be­ zeichnet. Wenn die Bezeichnung auf dem zweiten benachbar­ ten Abteil (Bin) unterschiedlich ist (d. h. wenn es als zu einer anderen Box zugehörig bezeichnet ist) werden die Boxen in einem Schritt 832 kombiniert und zwar durch Ad­ dieren der Leistungswerte und Abteilzähler (Bincounter) für beide Boxen.
Ein Beispiel für die Schritte 828 und 832 ist bei Abteil (Bin) 734 verdeutlicht. Während der Schritte 808- 824 wird das Abteil (Bin) 734 bezeichnet und zwar als zur Box 1 zugehörig und mit Box 1 kombiniert. Wenn das Abteil (Bin) 734 verglichen wird mit dem Abteil (Bin) 724, wer­ den die Leistungswerte für Box 1 kombiniert mit dem Lei­ stungswert für Box 2 und die Abteilzähler werden kombi­ niert. Die Grenzbox kann als alle Abteile (Bins), die als Boxen 1 und Boxen 2 bezeichnet sind, umfassend beschrie­ ben werden. Effektiv werden Punkt (Blob) 1 und Punkt (Blob) 2 zusammen verschmolzen. Als eine Folge repräsen­ tieren die kombinierten Punkte (Blobs) 1 und 2 ein Ob­ jekt.
In einem Ausführungsbeispiel dieser Erfindung wird zusätzliche Information gespeichert, wenn der Anfangs­ durchgang über den Rahmen 216 von Datenpunkten ausgeführt wird. Dies eliminiert die Notwendigkeit für einen zusätz­ lichen oder teilweisen Durchgang über die Datenpunkte, wenn Datenpunkte kombiniert werden und ihre Orte bzw. Plazierungen gefunden werden. Der Algorithmus bei Ballard und Braun, der oben erwähnt wird, erforderte zusätzliche Übergänge. Wie oben festgestellt, wird die Darstellung der Punkte als eine Grenzbox gehalten und wenn 2 Punkte kombiniert werden müssen, dann werden die Grenzboxabmes­ sungen des ersten Punktes ausgedehnt, um die Abmessungen des zweiten Punktes zu umfassen. Dies eliminiert die Not­ wendigkeit, einen zusätzlichen Durchgang oder teilweisen Durchgang über die Daten auszuführen, um die Punkte zu kombinieren.
In einem Ausführungsbeispiel der Punktkolorierung (Blob Colouring) wird die Bezeichnung (beschrieben als eine 1 oder 2 der obigen Beschreibung), die für ein Ob­ jekt verwendet wird, als ein aktueller Softwarepointer verwendet (Computerspeicherposition der Information), und zwar zu einer Informationsstruktur über den Punkt. Diese Information kann folgendes aufweisen: die nahe rechte Entfernung und Azimuth des Punktes, die entfernte linke Entfernung und Azimuth des Punktes, den Zentroid, die Summe der Leistung der Datenpunkte in dem Punkt, die An­ zahl der Punkte in dem Punkt (Blob) und die Maximallei­ stung eines Datenpunktes in dem Punkt (Blob) . Durch die Verwendung dieser Technik wird die Liste der Punkte und ihrer relevanten Information vervollständigt. Diese Liste von Punkt- bzw. Blob-Pointern wird durchsucht, um zu be­ stimmen, wann das Fahrzeug zu verlangsamen oder zu stop­ pen ist.
Weil die Rahmen 216 mit einem Datenpunkt gleichzei­ tig kartografiert werden, ist dieser Schritt der Punktko­ lorierung wichtig, um die Datenpunkte in ein oder mehrere Objekte 102 zu kombinieren.
Aufgrund der Ungleichförmigkeit der Objekte (abgerundete Kanten, Streupunkte usw.) und der Schwierig­ keit, die verbunden ist mit dem Zuordnen eines Schwellen­ wertes zu einem kleinen Objekt wie einem Felsen oder Stein, der auf einer Straße mit derselben Konsistenz liegt, können einige oder alle Datenpunkte, die ein Ob­ jekt repräsentieren (insbesondere an den Kanten) nicht in jedem Rahmen auftreten. Als eine Folge erscheint es, daß das Objekt Größe und Form mit jedem Rahmen ändert und es kann sogar aus einigen Rahmen verschwinden. Dies macht es extrem schwierig, ein Objekt 102 auf sich selbst im näch­ sten Rahmen zu kartografieren.
Jedoch stellen diese Effekte keine ersten Probleme für die Objektverfolgung dar, weil das Kartografieren ge­ mäß der Erfindung mit einem Datenpunkt zu einem Zeitpunkt ausgeführt wird und weil die Punktkolorierung auf den ge­ sammelten Rahmen ausgeführt wird. Das Summieren der Lei­ stungen in aufeinanderfolgende Rahmen gestattet es, daß die Rückgaben bzw. Rückantworten in gewisser Weise über die Zeit gemittelt werden, und somit die Effekte un­ gleichmäßiger Rückgaben bzw. Rückantworten über die Zeit minimiert werden.
Wie oben bemerkt, kann das Erfassungs- bzw. Detekti­ onssystem 108 unter Verwendung einer Anzahl verschiedener Erfassungs- bzw. Detektionstechniken und einer Anzahl verschiedener Systemarchitekturen oder -konstruktionen implementiert werden. Eine Beispielimplementation des Er­ fassungssystems 108 wird besprochen.
Fig. 9 ist ein Blockdiagramm, das eine Beispielim­ plementation des Detektions- bzw. Erfassungssystems 108 verdeutlicht, die mit dem Navigationssystem 212 über ein Interface verbunden ist. Das Erfassungssystem 108 weist in diesem beispielhaften Ausführungsbeispiel einen Haupt­ prozessor 904 auf, einen DSP (DSP = Digital Signal Processor = Digital-Signal Prozessor) 908 und Interfaces bzw. Schnittstellen 916 zur eigentlichen Erfassungsein­ heit, in diesem Fall Radar 920.
Zusätzliche Nahradareinheiten bzw. Näherungsradar­ einheiten 922, 924, 926, können vorgesehen werden, um Nä­ herungs- bzw. Nahalarme auszulösen. Wenn Näherungsradar­ einheiten 922, 924, 926 vorgesehen werden, kann ein Par­ allel-Input/Output 912 erforderlich sein, um die Alarme mit dem Prozessor 904 über ein Interface in Verbindung zu bringen.
Die Interfaces bzw. Schnittstellen 916 empfangen Da­ tenpunkte im Rahmen 216 über einen Signalpfad 962. Rahmen 262 -datenpunkte sind im Format Amplitude/Zeit. Die Schnittstelle 916 liefert diese Daten an den DSP 908 über den Signalpfad 964. Im DSP 908 werden die Datenpunkte in das Leistungs/Entfernungs-Format umgewandelt und werden über einen CEAR-Algorythmus (CFAR = Constant False Alarm Rate = konstante Falschalarm Rate) über eine Schwellen­ wert ausgefiltert, d. h. einer Schwellenwertbehandlung un­ terworfen. Der DSP 908 liefert diesen umgewandelten schwellenwertbehandelten Rahmen zum DSP 904 über den Si­ gnalpfad 966.
Der Hauptprozessor 904 liefert Schwellensetz- bzw. -einstellungsanforderungen und Systemauflösungsinformation an den DSP 908 über der Signalpfad 968. Der Hauptprozes­ sor 904 erzeugt und sendet auch Befehle für die Rahmen­ bzw. Bildwiederholungsrate, die Auflösung und Abtastungs­ bzw. Scan-Start/Stop an das Radar 920 über den Signalpfad 974.
Der Hauptprozessor 904 liefert Objekt- und Geschwin­ digkeitsinformation an das Navigationssystem 212 über Si­ gnalpfad 972. Das Navigationssystem 212 liefert Routen- und Positionsinformation an DSP 904 über Signalpfad 974.
Gemäß eines Ausführungsbeispieles wird ein Doppel­ puffersystem für die Rahmen 216 verwendet. In diesem Aus­ führungsbeispiel wird, wenn der erste Datenrahmen empfan­ gen wird, dieser in einem ersten Puffer gespeichert, wäh­ rend der zweite empfangene Datenrahmen in einem zweiten Puffer gespeichert wird. Nachdem die Daten vom ersten Rahmen 216 in globale Koordinaten umgewandelt sind und in einem zweiten Rahmen 216 im zweiten Puffer eingetragen bzw. kartografiert sind, kann der erste Puffer gelöscht werden. Dieser erste Puffer ist nun verfügbar für einen nächsten Rahmen 216. Dieser Betrieb bzw. Vorgang setzt sich fort, so daß das Speichern von jedem neuen Rahmen 216 zwischen den Puffern abgewechselt wird.
Gemäß des beschriebenen Verfahrens können, wenn ein Objekt 102 ein reales Objekt ist (im Gegensatz zu einer Rückgabe bzw. Rückmeldung, die auf ein Rauschen zurückzu­ führen ist), viele seiner Datenpunkte in jedem neuen Rah­ men 216 erscheinen und zwar solange wie es im Blickfeld 304 ist. Wie oben beschrieben, werden für jeden Rahmen 216 die Datenpunkte des Objektes erfaßt, kartografiert bzw. eingetragen und zu dem Signal addiert, das sich selbst repräsentiert und zwar im nächsten Rahmen 216. Wenn ein Datenpunkt kontinuierlich in zahlreichen Rahmen erscheint, würde der Wert, der für die Leistung dieses Datenpunktes gespeichert ist, auf unendlich wachen. Daher wird, bevor Daten in den nächsten Rahmen 216 addiert wer­ den (d. h. vor Schritt 516) der Leistungswert für jeden Datenpunkt abgeschwächt bzw. gedämpft. In einem bevorzug­ ten Ausführungsbeispiel liegt die Abschwächung bzw. Dämp­ fung bei einem Faktor von 2. Als eine Folge werden für einen Datenpunkt, der in zahlreichen Rahmen erscheint, die Werte, die für die Leistung des Datenpunktes gespei­ chert sind, nicht unendlich erreichen, sondern werden statt dessen auf einen Maximumwert wachsen und zwar ab­ hängig vom Abschwächungs- bzw. Dämpfungsfaktor.
Als eine Folge der Dämpfung kann ein Datenpunkt in mehreren Rahmen erscheinen müssen, bevor er als Teil ei­ nes Objektes registriert wird. Infolgedessen wird Rau­ schen aus dem System gefiltert. Dies kommt daher, weil falsche Objekte, die in nur einem oder zwei Rahmen er­ scheinen, schließlich aus dem Datensatz heraus gedämpft werden. Auch eine Folge der Dämpfung ist, wenn ein Objekt (oder ein Teil eines Objektes) aus irgendeinem Grund aus einem oder zwei Rahmen herausfällt, die Auswirkung über die Zeit minimal.
Das Eintragen bzw. Kartografieren der Datenpunkte gemäß der Erfindung kann auf nur jene Abteile (Bins) in­ nerhalb des definierten Suchgebietes begrenzt werden. Dies minimiert das Ausmaß an Prozessorzeit und Speicher­ platz, die erforderlich sind, um Objekte 102 zu verfol­ gen. In einem Ausführungsbeispiel wird das Kartografieren und die Punktkolorierung nur für ein begrenztes Suchge­ biet ausgeführt, welches ein Untersatz- bzw. Unterabteil des ganzen Rahmens ist. In diesem Ausführungsbeispiel bildet sich das Suchgebiet des alten Rahmens ab bzw. es trägt sich ein in das Suchgebiet des neuen Rahmens. Daher kann ein Punkt (Point) des alten Rahmens eliminiert wer­ den und zwar entweder dadurch, daß er außerhalb des Such­ gebietes im alten Rahmen liegt, oder durch eine Eintra­ gung in eine Zelle, die außerhalb des Suchgebietes des neuen Rahmens liegt. Dies verringert sehr stark den er­ forderlichen Rechenaufwand.
Während verschiedener Ausführungsbeispiele der vor­ liegenden Erfindung oben beschrieben worden sind, sei be­ merkt, daß sie nur beispielhaft dargelegt wurden und nicht einschränkend. Somit sollten die Weite und das An­ wendungsgebiet der vorliegenden Erfindung nicht begrenzt werden durch irgendeines der oben beschrieben beispiel­ haften Ausführungsbeispiele, sondern sollte nur in Über­ einstimmung mit den folgenden Ansprüchen und ihrem äqui­ valenten Punkten definiert bzw. dargelegt werden.
Zusammenfassen kann folgendes gesagt werden:
Ein System und ein Verfahren zur Verfolgung von Ob­ jekten empfängt erst Rückgaben bzw. Rückantworten von Ob­ jekten in einem Blickfeld eines Detektors. Der Sensor er­ zeugt einen aktuellen Rahmen von Datenpunkten, wobei ein Objekt im Blickfeld durch multiple bzw. mehrfache Daten­ punkte dargestellt werden kann. Die Datenpunkte werden in globale Koordinaten umgewandelt und in einen nächsten Rahmen von Datenpunkten eingetragen bzw. kartografiert und zu einer nächsten Tast- bzw. Aufnahmezeit generiert, um einen neuen aktuellen Rahmen von Datenpunkten zu er­ zeugen. Dieser neue aktuelle Rahmen von Datenpunkten wird verarbeitet, um eine Objektliste zu bilden, und zwar mit Orts- und Leistungsinformation, die Information von einem oder mehreren vorherigen Rahmen umfaßt. Dieses Eintragen bzw. dieses Kartografieren und Verarbeiten, um die Ob­ jektliste zu bilden, gestattet es, daß das System Ziele mit schwachem Signal erfaßt und zwar in einer Umgebung mit überhäuftem bzw. ungleichmäßigem Grund und minimiert das Auftreten von Fehlalarmen.
Zeichnungsbezeichnungen Fig. 1
104 = Host Vehicle = Gastfahrzeug
Fig. 2
108 = Detection System = Erfassungssystem
204 = Sensor = Senor
208 = Detection Processing System = Erfassungs-Be­ rechnungs- bzw. Verarbeitungssystem
212 = Navigation System = Navigationssystem
Fig. 3
104 = Field of View = Blickfeld
216 = Frame = Rahmen
Fig. 5
504 = receive a current frame 216 of data = empfange einen aktuellen Datenrahmen 216
508 = receice a next frame 216 of data = empfange einen nächsten Datenrahmen
512 = map current frame data into gobal coordinates then into the next frame 216 to create a new current fra­ me 216 = kartografiere die aktuellen Rahmendaten in glo­ bale Koordinaten, dann in den nächsten Rahmen 216, um ei­ nen neuen aktuellen Rahmen 216 zu erzeugen
516 = Do Blop Colouring = führe Punktkolorierung aus
520 = create/update list of objects = erzeu­ ge/aktualisiere Objektliste
Fig. 6
start = Start
604 = receive frame of data from detector = empfange Datenrahmen vom Detektor
608 = perform fast-fourier-transform on frame data = führe Schnell- bzw. Fast-Fourier-Transformation an den Rahmendaten aus
612 = compare data points to threshold = vergleiche Datenpunkte mit dem Schwellenwert
616 = below threshold? = unterhalb der Schwelle?
620 = discart datapoint = lasse Datenpunkt fallen
624 = enter data on bin as range, angle and power = gib Daten in Abteil (Bin) ein als Entfernung, Winkel und Leistung
done = fertig
Fig. 8
804 = scan and look for non-zero values = taste ab und suche nach Nicht-Null-Werten
808 = is bin adjacent to a non-zero-bin? = Ist das Abteil (Bin) benachbart zu einem Abteil (Bin) ungleich Null?
812 = lable as a new box and store power = bezeichne als eine neue Box und speichere die Leistung
816 = lable as previous adjacent bin is labled = be­ zeichne, wie das vorherige benachbarte Abteil (Bin) be­ zeichnet ist
820 = combine power of bin with power stored in box = kombiniere Leistung des Abteils (Bin) mit der Leistung, die in der Box gespeichert ist
824 = increment number of bins in box = inktementie­ re die Anzahl der Abteilungen in der Box
828 = is bin to a non-zero bin a different label? = ist das Abteil (Bin) benachbart zu einem Nicht-Null- Abteil (Bin) mit unterschiedlicher Bezeichnung?
832 = combine boxes = kombiniere Boxen
Fig. 9
212 = navigation system = Navigationssystem
904 = main processor board = Hauptprozessor-Board
908 = DSP board = DSP-Board
912 = parallel I/O board = Parall-I/O-Board
916 = interface board = Interface-Board bzw. Schnittstellenbord
920 forward looking radar = nach vorne sehendes Radar
922 = left front proximity radar = Näherungsradar links vorne
924 = right front proximity radar = Näherungsradar rechts vorne
926 = rear proximity radar = hinteres Näherungsradar

Claims (24)

1. Verfahren zum Verfolgen von Objekten unter Ver­ wendung eines Detektions- bzw. Erfassungssystems mit ei­ nem Sensor, der Objekte in einem Blickfeld fühlt, das folgende Schritte aufweist:
  • (A) Fühlen von Objekten im Blickfeld des Detektors;
  • (B) Erzeugen eines aktuellen Rahmens von Datenpunk­ ten, wobei die erwähnten Datenpunkte ein erfühltes Objekt im erwähnten Schritt (A) darstellen;
  • (C) Umwandeln der Datenpunkte in Datenpunkte, die in globalen Koordinaten dargestellt sind; und
  • (D) Eintragen bzw. Kartografieren der erwähnten um­ gewandelten Datenpunkte in einen nächsten Rahmen von Da­ tenpunkten, um einen neuen Rahmen von Datenpunkten zu er­ zeugen, wobei der neue Rahmen von Datenpunkten sowohl Ob­ jekte darstellt, die in dem erwähnten nächsten Rahmen de­ tektiert bzw. erfaßt wurden, als auch Objekte, die in ei­ nem oder mehrerer vorherigen Rahmen detektiert bzw. er­ faßt wurden.
2. Verfahren nach Anspruch 1, das weiter den Schritt des Wiederholens der Schritte (C) und (D) für jeden neuen Rahmen von Datenpunkten wiederholt.
3. Verfahren nach Anspruch 1, das weiter nach dem erwähnten Schritt (D) die folgende Schritte aufweist:
  • (E) Ausführen einer Punktkolorierung (Blob Colou­ ring) am neuen Rahmen von Datenpunkten, um Objekte zu de­ finieren; und
  • (F) Anfertigen einer Liste der erwähnten Objekte, die in Schritt (E) definiert worden sind.
4. Verfahren nach Anspruch 3, wobei der erwähnte Schritt (E) folgende Schritte aufweist:
  • (i) Abtasten des erwähnten neuen Rahmens, um ein Ab­ teil (Bin) mit einem Datenpunkt zu lokalisieren, der ei­ nen Nicht-Null-Leistungswert besitzt;
  • (ii) Bezeichnen bzw. Etikettieren des erwähnten lo­ kalisierten Abteils (Bin) mit einer neuen Bezeichnung bzw. einem neuen Etikett, wo das erwähnte lokalisierte Abteil (Bin) nicht benachbart zu einem vorher bezeichne­ ten Abteil (Bin) ist; und
  • (iii) Bezeichnen bzw. Etikettieren des erwähnten lo­ kalisierten Abteils (Bin) mit derselben Bezeichnung, die dem erwähnten, zuvor bezeichnetem Abteil (Bin) zugeordnet war, wo das lokalisierte Abteil (Bin) benachbart zu dem zuvor bezeichneten Abteil (Bin) ist.
5. Verfahren nach Anspruch 4, das weiter den Schritt aufweist, den erwähnten Leistungswert von jedem der loka­ lisierten Abteile (Bins) mit derselben Bezeichnung zu kombinieren.
6. Verfahren nach Anspruch 5, das weiter den Schritt aufweist, einen Zähler zu inkrementieren und zwar für ei­ ne der erwähnten Bezeichnungen bzw. Etiketten zu jedem Zeitpunkt, zu dem ein Abteil (Bin) mit der erwähnten Be­ zeichnung bezeichnet wird.
7. Verfahren nach Anspruch 4, das weiter folgenden Schritt aufweist:
Kombinieren aller der erwähnten Abteile (Bins) mit ersten und zweiten Bezeichnungen, wo bzw. wobei das er­ wähnte lokalisierte Abteil (Bin) benachbart ist zu einem vorher lokalisierten Abteil (Bin) mit einer ersten Be­ zeichnung und einem zuvor lokalisierten Abteil (Bin) mit einer zweiten Bezeichnung.
8. Verfahren nach Anspruch 1, wobei der erwähnte Schritt (B) die folgende Schritte aufweist:
  • (i) Empfangen eines Zeit- und Amplitudensignals vom Detektor für jedes Objekt;
  • (ii) Durchführen einer Schnell- bzw. Fast-Fourier- Transformation an jedem Zeit- und Amplitudensignal, um eine Vielzahl von Datenpunkten für jedes Objekt zu erzeu­ gen;
  • (iii) Vergleichen eines jeden Datenpunktes mit einem Schwellenwert;
  • (iv) Fallenlassen der Datenpunkte unter den erwähn­ ten Schwellenwert; und
  • (v) Erzeugen des erwähnten Rahmens von Datenpunkten unter Verwendung der nicht fallengelassenen Datenpunkte.
9. Verfahren nach Anspruch 8, das weiterhin den fol­ genden Schritt aufweist: Bestimmen eines Schwellenwertes, für den Datenpunkt, wobei der erwähnte Schritt des Be­ stimmens des Schwellenwertes folgende Schritte aufweist:
  • (i) Auswählen eines Datenpunktes, der einer Schwel­ lenwertbehandlung unterworfen werden soll;
  • (ii) Bestimmen eines Wertes von anderen Datenpunkten in der Nähe des erwähnten ausgewählten Datenpunktes; und
  • (iii) Mitteln des erwähnten Wertes der benachbarten Datenpunkte, um den erwähnten Schwellenwert zu bestimmen.
10. Verfahren nach Anspruch 9, wobei der erwähnte Schritt des Bestimmens eines Wertes aus anderen Daten­ punkten einen Schritt des Bestimmens eines Wertes für je­ den von 8 Datenpunkten aufweist, die sofort bzw. direkt benachbart zum erwähnten Datenpunkt sind.
11. Verfahren nach Anspruch 1, das weiter zwischen den erwähnten Schritten (C) und (D) einen Schritt des Dämpfens eines Leistungswertes der umgewandelten Daten­ punkte aufweist.
12. Verfolgungssystem zum Verfolgen von Objekten, die im Pfad eines Gastfahrzeugs erfaßt worden sind, wel­ ches folgendes aufweist:
einen Sensor, der auf dem Gastfahrzeug montiert ist und konfiguriert ist, um Objekte in einem Blickfeld zu erfassen;
Mittel zur Erzeugung eines aktuellen bzw. laufenden Rahmens von Datenpunkten, wobei die erwähnten Datenpunkte ein oder mehrere Objekte repräsentieren, die von dem er­ wähnten Sensor erfaßt worden sind;
Mittel zum Umwandeln der Datenpunkte in Datenpunkte, die in globalen Koordinaten repräsentiert sind; und
Mittel zum Eintragen bzw. Kartografieren der erwähn­ ten umgewandelten Datenpunkte in einen nächsten Rahmen von Datenpunkten, um einen neuen Rahmen von Datenpunkten zu erzeugen, wobei der neue Rahmen von Datenpunkten Ob­ jekte repräsentiert, die in dem nächsten Rahmen erfaßt worden sind, genauso wie Objekte, die in einem oder meh­ reren der vorherigen Rahmen erfaßt worden sind.
13. System nach Anspruch 12, welches weiterhin fol­ gendes aufweist:
Mittel zur Punktkolorierung (Blob Colouring) des neuen Rahmens von Datenpunkten, um Objekte zu definieren; und
Mittel zum Anfertigen einer Liste der erwähnten de­ finierten Objekte.
14. System nach Anspruch 13, wobei die erwähnten Mittel zur Punktkolorierung (Blob Colouring) folgendes aufweisen:
Mittel zum Scannen bzw. Abtasten des neuen Rahmens, um ein Abteil (Bin) zu lokalisieren mit einem Datenpunkt, mit einem Nicht-Null-Leistungswert;
Mittel zum Bezeichnen des lokalisierten Abteils (Bin) mit einer neuen Bezeichnung, wobei das Lokalisierte Abteil (Bin) nicht benachbart zu einem zuvor bezeichneten Abteil (Bin) ist; und
Mittel zum Bezeichnen des lokalisierten Abteils (Bin) mit der gleichen Bezeichnung, die dem erwähnten zu­ vor bezeichneten Abteil (Bin) zugeordnet war, wobei das lokalisierte Abteil (Bin) benachbart zu dem erwähnten zu­ vor bezeichneten Abteil (Bin) ist.
15. System nach Anspruch 14, das weiter Mittel auf­ weist zum Kombinieren des erwähnten Leistungswertes für jedes lokalisierte Abteil (Bin) mit der gleichen Bezeich­ nung.
16. System nach Anspruch 15, welches weiterhin Zäh­ lermittel aufweist zum Zählen der Anzahl von Abteilen mit einer gegeben Bezeichnung.
17. System nach Anspruch 14, welches weiter Mittel aufweist zum Kombinieren von allen erwähnten Abteilen mit ersten und zweiten Bezeichnungen, wobei das lokalisierte Abteil (Bin) benachbart zu einem zuvor lokalisierten Ab­ teil (Bin) ist mit einer ersten Bezeichnung und einem zu­ vor lokalisierten Abteil (Bin) mit einer zweiten Bezeich­ nung.
18, Das Verfolgungssystem nach Anspruch 12, wobei die erwähnten Mittel zur Erzeugung folgendes aufweisen:
Mittel zum Empfangen eines Zeit- und Amplitudensi­ gnals für jedes Objekt vom Detektor;
Mittel zur Ausführung einer Schnell- bzw. Fast- Fourier-Transformation auf jedem der Zeit- und Amplitu­ densignale um einen Datenpunkt für jedes Objekt zu erzeu­ gen;
Mittel zum Vergleichen eines jeden Datenpunktes mit einem Schwellenwert;
Mittel zum Fallenlassen der Datenpunkte unter dem erwähnten Schwellenwert, und
Mittel zum Erzeugen eines Rahmens von Datenpunkten unter Verwendung der erwähnten Datenpunkte, die nicht fallengelassen wurden.
19. Verfolgungssystem nach Anspruch 18, welches wei­ ter Mittel aufweist zum Bestimmen eines Schwellenwertes für den Datenpunkt, wobei die Mittel zum Ermitteln des erwähnten Schwellenwertes folgendes aufweisen:
Mittel zum Auswählen eines Datenpunktes, der einer Schwellenwertbehandlung unterwerfen werden soll;
Mittel zum Bestimmen eines Wertes von anderen Daten­ punkten in der Nähe des ausgewählten Datenpunktes; und
Mittel zum Mitteln des Wertes der erwähnten benach­ barten Datenpunkte, um die Schwelle zu bestimmen.
20. Verfolgungssystem nach Anspruch 19, wobei die Mittel zum Bestimmen eines Wertes von anderen Datenpunk­ ten Mittel aufweisen zum Bestimmen eines Wertes für jeden von 8 Datenpunkten, die sofort bzw. direkt benachbart zu dem erwähnten Datenpunkt sind.
21. Verfolgungssystem nach Anspruch 12, welches wei­ ter Mittel aufweist zum Erzeugen einer Anordnung von Ob­ jekten und zwar unter Verwendung von Objekten und zwar unter Verwendung von dem neuen Rahmen von Datenpunkten.
22. Verfolgungssystem nach Anspruch 12, welches wei­ ter Mittel aufweist zum Dämpfen eines Leistungswertes der umgewandelten Datenpunkte.
23. Verfolgungssystem nach Anspruch 12, wobei die erwähnten Mitteln zum Eintragen bzw. Kartografieren der umgewandelten Datenpunkte in einen nächsten Rahmen von Datenpunkten weiter Mittel aufweisen zum Umwandeln der erwähnten umgewandelten Datenpunkte in einen Referenzrah­ men des erwähnten Detektors und zwar zur nächsten Proben­ bzw. Aufnahmezeit, so daß Objekte, die in einem oder meh­ reren der vorherigen Rahmen erfaßt worden sind, korre­ liert werden mit den Objekten im erwähnten nächsten Rah­ men.
24. Verfolgungssystem nach Anspruch 12, welches wei­ ter einen Digitalsignalprozessor aufweist, der konfigu­ riert bzw. eingerichtet ist, um den Rahmen von Datenpunk­ ten vom Sensor zu empfangen, die erwähnten Datenpunkte in eine Leistungs-/Entfernungsrepräsentation bzw. -darstellung umzuwandeln und die erwähnten empfangenen Datenpunkte einer Schwellenwertbehandlung zu unterwerfen.
DE19532597A 1994-09-02 1995-09-04 System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems Withdrawn DE19532597A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/299,093 US5587929A (en) 1994-09-02 1994-09-02 System and method for tracking objects using a detection system

Publications (1)

Publication Number Publication Date
DE19532597A1 true DE19532597A1 (de) 1996-03-07

Family

ID=23153280

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19532597A Withdrawn DE19532597A1 (de) 1994-09-02 1995-09-04 System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems

Country Status (5)

Country Link
US (2) US5587929A (de)
JP (1) JPH0875848A (de)
AU (1) AU687218B2 (de)
DE (1) DE19532597A1 (de)
GB (1) GB2292860B (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19845048A1 (de) * 1998-09-30 2000-04-06 Volkswagen Ag Verfahren und Einrichtung zur Erfassung von Hindernissen
DE19937489B4 (de) * 1999-08-07 2009-07-09 Volkswagen Ag Verfahren zur Überwachung eines Fahrspurwechsels eines Kraftfahrzeuges
DE102012100329A1 (de) * 2012-01-16 2013-07-18 Hella Kgaa Hueck & Co. Sensorvorrichtung für eine Überwachungsvorrichtung für die Umgebung eines Fahrzeugs
DE102006030851B4 (de) * 2005-07-08 2016-02-11 Denso Corporation Vorrichtung und Verfahren zur Erkennung einer Fahrbahnform
DE102011117585B4 (de) 2010-11-09 2022-08-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Systeme und Verfahren zum Verfolgen von Objekten

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657251A (en) * 1995-10-02 1997-08-12 Rockwell International Corporation System and process for performing optimal target tracking
JPH09211113A (ja) * 1996-01-31 1997-08-15 Komatsu Ltd ミリ波レーダ搭載車両
JPH09211116A (ja) * 1996-01-31 1997-08-15 Komatsu Ltd ミリ波レーダ搭載車両
US5889505A (en) * 1996-04-04 1999-03-30 Yale University Vision-based six-degree-of-freedom computer input device
US6101390A (en) * 1997-01-08 2000-08-08 Us Wireless Corporation Calibration table generation for wireless location determination
US5973732A (en) * 1997-02-19 1999-10-26 Guthrie; Thomas C. Object tracking system for monitoring a controlled space
US6049171A (en) 1998-09-18 2000-04-11 Gentex Corporation Continuously variable headlamp control
US6631316B2 (en) 2001-03-05 2003-10-07 Gentex Corporation Image processing system to control vehicle headlamps or other vehicle equipment
US7653215B2 (en) 1997-04-02 2010-01-26 Gentex Corporation System for controlling exterior vehicle lights
US6861809B2 (en) 1998-09-18 2005-03-01 Gentex Corporation Headlamp control to prevent glare
US6130421A (en) 1998-06-09 2000-10-10 Gentex Corporation Imaging system for vehicle headlamp control
US6587573B1 (en) * 2000-03-20 2003-07-01 Gentex Corporation System for controlling exterior vehicle lights
US6064926A (en) * 1997-12-08 2000-05-16 Caterpillar Inc. Method and apparatus for determining an alternate path in response to detection of an obstacle
US6055042A (en) * 1997-12-16 2000-04-25 Caterpillar Inc. Method and apparatus for detecting obstacles using multiple sensors for range selective detection
US6173215B1 (en) 1997-12-19 2001-01-09 Caterpillar Inc. Method for determining a desired response to detection of an obstacle
JP3942722B2 (ja) * 1998-02-16 2007-07-11 本田技研工業株式会社 車載レーダ装置
JP3910291B2 (ja) * 1998-02-16 2007-04-25 本田技研工業株式会社 車載レーダ装置
FR2784769B1 (fr) * 1998-10-14 2001-06-15 Air Liquide Installation de distribution d'un stock de bouteilles de gaz
JP4197209B2 (ja) 1999-05-21 2008-12-17 株式会社小松製作所 車両の無人走行システム
US6201493B1 (en) * 1999-05-28 2001-03-13 Lucent Technologies Inc. Radar detector arrangement
US6894608B1 (en) 1999-07-22 2005-05-17 Altra Technologies Incorporated System and method for warning of potential collisions
AU6894100A (en) 1999-08-06 2001-03-05 Roadrisk Technologies, Llc Methods and apparatus for stationary object detection
US6548616B1 (en) 1999-12-13 2003-04-15 Dow Global Technologies Inc. Lightweight tire support and composition and method for making a tire support
AU2001230871A1 (en) * 2000-01-10 2001-07-24 The Johns-Hopkins University Optical communication system using a high altitude tethered balloon
US6642839B1 (en) * 2000-02-16 2003-11-04 Altra Technologies Incorporated System and method of providing scalable sensor systems based on stand alone sensor modules
JP2003536096A (ja) * 2000-06-08 2003-12-02 オートモーティブ システムズ ラボラトリー インコーポレーテッド 追跡マップジェネレータ
EP1318921B1 (de) * 2000-09-11 2004-12-01 Dow Global Technologies Inc. Verfahren und vorrichtung zur herstellung eines reifenstützkörpers
US6895126B2 (en) * 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
UA77662C2 (en) * 2000-10-10 2007-01-15 Dbt America Inc Automated continuous haulage apparatus
GB2368482B (en) * 2000-10-26 2004-08-25 Hewlett Packard Co Optimal image capture
US6683560B2 (en) 2000-12-29 2004-01-27 Honeywell International Inc. System and technique for enhanced radar object detection
US6411900B1 (en) 2001-03-27 2002-06-25 Lockhead Martin Corporation Reduced throughput track data association using look-up tables
US6469653B1 (en) 2001-08-22 2002-10-22 Uniden America Corporation Apparatus and method for selectively monitoring radar signals and providing an alert responsive thereto
US6693557B2 (en) 2001-09-27 2004-02-17 Wavetronix Llc Vehicular traffic sensor
JP4079623B2 (ja) * 2001-11-13 2008-04-23 富士通テン株式会社 レーダ測距装置
ATE304200T1 (de) * 2001-12-19 2005-09-15 Logobject Ag Verfahren und vorrichtung zur verfolgung von objekten, insbesondere zur verkehrsüberwachung
US6933837B2 (en) 2002-01-25 2005-08-23 Altra Technologies Incorporated Trailer based collision warning system and method
US6888622B2 (en) * 2002-03-12 2005-05-03 Nissan Motor Co., Ltd. Method for determining object type of reflective object on track
US6701239B2 (en) 2002-04-10 2004-03-02 Caterpillar Inc Method and apparatus for controlling the updating of a machine database
CN100365430C (zh) * 2002-07-15 2008-01-30 汽车系统实验室公司 道路曲率估计和车辆目标状态估计系统
US7522091B2 (en) 2002-07-15 2009-04-21 Automotive Systems Laboratory, Inc. Road curvature estimation system
US6683820B1 (en) * 2002-09-12 2004-01-27 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for tracking sonar targets
FI115678B (fi) * 2003-03-25 2005-06-15 Sandvik Tamrock Oy Järjestely kaivosajoneuvon törmäyksenestoon
US6834232B1 (en) * 2003-07-30 2004-12-21 Ford Global Technologies, Llc Dual disimilar sensing object detection and targeting system
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
US6845311B1 (en) 2003-11-04 2005-01-18 Caterpillar Inc. Site profile based control system and method for controlling a work implement
US7079931B2 (en) * 2003-12-10 2006-07-18 Caterpillar Inc. Positioning system for an excavating work machine
US8055100B2 (en) * 2004-04-02 2011-11-08 The Boeing Company Method and system for image registration quality confirmation and improvement
US7071867B2 (en) * 2004-06-25 2006-07-04 The Boeing Company Method, apparatus, and computer program product for radar detection of moving target
US7688999B2 (en) * 2004-12-08 2010-03-30 Electronics And Telecommunications Research Institute Target detecting system and method
US8665113B2 (en) * 2005-10-31 2014-03-04 Wavetronix Llc Detecting roadway targets across beams including filtering computed positions
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
US8935086B2 (en) * 2007-02-06 2015-01-13 GM Global Technology Operations LLC Collision avoidance system and method of detecting overpass locations using data fusion
JP2009109219A (ja) * 2007-10-26 2009-05-21 Ihi Corp 移動体の障害物位置認識方法及び移動体
CN102007516A (zh) * 2008-04-14 2011-04-06 汤姆森特许公司 自动跟踪对象的技术
US7958982B2 (en) * 2008-04-29 2011-06-14 Caterpilar Inc. Cable guide having a signaling instrument
US7793442B2 (en) * 2008-04-29 2010-09-14 Caterpillar Inc Avoidance system for locating electric cables
MX2010000225A (es) * 2008-08-09 2010-07-20 Eickhoff Bergbautechnik Gmbh Metodo y dispositivo para la supervision de una maquina para extraccion de cortes.
JP5618313B2 (ja) * 2009-03-18 2014-11-05 独立行政法人宇宙航空研究開発機構 遠隔気流の警報表示方法及びそのシステム
US8332106B2 (en) * 2009-10-21 2012-12-11 Caterpillar Inc. Tether tracking system and method for mobile machine
TWI430902B (zh) * 2010-12-15 2014-03-21 Wistron Neweb Corp 無線訊號收發器及盲點偵測系統
CN102298142B (zh) * 2011-05-16 2013-06-19 中国人民解放军海军航空工程学院 雷达测距模糊条件下多微弱目标ht-stc-tbd检测方法
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
US8983135B2 (en) 2012-06-01 2015-03-17 Gentex Corporation System and method for controlling vehicle equipment responsive to a multi-stage village detection
CN104508595B (zh) 2012-06-12 2017-07-18 金泰克斯公司 提供多级对准稳定性指示的车辆成像系统
CN104583012B (zh) 2012-08-02 2018-01-05 金泰克斯公司 用于响应于对小型卡车的检测来控制外部车辆灯的系统和方法
US9412271B2 (en) 2013-01-30 2016-08-09 Wavetronix Llc Traffic flow through an intersection by reducing platoon interference
US8898016B2 (en) * 2013-03-15 2014-11-25 Applied Minds, Llc Method and apparatus for two-stage planning
US11022446B2 (en) 2013-03-15 2021-06-01 Applied Invention, Llc Method and apparatus for two-stage planning
SE536983C2 (sv) * 2013-03-19 2014-11-25 Scania Cv Ab Reglersystem samt metod för reglering av fordon vid detektion av hinder
RU2540951C1 (ru) * 2013-07-08 2015-02-10 Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж") Министерства обороны Российской Федерации Способ определения количества целей в группе
WO2015026810A1 (en) 2013-08-19 2015-02-26 Gentex Corporation Vehicle imaging system and method for distinguishing reflective objects from lights of another vehicle
CN105555606B (zh) 2013-08-19 2018-06-12 金泰克斯公司 用于在车辆尾灯与闪烁的红色停车灯之间进行判别的车辆成像系统和方法
EP3049286B1 (de) 2013-09-24 2018-05-09 Gentex Corporation Spiegelanordnung für eine anzeige
WO2015050996A1 (en) 2013-10-01 2015-04-09 Gentex Corporation System and method for controlling exterior vehicle lights on motorways
WO2015073842A1 (en) 2013-11-15 2015-05-21 Gentex Corporation Imaging system including dynamic compensation for color attenuation for vehicle windscreens
US9664784B2 (en) * 2013-12-04 2017-05-30 Trimble Inc. System and methods for data point detection and spatial modeling
US10254395B2 (en) 2013-12-04 2019-04-09 Trimble Inc. System and methods for scanning with integrated radar detection and image capture
WO2015116915A1 (en) 2014-01-31 2015-08-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
CN106061794B (zh) 2014-03-21 2019-06-07 金泰克斯公司 三态显示镜组件
JP6384018B2 (ja) 2014-03-25 2018-09-05 日本無線株式会社 車載用レーダ装置
CN106163873B (zh) 2014-04-01 2019-04-26 金泰克斯公司 自动显示镜组件
JP6393123B2 (ja) * 2014-09-04 2018-09-19 日立建機株式会社 障害物検出システム及び運搬車両
US9694751B2 (en) 2014-09-19 2017-07-04 Gentex Corporation Rearview assembly
KR101596751B1 (ko) * 2014-09-26 2016-02-23 현대자동차주식회사 운전자 맞춤형 사각 영역 표시 방법 및 장치
WO2016073848A1 (en) 2014-11-07 2016-05-12 Gentex Corporation Full display mirror actuator
KR101977685B1 (ko) 2014-11-13 2019-05-13 젠텍스 코포레이션 디스플레이를 갖춘 후방 미러 시스템
EP3227143B1 (de) 2014-12-03 2019-03-13 Gentex Corporation Spiegelanordnung für eine anzeige
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9457718B2 (en) 2014-12-19 2016-10-04 Caterpillar Inc. Obstacle detection system
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
US9649979B2 (en) 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
JP2018513810A (ja) 2015-04-20 2018-05-31 ジェンテックス コーポレイション 装飾を備えた後方視認アセンブリ
EP3297870B1 (de) 2015-05-18 2020-02-05 Gentex Corporation Rückblickvorrichtung mit vollanzeige
EP3310618A4 (de) 2015-06-22 2018-07-04 Gentex Corporation System und verfahren zur verarbeitung von gestreamten videobildern zur korrektur des flimmerns von amplitudenmodulierten lichtern
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
EP3368374B1 (de) 2015-10-30 2023-12-27 Gentex Corporation Umschaltpaddel
CN108349436B (zh) 2015-10-30 2019-12-20 金泰克斯公司 后视装置
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
US10179583B2 (en) 2016-03-29 2019-01-15 Ford Global Technologies, Llc Vehicle subsystem coordination and control
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
US10151830B2 (en) 2016-09-14 2018-12-11 Caterpillar Inc. Systems and methods for detecting objects proximate to a machine utilizing a learned process
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
WO2018125898A1 (en) 2016-12-30 2018-07-05 Gentex Corporation Full display mirror with on-demand spotter view
WO2018170353A1 (en) 2017-03-17 2018-09-20 Gentex Corporation Dual display reverse camera system
US10347141B2 (en) * 2017-04-26 2019-07-09 Honeywell International Inc. System and method for transmitting obstacle alerts to aircraft from a ground based database
US11042155B2 (en) * 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
US11573573B2 (en) 2017-06-06 2023-02-07 Plusai, Inc. Method and system for distributed learning and adaptation in autonomous driving vehicles
US11099264B2 (en) * 2017-09-20 2021-08-24 Motional Ad Llc Variable range and frame-rate radar operation for automated vehicle
EP3460512B1 (de) * 2017-09-21 2022-11-16 Arriver Software AB Fahrzeugradar zur umfelderfassung
US10845293B2 (en) * 2017-11-28 2020-11-24 King Fahd University Of Petroleum And Minerals System, apparatus, and method for determining characteristics of rock samples
JP7103824B2 (ja) * 2018-03-30 2022-07-20 株式会社小松製作所 作業機械の制御システム、作業機械、及び作業機械の制御方法
US11521397B2 (en) 2020-09-08 2022-12-06 Caterpillar Inc. Object tracking for work machines
US11328601B1 (en) 2021-02-22 2022-05-10 Volvo Car Corporation Prevention of low-speed sideswipe collisions with non-moving objects
US11994272B2 (en) 2021-08-20 2024-05-28 Gentex Corporation Lighting assembly and illumination system having a lighting assembly

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1510148A (en) * 1975-04-17 1978-05-10 Secr Defence Digital scan converters
US4465155A (en) * 1981-06-17 1984-08-14 Collins Marshall S Automated operatorless vehicles
US5418536A (en) * 1981-12-21 1995-05-23 Westinghouse Electric Corporation Bandwidth and amplitude insensitive frequency discriminator
GB8304686D0 (en) * 1983-02-19 1983-03-23 Sperry Ltd Collision avoidance apparatus
US4916450A (en) * 1988-05-12 1990-04-10 Radar Control Systems Corporation Radar system for headway control of a vehicle
US4899161A (en) * 1988-07-21 1990-02-06 International Business Machines Corporation High accuracy coordinate conversion method for air traffic control applications
US4937878A (en) * 1988-08-08 1990-06-26 Hughes Aircraft Company Signal processing for autonomous acquisition of objects in cluttered background
US5170352A (en) * 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
IT1240974B (it) * 1990-07-05 1993-12-27 Fiat Ricerche Metodo e apparecchiatura per evitare la collisione di un autoveicolo contro ostacoli.
IL100175A (en) * 1991-11-27 1994-11-11 State Of Isreal Ministry Of De Vehicle collision warning device
US5280288A (en) * 1992-08-14 1994-01-18 Vorad Safety Systems, Inc. Interference avoidance system for vehicular radar system
JP3485336B2 (ja) * 1992-09-08 2004-01-13 キャタピラー インコーポレイテッド 乗物の位置を決定する方法及び装置
US5374932A (en) * 1993-08-02 1994-12-20 Massachusetts Institute Of Technology Airport surface surveillance system
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19845048A1 (de) * 1998-09-30 2000-04-06 Volkswagen Ag Verfahren und Einrichtung zur Erfassung von Hindernissen
DE19937489B4 (de) * 1999-08-07 2009-07-09 Volkswagen Ag Verfahren zur Überwachung eines Fahrspurwechsels eines Kraftfahrzeuges
DE102006030851B4 (de) * 2005-07-08 2016-02-11 Denso Corporation Vorrichtung und Verfahren zur Erkennung einer Fahrbahnform
DE102011117585B4 (de) 2010-11-09 2022-08-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Systeme und Verfahren zum Verfolgen von Objekten
DE102012100329A1 (de) * 2012-01-16 2013-07-18 Hella Kgaa Hueck & Co. Sensorvorrichtung für eine Überwachungsvorrichtung für die Umgebung eines Fahrzeugs

Also Published As

Publication number Publication date
JPH0875848A (ja) 1996-03-22
US5587929A (en) 1996-12-24
GB2292860B (en) 1997-11-19
GB9517289D0 (en) 1995-10-25
AU687218B2 (en) 1998-02-19
US5668739A (en) 1997-09-16
GB2292860A (en) 1996-03-06
AU2850295A (en) 1996-03-14

Similar Documents

Publication Publication Date Title
DE19532597A1 (de) System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems
DE102015100134B4 (de) Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren
EP1267178B1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP2800982B1 (de) Verfahren und vorrichtung zur radunabhängigen geschwindigkeitsmessung bei einem fahrzeug
DE102006009121B4 (de) Verfahren zur Verarbeitung und Darstellung von mittels Synthetik-Apertur-Radarsystemen (SAR) gewonnen Bodenbildern
EP3540457A1 (de) Identifikation von objekten mittels radardaten
DE102004016025A1 (de) Verfahren zur Bestimmung eines Objektstandorts aus Daten eines seitswärts gerichteten Sensors
DE69924473T2 (de) Verbesserungen an oder bezüglich radarsystemen
DE102017128194A1 (de) Genaue Selbstortung unter Verwendung eines Automobilradars mit synthetischer Apertur
DE102020115997A1 (de) Fahrzeugsensorverbesserungen
DE102017119042A1 (de) Vermeidung von Totwinkelwarnungen durch Gischt
DE102018202864A1 (de) Verfahren und System für Synthetische-Apertur-Radarsignalverarbeitung
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE2815981A1 (de) Radarempfaenger
DE102018104056B3 (de) Verfahren zur optimierten Anordnung und Ausrichtung eines Feldgerätes
EP4211490A1 (de) Verfahren, radarsystem und fahrzeug zur signalverarbeitung von radarsignalen
DE102009013768A1 (de) Verfahren und Einrichtung zum Ermitteln von Aspektwinkeln
Yao et al. Airborne traffic monitoring in large areas using LiDAR data–theory and experiments
WO2004059341A1 (de) Verfahren zum erfassen von umgebungsinformationen und zum bestimmen der lage einer parklücke
DE4205056A1 (de) Verfahren und system zum abtasten einer szene zu dem zweck des klassifizierens einer mehrzahl von sich bewegenden objekten
DE102019215440B4 (de) Erkennung von Verkehrsschildern
DE102021204372A1 (de) Orientierungsbasierte Positionsermittlung von Schienenfahrzeugen
WO2021239326A1 (de) Verfahren zum schätzen einer eigengeschwindigkeit
DE102019104245A1 (de) Verfahren und System zum Modellieren einer Radarerfassung einer Umgebung eines Fahrzeugs

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G08G 9/02

8139 Disposal/non-payment of the annual fee