DE102008029613A1 - Verfahren zur Schätzung der Elevation eines Zielobjekts unter Verwendung einer Radar-Datenfusion - Google Patents

Verfahren zur Schätzung der Elevation eines Zielobjekts unter Verwendung einer Radar-Datenfusion Download PDF

Info

Publication number
DE102008029613A1
DE102008029613A1 DE102008029613A DE102008029613A DE102008029613A1 DE 102008029613 A1 DE102008029613 A1 DE 102008029613A1 DE 102008029613 A DE102008029613 A DE 102008029613A DE 102008029613 A DE102008029613 A DE 102008029613A DE 102008029613 A1 DE102008029613 A1 DE 102008029613A1
Authority
DE
Germany
Prior art keywords
target object
processor
relative
range
elevation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102008029613A
Other languages
English (en)
Other versions
DE102008029613B4 (de
Inventor
Joseph S. Malibu Colburn
Osman D. Northville Altan
Kevin Los Angeles Geary
Hui-Pin Northridge Hsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102008029613A1 publication Critical patent/DE102008029613A1/de
Application granted granted Critical
Publication of DE102008029613B4 publication Critical patent/DE102008029613B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C9/00Measuring inclination, e.g. by clinometers, by levels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Ein Kollisionsvermeidungssystem zur Verringerung von Fehlalarmen durch ein Schätzen der Elevation eines Zielobjekts weist einen kurz- und einen langreichweitigen eindimensional abtastenden Radarsensor mit unterschiedlichen Reichweiten und Strahlneigungswinkeln und einen digitalen Fusionsprozessor auf und umfasst vorzugsweise eine Positionsgebereinrichtung, einen Neigungsmesser und eine Speichereinrichtung, die zusammenwirkend ausgebildet sind, um ferner eine Trendanalyse und eine Zielobjektverfolgung auszuführen.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Technisches Gebiet
  • Die vorliegende Erfindung betrifft Systeme und Verfahren zur Vermeidung einer Kollision und zur Identifizierung eines Zielobjekts.
  • 2. Diskussion des Standes der Technik
  • Herkömmliche Systeme zur Vermeidung einer Kollision und zur Identifizierung eines Zielobjektes verwenden üblicherweise den Einsatz von Radartechnologie, da Radar weiterhin ein leichter implementierbares und effizient arbeitendes Detektionsmedium darstellt. Sowohl das kurzreichweitige Radar (SRR) als auch das langreichweitige Radar (LRR) genießen eine weite Anwendung in vielen Industriebereichen, wie zum Beispiel in Kraftfahrzeug-Sicherheitssystemen, und werden oft in einer sich überschneidenden Ausbildung verwendet. In diesen Systemen sind ein oder mehrere lateral abtastende Sensoren orientiert und ausgebildet, um eine eindimensionale Abtastung der umgebenden Umwelt derart durchzuführen, dass Oberflächenobjekte innerhalb einer Arbeitsreichweite detektiert werden. Bei einigen Ausbildungen wird, sobald ein Objekt detektiert wird, ein Trend in der Radar-Rücksignalstärke über einen Zeitraum bewertet, um zu ermitteln, ob sich das Zielobjekt (d. h. das detektierte Objekt) nähert oder entfernt.
  • Es ist eine vorherrschende Schwierigkeit bei herkömmlichen Radarsystemen, dass sie üblicherweise eine signifikante Anzahl von Fehlalarmen erzeugen (d. h. Warnungen vor unmittelbar bevorstehenden Kollisionen mit Objekten, die keine wirkliche Gefahr darstellen). Diese Schwierigkeit wird besonders durch ihre Unfähigkeit aufrechterhalten, zwischen Objekten zu unterscheiden, die sich in unterschiedlichen Elevationen bzw. Höhen befinden. Beispielsweise werden bei Kraftfahrzeugsicherheitsanwendungen Fehlalarme vor einem im Weg befindlichen Hindernis oft durch Objekte mit einer Über-Elevation erzeugt, wie zum Beispiel hochliegende Verkehrszeichen und Überführungen, da sowohl SRR- als auch LRR-Sensoren nicht in der Lage sind, die Elevation eines Zielobjektes zu ermitteln. Da Verkehrszeichen und Überführungen üblicherweise entlang einer Fernstraße oder eines anderen Durchgangsweges in großen Anzahlen vorhanden sind, kann die Anzahl der Fehlalarme, die dadurch erzeugt werden, ein signifikantes Ärgernis für den Fahrer darstellen. Auf eine ähnliche Weise haben viele Merkmale mit einer Unter-Elevation oder niedrigen Lage, wie zum Beispiel Schlaglöcher und Eisenbahnschienen, auch Fehlalarme erzeugt.
  • Wenn eine dreidimensionale Information, wie zum Beispiel die Höhe, Breite oder die Elevation von Zielobjekten erwünscht ist, beinhalten Systeme zur Vermeidung einer Kollision eine Stereosichteinrichtung, ein zweidimensional abtastendes Lidar, ein zweidimensional abtastendes Radar oder ein Radar mit einer Azimut- und Elevationsauflösung, das eine Technologie mit einem Monopuls, einem Mehrfachstrahl, einem phasengesteuerten Feld oder einem digitalen Strahl verwendet. Alle von diesen Möglichkeiten stellen jedoch hohe Implementierungs- und Betriebskosten dar, und einige weisen umweltbasierte Leistungseinschränkungen auf.
  • Daher bleibt in dem Stand der Technik eine Notwendigkeit für ein System zur Vermeidung einer Kollision und zur Identifizierung eines Zielobjekts bestehen, das die Elevation eines Zielobjekts derart effektiv schätzen kann, dass die Anzahl der Fehlalarme, die durch Objekte mit einer Über- und einer Unter-Elevation erzeugt werden, verringert wird.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Auf diese und andere Schwierigkeiten reagierend, stellt die vorliegende Erfindung ein verbessertes System zur Vermeidung einer Kollision und zur Identifizierung eines Zielobjekts dar, das eine eindimensional abtastende Radartechnologie und eine Datenfusion verwendet, um eine Dimension und/oder ein Muster der Elevation eines Zielobjekts zu schätzen. Die vorliegende Erfindung ist für eine Verwendung mit einer Vielfalt von Sicherheitssystemen ausgebildet, die Fähigkeiten zur Objektdetektion erfordern, wie zum Beispiel automatisches Bremsen, Fahrtensteuerung mit Anpassung an den gesamten Geschwindigkeitsbereich, intelligenter Assistent zum Panikbremsen, Vor-Aufprall usw. Es ist von besonderem Nutzen für die Öffentlichkeit, dass die Erfindung verwendbar ist, um die Anzahl der Fehlalarme zu verringern, die durch Objekte mit Über-Elevation, wie zum Beispiel Überführungen, und durch Gebilde mit Unter-Elevation, wie zum Beispiel Eisenbahnschienen, verursacht werden.
  • Ein erster Aspekt der Erfindung betrifft ein System zur Schätzung der Elevation mindestens eines Zielobjekts unter Verwendung einer herkömmlichen eindimensionalen Radartechnologie. Das System weist einen ersten Radarsensor auf, der eine erste Arbeitsreichweite und einen ersten Strahlneigungswinkel aufweist und ausgebildet ist, um ein erstes Rücksignal basierend auf der relativen Distanz zwischen dem ersten Sensor und jedem des mindestens einen Zielobjekts, der Arbeitsreichweite und dem Neigungswinkel zu erzeugen. Ein zweiter Radarsensor mit einer zweiten Arbeitsreichweite, die von der ersten Arbeitsreichweite verschieden ist, und mit einem zweiten Strahlneigungswinkel, der von dem ersten Neigungswinkel verschieden ist, ist auch mit inbegriffen. Der zweite Sensor ist ausgebildet, um ein zweites Rücksignal basierend auf der relativen Distanz zwischen dem zweiten Sensor und jedem des mindestens einen Zielobjekts, der Arbeitsreichweite und dem Neigungswinkel zu erzeugen. Schließlich ist ein digitaler Fusionsprozessor vorgesehen, der kommunikativ mit dem ersten und zweiten Sensor gekoppelt und ausgebildet ist, um einen relativen Signalwert basierend auf dem ersten und zweiten Rücksignal zu ermitteln, um die beabsichtigte Funktion der Erfindung eigenständig auszuführen. Der Prozessor ist ferner ausgebildet, um die Elevation jedes des mindestens einen Zielobjekts basierend auf dem relativen Signalwert zu schätzen.
  • Ein zweiter Aspekt der Erfindung betrifft ein Verfahren zur Schätzung der Elevation mindestens eines Zielobjektes unter Verwendung einer eindimensional abtastenden Radartechnologie und einer Datenfusion. Zuerst wird ein kurzreichweitiger Radarstrahl mit einem ersten Neigungswinkel und einer ersten Reichweite aus einer ersten Betriebshöhe und in Richtung auf ein Zielobjekt gerichtet. Ein länger reichweitiger Radarstrahl mit einem zweiten Neigungswinkel, der kleiner als der erste Neigungswinkel ist, und mit einer zweiten Reichweite, die länger als die erste Reichweite ist, wird aus einer zweiten Betriebshöhe und in Richtung auf das Zielobjekt gerichtet. Rücksignale des kurz- und des längerreichweitigen Strahls werden empfangen, wenn sich das Zielobjekt sowohl innerhalb der ersten als auch der zweiten Reichweite befindet. Informationen über die Zielobjektelevation basierend auf dem Strahlneigungswinkel werden fusioniert, um einen relativen Rücksignalwert oder ein kombiniertes Muster zu ermitteln. Schließlich wird der relative Rücksignalwert oder das kombinierte Muster mit mehreren vorbestimmten Kategorien zur Identifizierung der Zielobjektelevation verglichen, um eine passende Kategorie zu ermitteln.
  • Die bevorzugte generative Ausgabe ist die Herausgabe einer Warnung oder einer automatischen Antwort, wenn ein wirklich im Weg befindliches Objekt ermittelt wird. Andere Aspekte der vorliegenden Erfindung umfassen das Hinzufügen einer Speichereinrichtung, um eine Objektverfolgung und eine Trendanalyse zu ermöglichen, einen Neigungsmesser, der mit dem Prozessor kommunikativ gekoppelt und ausgebildet ist, um die Betriebswinkel zu ermitteln, und dass der Prozessor ferner ausgebildet ist, um einen aggregierten relativen Rücksignalwert zu ermitteln.
  • Es versteht sich, und man wird einsehen, dass die vorliegende Erfindung eine Anzahl von Vorteilen gegenüber dem Stand der Technik schaffen kann, einschließlich beispielsweise des Ausnutzens der vorherrschenden Marktdurchdringung von eindimensional abtastenden Radarsensoren in existierenden aktiven Sicherheitssystemen und des Bereitstellens einer effizienteren, zuverlässigeren und genaueren Ermittlung von wirklich im Weg befindlichen Objekten. Insbesondere verringert sie falsche Positive, verbessert die Leistung aktiver Sicherheitssysteme und erweitert die Betriebsgrenzen. Schließlich liefert sie robuste und genaue Schätzungen der Zielobjekt-Elevationscharakteristiken, ohne dass eine zusätzliche Hardware erforderlich ist. Andere Aspekte und Vorteile der vorliegenden Erfindung werden aus der folgenden ausführlichen Beschreibung der bevorzugten Ausführungsform(en) und den begleitenden Zeichnungsfiguren offensichtlich werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Bevorzugte Ausführungsformen der Erfindung sind unten unter Bezugnahme auf die beigefügten Zeichnungsfiguren im Detail beschrieben, wobei:
  • 1 eine rückwärtige Draufsicht eines Fahrzeugs ist, das ein sich näherndes Objekt (Überführung) detektiert, wobei insbesondere die sich überschneidenden Abdeckungsbereiche eines SRR- und eines LRR-Sensors dargestellt sind;
  • 2 eine Draufsicht des Fahrzeugs und des Objekts ist, die in 1 gezeigt sind, wobei ferner dargestellt ist, dass das Objekt bei (1) durch den LRR-Sensor und später bei (2) durch den SRR-Sensor detektiert wird;
  • 3 eine Aufrissansicht eines Host-Fahrzeugs ist, die insbesondere den Betrieb eines GPS-Positionsgebers, die SRR-Strahlabdeckung und die LRR-Strahlabdeckung darstellt;
  • 3a eine Aufrissansicht des Host-Fahrzeugs ist, das ein niedrig liegendes Objekt auf einer vertikal gekrümmten Straße detektiert, wobei insbesondere eine ungenau verkürzte Detektionsreichweite und ein Rücksignal dargestellt sind;
  • 4 eine Draufsicht eines Host-Fahrzeugs gemäß einer ersten bevorzugten Ausführungsform der vorliegenden Er findung ist, die diagrammartig einen ersten und zweiten Radarsensor, eine Positionsgebereinrichtung, eine Speichereinrichtung, einen digitalen Fusionsprozessor (elektronische Steuereinheit), einen Neigungsmesser und einen Monitor darstellt;
  • 5 eine Aufrissansicht einer im Fahrzeug befindlichen Instrumententafel einschließlich eines Monitors ist, die insbesondere Warnungsindizien auf dem Monitor darstellt;
  • 6 ein Flussdiagramm eines Betriebsverfahrens gemäß einer bevorzugten Ausführungsform der Erfindung ist, wobei Daten des ersten und zweiten Radarsensors in einem Datenfusionsmodul kombiniert werden und eine Minimalzahl vor einer Ermittlung einer Überführung berücksichtigt wird;
  • 7 eine Tabellendarstellung einer beispielhaften Bahnaufzeichnung gemäß 2 ist, die von der Speichereinrichtung gespeichert wird; und
  • 8 ein Flussdiagramm eines zweiten Betriebsverfahrens gemäß einer bevorzugten Ausführungsform der Erfindung ist, wobei auch eine Trendanalyse für die Rücksignalstärke und für den Winkel des Sensorbetriebs berücksichtigt wird.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Wie in der dargestellten Ausführungsform gezeigt, betrifft die Erfindung ein System zur Vermeidung einer Kollision 10, das für eine Verwendung mit Host-Fahrzeugen 12, wie zum Beispiel Kraftfahrzeugen, Booten und Flugzeugen, aber nicht darauf beschränkt, und durch einen Bediener 14 ausgebildet ist (1 bis 4). Allgemein fusioniert das System 10 die Rücksignale von mindestens zwei Radarsensoren 16, 18, um eine Elevationsinformation für mindestens ein Zielobjekt (oder detektiertes Objekt) 20, wie zum Beispiel für die in der dargestellten Ausführungsform gezeigte Überführung, zu schätzen.
  • Wie in 4 gezeigt, besteht ein digitaler Fusionsprozessor (DFP) 22 aus einer elektronischen Steuereinheit, die programmierbar ausgestattet ist, um die verschiedenen hierin beschriebenen Algorithmen und Funktionen auszuführen, oder bevorzugt aus mehreren kommunikativ gekoppelten (d. h. durch eine Festverdrahtung oder durch ein drahtloses Kommunikationsuntersystem verbundenen) Steuereinheiten, die ausgebildet sind, um parallele Berechnungen als Teil eines neuronalen Netzes durchzuführen. Alternativ können Unterprogramme durch Zwischensteuereinheiten vor einer Lieferung an den DFP 22 in Serie ausgeführt werden. Beispielsweise kann jeder der Sensoren 16, 18 ferner eine elektronische Steuereinheit aufweisen, die ausgebildet ist, um das Rücksignalmuster vor einer Fusion bei dem DFP 22 zu konstruieren; oder ein separater Controller zur Gefahreinschätzung (nicht gezeigt) kann kommunikativ gekoppelt und ausgebildet sein, um eine Gefahreinschätzung nach einem Empfangen fusionierter Daten von dem DFP 22 durchzuführen. Es ist daher einzusehen, dass das Host-Fahrzeug 12 ausreichende elektrische, Software verarbeitende und Kommunikationsbusuntersystem-Fähigkeiten aufweist, die notwendig sind, um die beabsichtigten Vorzüge des Systems 10 herbeizu führen. Die strukturellen Ausbildungen können durch einen Durchschnittsfachmann leicht ermittelt werden und werden daher nicht weiter diskutiert.
  • A. Strukturelle Ausbildung und Funktion
  • Wie dargestellt und beschrieben, weist das System 10 zwei Radarsensoren 16, 18 auf, die jeweils ausgebildet sind, um eine Vorwärtsumgebung in einem einzelnen Freiheitsgrad lateral abzutasten (4); es liegt jedoch sicherlich im Umfang der vorliegenden Erfindung, eine Gruppe von Sensoren zu verwenden, die in mehrfachen Vorwärtsprojektionen orientiert sind, um ein robusteres Frontaldetektionssystem zu schaffen. Es liegt auch im Umfang der Erfindung, dass ein einzelner Sensor verwendet wird, der in der Lage ist, mehrere unterschiedliche Strahlen zu übertragen, wie hierin weiter beschrieben ist. Vorzugsweise weist das System 10 mindestens einen kurzreichweitigen Radarsensor (SRR-Sensor) 16 und mindestens einen längerreichweitigen Radarsensor (LRR-Sensor) 18 auf, wobei "kurzreichweitig" beispielsweise durch eine generelle Betriebsreichweite von 0 bis 30 m definiert sein kann und "längerreichweitig" durch eine Betriebsreichweite von 0 bis 250 m definiert sein kann.
  • Die Sensoren 16, 18 sind in einer bevorzugten Über-Grund-Höhe (z. B. 45 cm) angeordnet und in gewünschten Betriebswinkeln γ orientiert, um eine maximale Abdeckung zu erleichtern. Um die Datenverarbeitung zu vereinfachen, bieten sowohl der SRR- als auch der LRR-Sensor üblicherweise bevorzugt horizontale Betriebswinkel auf flachen Oberflächen (3); man wird jedoch einsehen, dass die Sensoren 16, 18 nicht deckungsgleich orientiert zu sein brauchen. Beispielsweise liegt es sicherlich im Umfang der Erfindung, unterschiedliche Betriebswinkel zu haben, wobei einer der Sensoren 16, 18 bezogen auf den anderen gekippt ist. In dieser Ausbil dung wird man ferner einsehen, dass die Sensoren 16, 18 deckungsgleiche Reichweiten aufweisen können; mit anderen Worten können beide SRR- oder LRR-Sensoren darstellen. Schließlich können die bevorzugten Sensoren 16, 18 an dem Fahrzeug 12 justierbar befestigt sein, um mehrere Betriebswinkel und Über-Grund-Höhen erhalten zu können.
  • Wie am besten in 3 gezeigt, erzeugt der SRR-Sensor 16 einen ersten Strahl 24 mit einem ersten Neigungswinkel α, der halb so groß wie der Winkel ist, der durch die linear divergierende äußere Strahlbegrenzung 26 gebildet wird. Beispielsweise kann α für typische lichte Höhen in dem Bereich von 10 bis 30 Grad liegen. Die in 1 und 3 angezeigten Abdeckungsgebiete 24a, 28a enden jedoch nicht so abrupt wie gezeigt, sondern zeigen allgemein an, wo die Empfindlichkeit der Sensoren 16, 18 um 3 dB abfällt. Bei einer bevorzugten Ausführungsform können Kalmanfilter verwendet werden, um die durch die Empfindlichkeit der Sensoren 16, 18 bewirkte Varianz des Abdeckungsgebiets zu modellieren und zu schätzen, um den Neigungswinkel und dadurch die Elevationsdaten des Zielobjekts genauer zu ermitteln. Wenn sich das Zielobjekt innerhalb der Reichweite befindet, ist der SRR-Sensor 16 ausgebildet, um ein erstes Rücksignal (PSRR) basierend auf der relativen Distanz zwischen dem Sensor 16 und dem Zielobjekt 20 sowie auf α zu erzeugen.
  • Auf eine ähnliche Weise erzeugt der LRR-Sensor 18 einen zweiten, schmaleren Strahl 28 mit einem zweiten Neigungswinkel β, der wesentlich kleiner als α ist (3). Beispielsweise kann β in dem Bereich von 1 bis 5 Grad liegen. Wenn sich das Zielobjekt 20 in dessen Reichweite befindet, ist der LRR-Sensor 18 ausgebildet, um ein zweites Rücksignal (PLRR) basierend auf der relativen Distanz zwischen dem Sensor 18 und dem Zielobjekt 20 sowie auf β zu erzeugen.
  • Wie in 3 dargestellt, in der beispielsweise α gleich 16 Grad und β gleich 3 Grad ist, ergibt sich eine Abdeckungshöhe von 4,5 m für den SRR-Sensorstrahl 24 bei einer Distanz von 30 m von dem SRR-Sensor 16, während sich eine Abdeckungshöhe von 1,2 m für den LRR-Sensorstrahl 28 bei derselben Distanz ergibt; und bei 150 m erzeugt der LRR-Sensor 18 eine Abdeckungshöhe von 4,2 m. Bei der dargestellten Ausführungsform wird somit ein Zielobjekt, das 0,45 m über dem Boden anordnet ist, ein starkes Rücksignal für beide Sensoren 16, 18 aufweisen, ein Zielobjekt, das 4 m über dem Boden angeordnet ist, wird aber ein viel größeres relatives Rücksignal zu dem SRR-Sensor 16 als für den LRR-Sensor 18 aufweisen. In 7 ist solch ein Objekt mit einer Über-Elevation modelliert; bei (2) zeigt der SRR-Sensor 16 ein starkes Rücksignal (PSRR), und dem LRR-Sensor 18 gelingt es nicht, ein Rücksignal (PLRR) zu registrieren.
  • Weiter auf die Sensoren 16, 18 Bezug nehmend, wird man einsehen, dass die Arbeitsreichweite des SRR-Sensors 16 eine maximale Abdeckungslänge schaffen muss, die deutlich größer als der erforderliche Schwellenwert für eine minimale Warnungsdistanz ist, um eine sichere Zeitdauer für eine Warnung zur Vermeidung einer Kollision zu schaffen. Es ist beispielsweise basierend auf den Fahrzeug-Bremsfähigkeiten und den Reaktionszeiten des Bedieners vorzuziehen, wenn eine SRR-Arbeitsreichweite von 30 m vorhanden ist, Geschwindigkeitsbegrenzungen einzuhalten, die zu einem Schwellenwert für die Warnungsdistanz zwischen 20 und 25 m führen.
  • Die vorliegende Erfindung funktioniert derart, dass Informationen fusioniert werden, die von mehreren eindimensionalen Radarsensoren mit unterschiedlichen Strahlneigungswinkeln und Reichweiten erhalten werden, um die Elevation eines Zielobjekts zu schätzen; sie kann somit in Verbindung mit unterschiedlichen Typen von Radarsensoren verwendet werden, die eine Vielfalt von Bandbreiten, Auflösungen, Umgebungsanwendungen, Genauigkeiten, Leistungseffizienzen und Empfindlichkeiten aufweisen. Beispielhafte Sensoren, die für eine Verwendung mit der vorliegenden Erfindung geeignet sind, umfassen den kurzreichweitigen Radar (SRR) Tyco M/A-COM 24 GHz Ultrabreitband (UWB) und den langreichweitigen Radar (LRR) Tyco M/A-COM 77 GHz.
  • Der DFP 22 ist ausgebildet, um die Rücksignaldaten (PSRR, PLRR) derart zu verarbeiten, dass ein relativer Rücksignalwert erhalten wird. Mittels einer Kalibrierung, die eine Funktion von PSRR und PLRR ist, kann eine Entfernungsinformation eines speziellen Zielobjekts 20 verwendet werden, um zu ermitteln, ob das Zielobjekt 20 ein Objekt "im Weg" darstellt. Beispielsweise kann ein einfaches Verhältnis zwischen den Signalen (z. B. PSRR/PLRR) oder eine Differenz zwischen den Signalen (PSRR – PLRR) verwendet werden, um den relativen Wert zu berechnen. Wenn dieser Wert einen minimalen Schwellenwert überschreitet, mit anderen Worten, wenn das Signal des kurzreichweitigen Radars deutlich größer als das Signal des langreichweitigen Radars ist, wird der DFP 22 basierend auf f(PSRR, PLRR) allgemein ermitteln, dass wahrscheinlich ein Überführungs-Zielobjekt detektiert wurde. Weitere detaillierte Betriebsmoden sind unten beschrieben.
  • Um eine absolute Zielobjektverfolgung zu ermöglichen, weist das bevorzugte System 10 auch eine Positionsgebereinrichtung 30 auf, die ausgebildet ist, um die aktuellen Positionskoordinaten Cp (z. B. geographische Breite, Länge und Höhe) und vorzugsweise die Fahrtrichtung des Host-Fahrzeugs 12 zu lokalisieren. Wie in 3 und 4 gezeigt, weist die bevorzugte Positionsgebereinrichtung 30 einen Empfänger eines globalen Positionierungssystems (GPS-Empfänger) 32, der mit im Orbit befindlichen Satelliten kommunikativ gekoppelt ist, und ein Koppelnavigationssystem auf. Alternativ kann die Positionsgebereinrichtung 30 ein Mobilfunknetz oder ein System verwenden, das eine Radiofrequenz-Identifizierung (RFID) verwendet. Die Positionsgebereinrichtung 30 ist durch den Empfänger 32 mit dem DFP 22 kommunikativ gekoppelt und ist ausgebildet, um die aktuellen Positionskoordinaten des Fahrzeugs 12 zu ermitteln und an den DFP 22 zu liefern. Der DFP 22 ist wiederum ausgebildet, um die absolute Position eines Zielobjekts basierend auf der detektierten Entfernung und dem Azimut des Zielobjekts 20 sowie auf Cp zu ermitteln.
  • Weiter auf die Verfolgung Bezug nehmend, weist das bevorzugte System 10 auch eine Speichereinrichtung 34 auf, die mit dem DFP 22 derart kommunikativ gekoppelt ist, dass Daten von dem DFP 22 empfangen werden und durch diesen abrufbar sind (4). Die Speichereinrichtung 34 ist ausgebildet, um eine Bahnaufzeichnung eines gegebenen Zielobjektes zu erhalten, indem eine neue Aufzeichnung erzeugt wird, wenn ein Objekt bei Positionskoordinaten detektiert wird, die vorher nicht eingegeben wurden, und indem eine existierende Aufzeichnung modifiziert wird, wenn die Positionskoordinaten eines detektierten Objekts im Wesentlichen zu einem zuvor eingegebenen Zielobjekt passen (7). In 7 beispielsweise wurden bei Ermittlung von im Wesentlichen übereinstimmenden Positionskoordinaten (z. B. innerhalb eines Radius inklusive der Fehlergrenze der Sensoren 16, 18, plus einem Sicherheitsfaktor) bei (1.5) und (2) aufeinanderfolgende Einträge für die Bahn aufgezeichnet. Man wird einsehen, dass ein Aufrechterhalten von Bahnen der Zielobjekte 20 die Durchführung einer zeitabhängigen statistischen Analyse ermöglicht, wobei frühere Daten analysiert werden, um in der Lage zu sein, bei neuen Daten wahrscheinlichkeitstheoretische Entscheidungen zu treffen. Wie hierin weiter diskutiert, kann beispielsweise eine Trendanalyse der Rücksignalstärke durchgeführt werden, um sich nähernde von sich entfernenden Objekten zu unterscheiden. Alternativ kann die Speichereinrichtung 34 mit den Sensoren 16, 18 direkt gekoppelt sein, wenn relative Positionierungsbahnen aufrechterhalten werden.
  • Schließlich ist auch ein Neigungsmesser 36 in das bevorzugte System 10 mit einbezogen und mit dem DFP 22 kommunikativ gekoppelt (4). Bei dieser Ausbildung ist der DFP 22 ferner ausgebildet, um die absolute Änderung in dem Betriebswinkel γ der Sensoren 16, 18 zu berücksichtigen, die bestimmbar ist, indem die Neigung des Fahrzeugs 12 gemessen wird (3a). Wenn das Fahrzeug 12 eine signifikante vertikale Krümmung bewältigt (z. B. wenn die Änderung in γ einen minimalen Schwellenwert überschreitet), bewirkt der bevorzugte DFP 22, dass das Fusionsmodul abbricht oder umwechselt; wie man unter diesen Umständen einsehen wird, kann das Fusionsmodul fehlerhafte Entfernungsdaten empfangen und ungenaue Schätzungen der Elevation des Zielobjekts erzeugen. Beispielsweise kann der LRR-Sensor 18 in 3a das niedrig liegende Objekt 20 detektieren; aufgrund der vertikalen Krümmung der Straße ist die Entfernung jedoch kürzer als die tatsächlich dazwischenliegende Fahrdistanz, die Rücksignalstärke ist wahrscheinlich größer, als sie auf einer vergleichbaren flachen Oberfläche wäre, und eine Extrapolation der Strahlhöhe bei dieser Distanz wird zu einer ungenauen Schätzung der Elevation des Zielobjekts führen.
  • B. Betriebsverfahren
  • Sobald die Sensoren 16, 18 geeignet positioniert sind und das System 10 kalibriert ist, beginnt ein bevorzugtes Betriebsverfahren, indem Rücksignaldaten (PSRR, PLRR) von den Sensoren 16, 18 empfangen werden und die Daten an ein Datenfusionsmodul kommuniziert werden, welches von dem DFP 22 eigenständig ausgeführt wird. Das Fusionsmodul ist ausgebildet, um mindestens einen relativen Signalwert basierend auf den Rücksigna len (PSRR, PLRR) zu ermitteln, die von den Sensoren 16, 18 empfangen werden. Der DFP 22 ist ferner ausgebildet, um die Elevation des Zielobjekts 20 basierend auf dem/den ermittelten relativen Signalwert(en) zu schätzen. Der relative Wert wird mit mehreren vorbestimmten Kategorien verglichen, die bevorzugt ebenfalls in dem DFP 22 gespeichert sind, um einen passenden Objekttyp zu ermitteln. Beispielsweise kann, wenn das Verhältnis der Signalstärke (PSRR/PLRR) größer als 5 ist, ein "Überführungs"-Objekt ermittelt werden, und wenn das Verhältnis zwischen einschließlich 0,5 bis einschließlich 2 liegt, kann sich ein Objekt "im Weg" ergeben.
  • Wenn das Datenfusionsmodul ein wirklich im Weg befindliches Objekt ermittelt, dann ist das System 10 ferner ausgebildet, um ein Modul zur Gefahreinschätzung auszuführen. Wenn das Modul zur Gefahreinschätzung erfüllt wird, wird bewirkt, dass eine Warnung erzeugt wird, wie zum Beispiel die auf dem Monitor 40 in 5 gezeigten sichtbaren Indizien 38, und/oder ein Abschwächungsmanöver, wie zum Beispiel die Betätigung eines Bremsmoduls (nicht gezeigt), wird ausgelöst. Man wird einsehen, dass das Modul zur Gefahreinschätzung unter anderem sowohl den relativen Abstand zwischen dem Host-Fahrzeug 12 und dem Zielobjekt 20 als auch die Geschwindigkeit des Host-Fahrzeugs 12 berücksichtigt.
  • Wenn ein neues Objekt 20 anfangs innerhalb der Warnungsdistanz detektiert wird, ist das bevorzugte System 10 ausgebildet, um sofort eine Warnung auszugeben, so dass eine ausreichende Distanz das Fahrzeug 12 von dem Zielobjekt 20 trennt (6 und 8). Man wird einsehen, dass das Objekt 20 in dieser Situation einen neu eingeführten, sich von der Seite nähernden, schmalen oder anderen Zustand darstellen kann, wie zum Beispiel ein den Weg des Host-Fahrzeug kreuzendes entferntes Fahrzeug, das nicht Gegenstand einer langreichweitigen Detektion war.
  • Sobald das Zielobjekt 20 von dem kurz- oder langreichweitigen Sensor 16, 18 detektiert wird, wird eine sensordetektierte Entfernung und ein relativer Objektort ermittelt. Der DFP 22 und die Positionsgebereinrichtung 30 sind zusammenwirkend ausgebildet, um die absoluten Positionskoordinaten der Sensoren 16, 18 allgemein zu ermitteln, indem die Koordinatenposition des Empfängers 32 den Sensoren 16, 18 zugewiesen wird. Vorzugweise werden die Längen- und die Breitendimension des Host-Fahrzeugs 12 und die Orte der Sensoren 16, 18 relativ zu dem Empfänger 32 vorbestimmt und derart berücksichtigt, dass die tatsächlichen Koordinatenpositionen der Sensoren 16, 18 durch den DFP 22 ermittelt werden können. Aus den Positionskoordinaten der Sensoren 16, 18 können die absoluten Positionskoordinaten des Zielfahrzeugs 20 berechnet werden, indem der Azimut und die Entfernung oder der relative Distanzvektor zwischen den Sensoren 16, 18 und dem Zielobjekt trigonometrisch berücksichtigt werden. Wie zuvor erwähnt, ist es notwendig, die Positionierung des Zielobjekts 20 zu ermitteln, um eine Bahnaufzeichnung zu erstellen, eine Trendanalyse vorzubereiten und relative Signalwerte zu aggregieren, die für ein spezielles Zielobjekt abgeleitet werden.
  • C. Betriebsverfahren einschließlich Zähler
  • In 6 ist ein detaillierteres Betriebsverfahren dargestellt, das einen Zähler verwendet, um mehrere Ermittlungen einer Überführung zu ermitteln, bevor eine endgültige Entscheidung getroffen wird. Nachdem bei Schritt 100 die Sensoren 16, 18 geeignet positioniert wurden und das System 10 kalibriert wurde, beginnt das Verfahren, sobald bei einem Schritt 102 durch einen der beiden Sensoren ein Objekt detektiert wird. Bei Schritt 102 werden auch die Positionskoordinaten des Host-Fahrzeugs Cp in dem Moment der Objektdetektion erhalten. Als Nächstes wird bei einem Schritt 104 die Entfernung und der Azimut des Zielobjekts 20 basierend auf den empfangenen Rücksignaldaten ermittelt; und es werden die auf Cp basierenden absoluten Positionskoordinaten des Zielobjekts 20 und die Höhe des Neigungswinkels an dem Objekt 20 ermittelt.
  • Bei einem Schritt 106 ermittelt das Modul zur Gefahreinschätzung, ob die Entfernung innerhalb einer Distanz für eine unmittelbare Warnung liegt. Wenn nicht, ermittelt das Fusionsmodul bei Schritt 108, ob das Zielobjekt 20 existiert, indem seine Positionskoordinaten mit den existierenden Bahnen verglichen werden. Wenn es kein existierendes Objekt gibt, wird bei Schritt 110b eine neue Bahnaufzeichnung erzeugt, und ein y-Wert, der dieser Bahn zugeordnet ist, wird auf "0" gesetzt; andernfalls wird bei Schritt 110a bewirkt, dass die Zeit der Detektion, die Entfernung, der Azimut und die Höhe des Neigungswinkels für jeden Sensor 16, 18 in dem Speicher gespeichert werden. Als Nächstes werden bei einem Schritt 112a mehrere eine Überführung voraussagende Beziehungen berücksichtigt (6). Wenn mindestens eine und vorzugsweise zwei Beziehungen erfüllt werden, schreitet der Zähler dann bei einem Schritt 114 schrittweise fort und kehrt dann zu Schritt 102 zurück; andernfalls schreitet das Verfahren direkt zu Schritt 102 voran, ohne den Zähler zu erhöhen.
  • Wenn bei Schritt 106 ermittelt wird, dass die Entfernung innerhalb der Distanz für eine unmittelbare Warnung liegt, ermittelt das Fusionsmodul bei Schritt 116, ob das Objekt existiert. Wenn das Zielobjekt 20 ein existierendes Objekt ist, wird bei Schritt 118a der y-Wert für die Bahn abgefragt und mit einer minimalen Zahl verglichen (z. B. 2); andernfalls wird bei Schritt 118b eine Warnung ausgegeben. Wenn der y-Wert größer als die minimale Zahl ist, wird das Zielobjekt als ein Überführungs-Objekt erachtet, und bei Schritt 120 wird keine Warnung ausgegeben. Alternativ kann bei Schritt 120 stattdessen ein Hinweis auf ein "Überführungs-Objekt" erzeugt werden. Andernfalls schreitet das Verfahren zu Schritt 118b voran, bei dem eine Warnung vor einem möglichen "Objekt im Weg" ausgegeben wird.
  • D. Betriebsverfahren einschließlich Trendanalyse
  • In 8 ist ein zweites bevorzugtes Betriebsverfahren dargestellt, wobei Trends in der Rücksignalstärke und die Änderung des Betriebswinkels ferner bei der Ermittlung der Gefahreneinschätzung berücksichtigt werden. Die Schritte 200 bis 206 dieses Verfahrens sind den Schritten 100 bis 106 des Verfahrens von Abschnitt C ähnlich, außer dass bei Schritt 202 auch der momentane Betriebswinkel γ erhalten wird, der durch den Neigungsmesser 36 während einer Objektdetektion gemessen wird. Die Schritte 210 bis 216 entsprechen gleichermaßen den Schritten 108 bis 114. Bei dem neuen Schritt 208 wird eine Funktion von γ mit einem maximalen Schwellenwert verglichen, um zu ermitteln, ob das Fahrzeug eine signifikante vertikale Krümmung bewältigt. Wenn die Änderung in γ eine vertikale Krümmung größer als ein minimaler Schwellenwert anzeigt, werden die Messwerte danach ignoriert, während das Verfahren direkt zu Schritt 202 zurückkehrt; andernfalls schreitet das Verfahren zu Schritt 210 voran.
  • Bei Schritt 218 schreitet das Verfahren, wenn das innerhalb der Warnungsdistanz befindliche Zielobjekt als ein bereits existierendes Objekt erachtet wird, zu Schritt 220a voran, bei dem der unmittelbare Trend in den Rücksignalstärken (PSRR und PLRR) berücksichtigt werden, um zu ermitteln, ob sich das Zielobjekt (unabhängig davon, ob es sich im Weg befindet oder eine Überführung ist) entfernt oder nähert; andernfalls schreitet das Verfahren zu Schritt 220b voran, bei dem die Warnung ausgegeben wird. Wenn es bei Schritt 220a als sich entfernend erachtet wird (d. h. PSRR(t(x)) – PSSR(t(x – 1)) ist negativ), schreitet das Verfahren direkt zu Schritt 224 voran, bei dem keine Warnung ausgegeben wird. Wenn der Trend bei 220a ein sich näherndes Objekt anzeigt, schreitet das Verfahren zu Schritt 222 voran, bei dem der y-Wert abgefragt und mit einer minimalen Zahl verglichen wird, um einen Überführungs-Zustand zu ermitteln. Wenn der y-Wert größer als die Zahl ist, wird eine Überführung angenommen, und bei Schritt 224 wird keine Warnung ausgegeben. Wenn der y-Wert jedoch kleiner als die Zahl oder dieser gleich ist, kehrt das Verfahren zu Schritt 220b zurück, und eine Warnung wird ausgegeben.
  • Die oben beschriebenen bevorzugten Ausbildungen der Erfindung sollen nur als Veranschaulichung verwendet werden und sollten nicht in einem einschränkenden Sinn bei einer Interpretation des Umfangs der vorliegenden Erfindung eingesetzt werden. Offensichtliche Modifikationen der beispielhaften Ausführungsformen und Betriebsverfahren, wie sie hierin dargelegt sind, könnten von Fachleuten leicht durchgeführt werden, ohne von dem Geist der vorliegenden Erfindung abzuweichen. Die Erfinder erklären hierdurch ihre Absicht, sich auf die Doktrin der Äquivalente zu verlassen, um den vernünftig angemessenen Umfang der vorliegenden Erfindung zu ermitteln und einzuschätzen, soweit es ein beliebiges System oder Verfahren betrifft, das nicht wesentlich von dem wörtlichen Umfang der Erfindung abweicht, aber außerhalb dessen liegt, wie er in den nachfolgenden Ansprüchen dargelegt ist.

Claims (16)

  1. System zur Schätzung der Elevation mindestens eines Zielobjektes unter Verwendung eines eindimensional abtastenden Radars und einer Datenfusion, wobei das System umfasst: einen ersten eindimensionalen Radarsensor, der eine erste Arbeitsreichweite und einen ersten Strahlneigungswinkel aufweist und ausgebildet ist, um ein erstes Rücksignal basierend auf der relativen Distanz zwischen dem ersten Sensor und jedem des mindestens einen Zielobjekts, der Arbeitsreichweite und dem Neigungswinkel zu erzeugen; ein zweiter eindimensionaler Radarsensor, der eine zweite Arbeitsreichweite und einen zweiten Strahlneigungswinkel aufweist und ausgebildet ist, um ein zweites Rücksignal basierend auf der relativen Distanz zwischen dem zweiten Sensor und jedem des mindestens einen Zielobjekts, der Arbeitsreichweite und dem Neigungswinkel zu erzeugen; und mindestens einen digitalen Fusionsprozessor, der mit dem ersten und dem zweiten Sensor kommunikativ gekoppelt und ausgebildet ist, um einen relativen Signalwert basierend auf dem ersten und zweiten Rücksignal zu ermitteln, wobei der Prozessor ferner ausgebildet ist, um die Elevation jedes des mindestens einen Zielobjekts basierend auf dem relativen Signalwert zu schätzen.
  2. System nach Anspruch 1, wobei der digitale Fusionsprozessor ausgebildet ist, um den relativen Signalwert basierend auf einem einfachen Verhältnis des ersten Rücksignals zu dem zweiten Rücksignal zu ermitteln.
  3. System nach Anspruch 1, wobei der digitale Fusionsprozessor ausgebildet ist, um den relativen Signalwert basierend auf der Differenz zwischen dem ersten und zweiten Rücksignal zu ermitteln.
  4. System nach Anspruch 1, wobei mehrere digitale Fusionsprozessoren miteinander kommunizieren und zusammenwirkend ausgebildet sind, um als ein neuronales Netzwerk den relativen Signalwert zu ermitteln.
  5. System nach Anspruch 1, wobei der digitale Fusionsprozessor einen Kalmanfilter aufweist und ausgebildet ist, um den relativen Signalwert zu ermitteln, indem der Filter auf das erste und zweite Rücksignal angewendet wird.
  6. System nach Anspruch 1, ferner umfassend: eine Speichereinrichtung, die mit dem Prozessor kommunikativ gekoppelt ist und dazu dient, Daten abzuspeichern, wobei die Sensoren und der Prozessor zusammenwirkend ausgebildet sind, um mehrere relative Rücksignalwerte für jedes des mindestens einen Zielobjekts über einen Zeitraum nacheinander zu ermitteln, um jedes des mindestens einen Zielobjekts zu verfolgen, wobei der Prozessor ausgebildet ist, um mehrere relative Rücksignalwerte an die Speichereinrichtung zu liefern und von dieser abzufragen und die Elevation jedes des mindestens einen Zielob jekts basierend auf einer Aggregration der relativen Signalwerte zu schätzen.
  7. System nach Anspruch 6, ferner umfassend: eine Positionsgebereinrichtung, die ausgebildet ist, um die aktuellen Positionskoordinaten der Sensoren allgemein zu ermitteln, wobei jeder der Sensoren und der Prozessor zusammenwirkend ausgebildet sind, um eine Zielobjektentfernung zwischen dem Sensor und dem Zielobjekt zu ermitteln und allgemein die absoluten Positionskoordinaten des Zielobjekts basierend auf den aktuellen Positionskoordinaten des Sensors und der Zielobjektentfernung zu ermitteln.
  8. System nach Anspruch 1, ferner umfassend: eine Speichereinrichtung, die mit dem Prozessor kommunikativ gekoppelt ist und dazu dient, Daten zu speichern, wobei der Sensor eine Radartechnologie verwendet und ausgebildet ist, um das Zielobjekt über einen Zeitraum zu detektieren, um mehrere Rücksignalstärken aus der Detektion des Zielobjekts zu ermitteln, wobei der Prozessor ausgebildet ist, um einen Trend in der Differenz zwischen aufeinanderfolgenden Signalstärken zu ermitteln, wobei die vorhergehende Signalstärke von der nachfolgenden Signalstärke subtrahiert wird, und um den relativen Signalwert nur dann zu ermitteln, wenn der Trend positiv ist.
  9. System nach Anspruch 1, ferner umfassend: mindestens einen Neigungsmesser, der ausgebildet ist, um einen ersten und einen zweiten vertikalen Betriebswinkel für den ersten und zweiten Sensor zu messen, wobei der Prozessor mit dem Neigungsmesser kommunikativ gekoppelt und ausgebildet ist, um den relativen Signalwert basierend auf dem Betriebswinkel zu ermitteln.
  10. System nach Anspruch 9, wobei die erste und zweite Arbeitsreichweite und der erste und der zweite Strahlneigungswinkel deckungsgleich sind und der erste und zweite vertikale Betriebswinkel nicht deckungsgleich sind.
  11. System nach Anspruch 9, ferner umfassend: eine Speichereinrichtung, die ferner mit dem Prozessor kommunikativ gekoppelt ist und dazu dient, Daten zu speichern, wobei der Neigungsmesser, die Sensoren und der Prozessor zusammenwirkend ausgebildet sind, um mehrere korrelierende Betriebswinkel und relative Rücksignalwerte für jedes Zielobjekt über einen Zeitraum nacheinander zu ermitteln, wobei der Prozessor ausgebildet ist, um die mehreren korrelierenden Betriebswinkel und die relativen Rücksignalwerte an die Einrichtung zu liefern und von dieser abzufragen, wobei der Prozessor ferner ausgebildet ist, um die Elevation jedes des mindestens einen Zielobjekts basierend auf den korrelierenden Betriebswinkeln und den relativen Signalwerten zu schätzen.
  12. System nach Anspruch 11, wobei der Prozessor ferner ausgebildet ist, um die Elevation des Zielobjekts nur dann zu schätzen, wenn die Änderungsrate in den aufeinanderfolgenden Betriebswinkeln einen vorbestimmten Schwellenwert nicht überschreitet.
  13. System zur Schätzung der Elevation mindestens eines Zielobjektes unter Verwendung eines eindimensional abtastenden Radars und einer Datenfusion, wobei das System umfasst: einen ersten eindimensionalen Radarsensor, der eine erste Arbeitsreichweite und einen ersten Strahlneigungswinkel aufweist und ausgebildet ist, um ein erstes Rücksignal basierend auf der relativen Distanz zwischen dem ersten Sensor und jedem des mindestens einen Zielobjekts, der Arbeitsreichweite und dem Neigungswinkel zu erzeugen; einen zweiten eindimensionalen Radarsensor, der eine zweite Arbeitsreichweite, die von der ersten Reichweite verschieden ist, und einen zweiten Strahlneigungswinkel aufweist, der von dem ersten Neigungswinkel verschieden ist, und ausgebildet ist, um ein zweites Rücksignal basierend auf der relativen Distanz zwischen dem zweiten Sensor und jedem des mindestens einen Zielobjekts, der Arbeitsreichweite und dem Neigungswinkel zu erzeugen; einen digitalen Fusionsprozessor, der mit dem ersten und zweiten Sensor kommunikativ gekoppelt ist, einen Kalman-Filter aufweist und ausgebildet ist, um einen relativen Signalwert basierend auf dem ersten und zweiten Rücksignal zu ermitteln; eine Positionsgebereinrichtung, die mit dem Prozessor kommunikativ gekoppelt und ausgebildet ist, um allgemein aktuelle Positionskoordinaten für die Sensoren zu ermitteln; und eine Speichereinrichtung, die mit dem Prozessor kommunikativ gekoppelt ist und dazu dient, Daten zu speichern, wobei die Positionsgebereinrichtung und der Prozessor zusammenwirkend ausgebildet sind, um die absoluten Positionskoordinaten des Zielobjekts zu ermitteln, wobei die Sensoren und der Prozessor zusammenwirkend ausgebildet sind, um mehrere relative Rücksignalwerte für jedes des mindestens einen Zielobjekts über einen Zeitraum nacheinander zu ermitteln und an die Einrichtung zu liefern, um jedes des mindestens einen Zielobjekts zu verfolgen, wobei der Prozessor ausgebildet ist, um die mehreren relativen Rücksignalwerte von der Speichereinrichtung abzufragen und die Elevation jedes des mindestens einen Zielobjekts basierend auf einer Aggregation der relativen Signalwerte zu schätzen.
  14. Verfahren zur Schätzung der Elevation mindestens eines Zielobjekts unter Verwendung eines eindimensional abtastenden Radars und einer Datenfusion, wobei das System die Schritte umfasst: a) dass ein eindimensionaler, kurzreichweitiger Radarstrahl mit einem ersten Neigungswinkel und einer ersten Reichweite aus einer ersten Betriebshöhe und in Richtung auf ein Zielobjekt gerichtet wird; b) dass ein eindimensionaler, längerreichweitiger Radarstrahl mit einem zweiten Neigungswinkel, der kleiner als der erste Neigungswinkel ist, und mit einer zweiten Reichweite, die länger als die erste Reichweite ist, aus einer zweiten Betriebshöhe und in Richtung auf das Zielobjekt gerichtet wird; c) dass Rücksignale des kurz- und des längerreichweitigen Strahls empfangen werden, wenn sich das Zielobjekt innerhalb sowohl der ersten als auch der zweiten Reichweite befindet; d) dass Zielobjekt-Elevationsinformationen eigenständig fusioniert werden, die durch die Rücksignale bereitgestellt werden und auf den Strahlneigungswinkeln basieren, um einen relativen Rücksignalwert oder ein kombiniertes Muster basierend auf dem ersten und zweiten Rücksignal zu ermitteln; und e) dass die relativen Rücksignalwerte oder das kombinierte Muster mit mehreren vorbestimmten Kategorien zur Identifizierung einer Zielobjektelevation verglichen werden, um eine passende Kategorie zu ermitteln.
  15. Verfahren nach Anspruch 14, wobei das Verfahren durch ein Host-Fahrzeug mit einen Bediener ausgeführt wird, wobei die Kategorien Überführungs- und ebenerdige Zielobjektermittlungen umfassen und wobei das Verfahren ferner den Schritt umfasst: f) dass der Bediener eigenständig auf die passende Kategorie hingewiesen wird, indem eine Ausgabe erzeugt wird, wenn sich das Fahrzeug außerhalb eines vorbestimmten minimalen Abstands von dem Zielobjekt befindet.
  16. Verfahren nach Anspruch 14, wobei die erste und zweite Betriebshöhe 45 cm betragen, der erste Neigungswinkel 16 Grad beträgt, die erste Reichweite 30 m beträgt, der zweite Neigungswinkel 3 Grad beträgt und die zweite Reichweite 150 m beträgt.
DE102008029613.9A 2007-06-27 2008-06-23 Verfahren zur Schätzung der Elevation eines Zielobjekts unter Verwendung einer Radar-Datenfusion Active DE102008029613B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/769,017 2007-06-27
US11/769,017 US7592945B2 (en) 2007-06-27 2007-06-27 Method of estimating target elevation utilizing radar data fusion

Publications (2)

Publication Number Publication Date
DE102008029613A1 true DE102008029613A1 (de) 2009-01-22
DE102008029613B4 DE102008029613B4 (de) 2021-10-28

Family

ID=40149247

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008029613.9A Active DE102008029613B4 (de) 2007-06-27 2008-06-23 Verfahren zur Schätzung der Elevation eines Zielobjekts unter Verwendung einer Radar-Datenfusion

Country Status (3)

Country Link
US (1) US7592945B2 (de)
CN (1) CN101334475B (de)
DE (1) DE102008029613B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016108756A1 (de) * 2016-05-12 2017-11-16 Valeo Schalter Und Sensoren Gmbh Radarsensoreinrichtung für ein Kraftfahrzeug, Fahrerassistenzsystem, Kraftfahrzeug sowie Verfahren zum Erfassen eines Objekts

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10254402B4 (de) * 2002-11-21 2011-02-17 Lucas Automotive Gmbh System zur Beeinflussung der Geschwindigkeit eines Kraftfahrzeuges
US7369941B2 (en) * 2004-02-18 2008-05-06 Delphi Technologies, Inc. Collision detection system and method of estimating target crossing location
US8935086B2 (en) * 2007-02-06 2015-01-13 GM Global Technology Operations LLC Collision avoidance system and method of detecting overpass locations using data fusion
US7973700B2 (en) * 2008-01-31 2011-07-05 Denso International America, Inc. Dual transmitting antenna system
WO2010042893A2 (en) * 2008-10-09 2010-04-15 The Ohio State University Research Foundation Lateral wave radar system for forward detection
JP4766404B2 (ja) * 2008-10-28 2011-09-07 トヨタ自動車株式会社 レーダ装置
WO2010067397A1 (ja) * 2008-12-09 2010-06-17 トヨタ自動車株式会社 物体検出装置および物体検出方法
CN102301405B (zh) * 2009-01-29 2014-01-15 丰田自动车株式会社 物体识别装置以及物体识别方法
US20110025548A1 (en) * 2009-07-31 2011-02-03 Gm Global Technology Operations, Inc. System and method for vehicle sensor fusion
DE102009048493A1 (de) * 2009-09-25 2011-04-07 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzsystem für ein Fahrzeug, Fahrzeug mit einem Fahrerassistenzsystem und Verfahren zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs
US8558733B2 (en) * 2010-03-15 2013-10-15 Honda Elesys Co., Ltd. Radar apparatus and computer program
KR20110126939A (ko) * 2010-05-18 2011-11-24 주식회사 만도 통합 레이더 시스템 및 차량 제어 시스템
CN102409123A (zh) * 2010-09-25 2012-04-11 宝山钢铁股份有限公司 一种基于多源异构数据融合的高炉料面成像系统
US8604918B2 (en) * 2010-11-10 2013-12-10 Hyundai Motor Company System and method for detecting a vehicle in the vicinity by using wireless communication
JP5554688B2 (ja) 2010-11-19 2014-07-23 株式会社デンソー レーダ装置
JP2012112671A (ja) * 2010-11-19 2012-06-14 Furuno Electric Co Ltd 探知装置、レーダ装置、探知方法、および探知プログラム
CN102064799B (zh) * 2010-12-31 2014-06-04 南京理工大学 基于fpga的去偏转换量测卡尔曼滤波的系统
DE102012102185A1 (de) * 2011-03-16 2012-09-27 Electronics And Telecommunications Research Institute Radarvorrichtung, die den kurz- und langreichweitigen Radarbetrieb unterstützt
DE102011077333A1 (de) * 2011-06-10 2012-12-27 Robert Bosch Gmbh Fahrerassistenzsystem mit Objektdetektion
US20130154871A1 (en) * 2011-12-14 2013-06-20 Ford Global Technologies, Llc Tilt sensing system for automotive radar
CN102663492A (zh) * 2012-03-19 2012-09-12 南京理工大学常熟研究院有限公司 基于神经网络数据融合的机动目标跟踪系统
FR2989204B1 (fr) * 2012-04-06 2014-04-11 Thales Sa Procede de determination d'une zone d'occupation probable instantanee ou anticipee d'un aeronef dans une zone de navigation aeroportuaire
JP6035862B2 (ja) * 2012-05-18 2016-11-30 トヨタ自動車株式会社 物体判定装置および衝突回避支援装置
US9125987B2 (en) 2012-07-17 2015-09-08 Elwha Llc Unmanned device utilization methods and systems
US9798325B2 (en) 2012-07-17 2017-10-24 Elwha Llc Unmanned device interaction methods and systems
JP6114530B2 (ja) * 2012-10-16 2017-04-12 ルネサスエレクトロニクス株式会社 表示装置及び表示デバイスドライバ
DE102012220773A1 (de) 2012-11-14 2014-05-15 Robert Bosch Gmbh Vorrichtung und Verfahren zur Elevationswinkelbestimmung in einem Radarsystem
JP5835242B2 (ja) * 2013-02-01 2015-12-24 株式会社デンソー 車両用安全制御システム
DE102013104443B4 (de) * 2013-04-30 2022-03-17 Jenoptik Robot Gmbh Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
US8825260B1 (en) * 2013-07-23 2014-09-02 Google Inc. Object and ground segmentation from a sparse one-dimensional range data
CN103456190A (zh) * 2013-09-04 2013-12-18 蔡新梅 基于uwb的船舶避碰装置
US9546876B2 (en) * 2013-10-30 2017-01-17 Ford Global Technologies, Llc System for determining clearance of approaching overhead structure
DE102014201026A1 (de) * 2014-01-21 2015-07-23 Robert Bosch Gmbh Verfahren zur Winkelschätzung und Radarsensor für Kraftfahrzeuge
EP2902802B1 (de) * 2014-01-31 2016-10-26 S.M.S. Smart Microwave Sensors GmbH Sensorvorrichtung
JP6348332B2 (ja) 2014-04-25 2018-06-27 株式会社デンソーテン レーダ装置、車両制御システム及び信号処理方法
TWI590969B (zh) * 2014-08-20 2017-07-11 啟碁科技股份有限公司 預警方法及車用雷達系統
TWI571399B (zh) 2014-08-20 2017-02-21 啟碁科技股份有限公司 預警方法及車用雷達系統
CN106715234A (zh) 2014-09-19 2017-05-24 阿尔斯通运输科技公司 避免车辆碰撞的系统和方法
US20160223649A1 (en) * 2015-01-30 2016-08-04 Robert Bosch Gmbh Systems and methods for radar vertical misalignment detection
US9766336B2 (en) * 2015-03-16 2017-09-19 Here Global B.V. Vehicle obstruction detection
US9599706B2 (en) * 2015-04-06 2017-03-21 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
US10175352B2 (en) * 2015-05-12 2019-01-08 Maxlinear, Inc. Scalable architecture for an automotive radar system
JP6468353B2 (ja) * 2015-05-14 2019-02-13 富士通株式会社 空調機、センサユニット、並びに、空調機の制御システム及び制御方法
US9517755B1 (en) * 2015-05-25 2016-12-13 Automotive Research & Testing Center Autonomous braking system and autonomous braking method
JP6613624B2 (ja) * 2015-05-27 2019-12-04 いすゞ自動車株式会社 判別方法及び判別装置
US9922282B2 (en) 2015-07-21 2018-03-20 Limitless Computing, Inc. Automated readiness evaluation system (ARES) for use with an unmanned aircraft system (UAS)
CN105584413B (zh) * 2016-03-04 2018-01-12 武汉理工大学 一种预防车辆碰撞的装置与方法
DE102016207463A1 (de) * 2016-04-29 2017-11-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs
JP6858067B2 (ja) * 2016-06-17 2021-04-14 株式会社デンソーテン レーダ装置及びレーダ装置の制御方法
JP2017223635A (ja) * 2016-06-17 2017-12-21 株式会社デンソーテン レーダ装置及び物標判定方法
US10620298B2 (en) * 2016-08-26 2020-04-14 Infineon Technologies Ag Receive chain configuration for concurrent multi-mode radar operation
CN106960588B (zh) * 2017-03-24 2019-08-06 奇瑞汽车股份有限公司 基于专用短程通信的车辆姿态确定方法及装置
US10347141B2 (en) * 2017-04-26 2019-07-09 Honeywell International Inc. System and method for transmitting obstacle alerts to aircraft from a ground based database
US10222803B2 (en) 2017-06-02 2019-03-05 Aptiv Technologies Limited Determining objects of interest for active cruise control
JP6856452B2 (ja) * 2017-06-14 2021-04-07 トヨタ自動車株式会社 物標判定装置及び運転支援システム
US20190016315A1 (en) * 2017-07-12 2019-01-17 Aptiv Technologies Limited Automated braking system
FR3076045A1 (fr) * 2017-12-22 2019-06-28 Orange Procede de surveillance d'un environnement d'un premier element positionne au niveau d'une voie de circulation, et systeme associe
JP7092529B2 (ja) * 2018-03-16 2022-06-28 株式会社デンソーテン レーダ装置およびレーダ装置の制御方法
JP6596534B2 (ja) * 2018-04-06 2019-10-23 株式会社デンソーテン レーダ装置、車両制御システム及び信号処理方法
DE102018205322A1 (de) * 2018-04-10 2019-10-10 Audi Ag Verfahren und Steuervorrichtung zum Erkennen einer Fehlfunktion zumindest eines Umfeldsensors eines Kraftfahrzeugs
WO2020056329A1 (en) * 2018-09-14 2020-03-19 Aondevices, Inc. Energy efficient custom deep learning circuits for always-on embedded applications
CN109490864B (zh) * 2018-12-18 2021-09-28 安徽四创电子股份有限公司 一种靶场三坐标测量雷达组网测试系统
KR20200091141A (ko) * 2019-01-22 2020-07-30 현대모비스 주식회사 타겟 개수 추정 장치 및 방법
US11267465B1 (en) 2019-09-04 2022-03-08 Ford Global Technologies, Llc Enhanced threat assessment
WO2021171638A1 (ja) * 2020-02-25 2021-09-02 古河電気工業株式会社 レーダシステム、処理方法および処理プログラム
CN112180372A (zh) * 2020-08-19 2021-01-05 福瑞泰克智能系统有限公司 一种基于双角雷达的目标检测方法、装置和雷达系统
US11762060B2 (en) 2020-08-27 2023-09-19 Aptiv Technologies Limited Height-estimation of objects using radar

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19543813A1 (de) 1995-11-24 1997-05-28 Bosch Gmbh Robert Radarsystem, insbesondere Kraftfahrzeug-Radarsystem
DE19650863C1 (de) 1996-12-07 1998-04-16 Bosch Gmbh Robert Verfahren und Vorrichtung zur Erkennung einer vertikalen Dejustierung eines Abstandssensors
JPH10221451A (ja) 1997-02-04 1998-08-21 Toyota Motor Corp 車両用レーダ装置
JP3750102B2 (ja) * 1999-11-24 2006-03-01 富士通テン株式会社 車載レーダ装置
US7068211B2 (en) * 2000-02-08 2006-06-27 Cambridge Consultants Limited Methods and apparatus for obtaining positional information
US6816627B2 (en) * 2001-04-12 2004-11-09 Lockheed Martin Corporation System for morphological image fusion and change detection
US6738148B2 (en) * 2001-06-18 2004-05-18 Laser Technology, Inc. Upper stem diameter measurement and basal area determination device and method for utilization in timber cruising applications
US6922632B2 (en) * 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
DE10260855A1 (de) 2002-12-23 2004-07-08 Robert Bosch Gmbh Verfahren zur Erkennung von Objektkonstellationen anhand von Abstandssignalen
KR100513523B1 (ko) * 2003-05-29 2005-09-07 현대자동차주식회사 차간 거리 제어장치
DE102004021561A1 (de) 2004-05-03 2005-12-08 Daimlerchrysler Ag Objekterkennungssystem für ein Kraftfahrzeug
US20060126926A1 (en) * 2004-11-30 2006-06-15 Vesely Michael A Horizontal perspective representation
DE602005017144D1 (de) * 2005-08-18 2009-11-26 Honda Res Inst Europe Gmbh Fahrerassistenzsystem
US7623061B2 (en) * 2006-11-15 2009-11-24 Autoliv Asp Method and apparatus for discriminating with respect to low elevation target objects

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016108756A1 (de) * 2016-05-12 2017-11-16 Valeo Schalter Und Sensoren Gmbh Radarsensoreinrichtung für ein Kraftfahrzeug, Fahrerassistenzsystem, Kraftfahrzeug sowie Verfahren zum Erfassen eines Objekts
WO2017194503A1 (de) * 2016-05-12 2017-11-16 Valeo Schalter Und Sensoren Gmbh Radarsensoreinrichtung für ein kraftfahrzeug, fahrerassistenzsystem, kraftfahrzeug sowie verfahren zum erfassen eines objekts

Also Published As

Publication number Publication date
DE102008029613B4 (de) 2021-10-28
US7592945B2 (en) 2009-09-22
CN101334475B (zh) 2012-02-08
CN101334475A (zh) 2008-12-31
US20090002222A1 (en) 2009-01-01

Similar Documents

Publication Publication Date Title
DE102008029613B4 (de) Verfahren zur Schätzung der Elevation eines Zielobjekts unter Verwendung einer Radar-Datenfusion
DE102015100134B4 (de) Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren
DE112006003060B4 (de) Verkehrsinformationssystem zum Aktualisieren von Verkehrsdaten unter Verwendung von Sondenfahrzeugen mit Außensensoren
DE60123640T2 (de) Verfahren und vorrichtung zur voraussage eines fahrwegs
EP2819901B1 (de) Verfahren und vorrichtung zur ermittlung der geschwindigkeit und/oder position eines fahrzeuges
DE60106899T2 (de) Verfahren zur Vermeidung und Verringerung von Kollisionen
EP3142091B1 (de) Verfahren zur planung eines unterstützten einparkvorgangs
EP3465264B1 (de) Verfahren zur erkennung wenigstens einer parklücke für ein fahrzeug
EP3298541A1 (de) Verfahren zur schätzung von fahrstreifen
EP2046619B1 (de) Fahrerassistenzsystem
DE102018214961A1 (de) Verfahren zur Erkennung von Winkelmessfehlern bei einem Radarsensor
DE102011103795A1 (de) Verfahren und System zur Kollisionsbewertung für Fahrzeuge
DE102018111626A1 (de) Sechsdimensionales punktwolkensystem für ein fahrzeug
DE102009014104A1 (de) Erkennungssystem für ein Fahrzeug
WO2013135535A1 (de) Verfahren zur stauerkennung mittels einer drahtlosen fahrzeug-zu-fahrzeug-kommunikation
WO2008128814A1 (de) Fahrerassistenzsystem und verfahren zur objektplausibilisierung
DE102010015723B4 (de) Verfahren und Vorrichtung zum Erfassen einer Bewegung eines Straßenfahrzeugs
DE102005029662A1 (de) Umgebungserfassung bei Landfahrzeugen
DE102017129501A1 (de) Autonome Kraftfahrzeug-Objekterkennung
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
DE102020113418B4 (de) Vorrichtung und verfahren zum autonomen fahren
WO2020229140A1 (de) Ermittlung der geschwindigkeit und des abstands von objekten zu einem sensorsystem
DE102014218351A1 (de) Verfahren und System zur Positionsbestimmung
DE102015011246B4 (de) Lokalisation von Signalquellen mittels Kraftfahrzeugen
EP4277827A1 (de) Orientierungsbasierte positionsermittlung von schienenfahrzeugen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8180 Miscellaneous part 1

Free format text: PFANDRECHT

8180 Miscellaneous part 1

Free format text: PFANDRECHT AUFGEHOBEN

8180 Miscellaneous part 1

Free format text: PFANDRECHT

8127 New person/name/address of the applicant

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US

R081 Change of applicant/patentee

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, INC., DETROIT, MICH., US

Effective date: 20110323

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final