QUERVERWEIS AUF VERWANDTE
ANMELDUNGENCROSS-REFERENCE TO RELATED
REGISTRATIONS
Diese
Anmeldung beansprucht die Priorität der vorläufigen US-Anmeldung Nr. 61/147,175,
die am 26. Januar 2009 eingereicht wurde und deren Offenbarungsgehalt
hierin durch Bezugnahme vollständig
mit eingeschlossen ist.These
Application claims priority to US Provisional Application No. 61 / 147,175,
filed on January 26, 2009 and its disclosure
herein by reference in its entirety
is included.
TECHNISCHES GEBIETTECHNICAL AREA
Diese
Offenbarung betrifft allgemein Objektverfolgungssysteme und insbesondere
Messsysteme, die Objektverfolgungssystemen zugeordnet sind, die
mit dem Fahrzeugbetrieb in Beziehung stehen.These
Disclosure relates generally to object tracking systems, and more particularly
Measuring systems associated with object tracking systems that
related to vehicle operation.
HINTERGRUNDBACKGROUND
Die
Aussagen in diesem Hintergrund stellen lediglich Hintergrundinformationen
bezüglich
der vorliegenden Offenbarung bereit und müssen nicht unbedingt Stand
der Technik darstellen.The
Statements in this background merely provide background information
in terms of
of the present disclosure and need not necessarily stand
represent the technique.
Moderne
Fahrzeuge können
mit verschiedenen Erfassungseinrichtungen und -systemen ausgestattet sein,
die einen Fahrzeugbediener beim Verwalten des Fahrzeugbetriebs und
der Navigation unterstützen.
Bekannte Systeme für
Bodenfahrzeuge können
autonome Steuersysteme zum Steuern des Fahrzeugbetriebs umfassen.
Beispielsweise verwenden Fahrzeuge Tempomatsysteme, um eine Fahrgeschwindigkeit
des Fahrzeugs auf einer von einem Bediener ausgewählten Geschwindigkeit
zu halten. Ferner verwenden Fahrzeuge Systeme eines adaptiven Tempomaten
zum Steuern der Geschwindigkeit auf der Grundlage von sowohl der von
dem Bediener ausgewählten
Geschwindigkeit als auch des Vorhandenseins von und der Distanz
zu einem anderen Fahrzeug auf einem projizierten Fahrpfad, beispielsweise
einem anderen Fahrzeug auf der momentanen Spur des betreffenden
Fahrzeugs. Beispielhafte Fahrzeugdetektionssysteme, die durch Systeme
eines adaptiven Tempomaten verwendet werden, umfassen Radardetektionseinrichtungen
und LIDAR-Detektionseinrichtungen, um die Position und Geschwindigkeit
anderer Fahrzeuge auf dem projizierten Fahrpfad des betreffenden
Fahrzeugs zu detektieren.modern
Vehicles can
be equipped with different detection devices and systems,
a vehicle operator in managing the vehicle operation and
support the navigation.
Known systems for
Ground vehicles can
autonomous control systems for controlling vehicle operation.
For example, vehicles use cruise control systems at a driving speed
of the vehicle at a speed selected by an operator
to keep. Furthermore, vehicles use systems of adaptive cruise control
for controlling the speed based on both of
selected by the operator
Speed as well as the presence of and the distance
to another vehicle on a projected driving path, for example
another vehicle on the current lane of the vehicle in question
Vehicle. Exemplary vehicle detection systems implemented by systems
Adaptive cruise control systems include radar detection devices
and LIDAR detection devices to the position and speed
other vehicles on the projected driving path of the vehicle in question
Detect vehicle.
Bekannte
Fahrzeugsysteme umfassen autonome und semiautonome Fahrzeugsteuersysteme,
die Manövrierfähigkeiten
umfassen. Bekannte autonome Fahrzeugsteuersysteme umfassen Fahrpfad-
und Geschwindigkeitsregelungsfähigkeiten.
Ein beispielhaftes autonomes Steuersystem mit einer Manövrierfähigkeit ist
ein autonomes Spurwechselsystem. Bekannte autonome Spurwechselsysteme
umfassen fahrzeugeigene Überwachungssysteme,
die ausgestaltet sind, um Zielfahrzeuge auf einer momentanen Spur
des betreffenden Fahrzeugs und Zielfahrzeuge auf Spuren, die benachbart
zu dem betreffenden Fahrzeug sind und sich in der Nähe dieses
befinden, zu detektieren. Bekannte Fahrzeugdetektionssysteme umfassen
kamerabasierte Systeme, Radardetektionseinrichtungen und LIDAR-Detektionseinrichtungen,
um relative Orte und Trajektorien von Fahrzeugen und anderen Objekten
zu identifizieren. Das autonome Spurwechselsystem umfasst eine Mensch-Maschine-Schnittstelleneinrichtung,
um Befehle von dem Fahrzeugbediener und Aktoren zum automatischen
Lenken des betreffenden Fahrzeugs zu empfangen, um die Fahrzeugtrajektorie
in Ansprechen auf die Befehle zu ändern. Der Betrieb des autonomen
Spurwechselsystems umfasst eine Fahrzeugbedienerbefehlsaktivie rung
des autonomen Spurwechselsystems durch die Mensch-Maschine-Schnittstelleneinrichtung, wodurch
ein Wunsch, die Fahrspur des betreffenden Fahrzeugs zu wechseln,
angegeben wird. Wenn das autonome Spurwechselsystem aktiviert ist, überwacht
das autonome Spurwechselsystem benachbarte Fahrspuren und betreibt
es das Lenksystem des betreffenden Fahrzeugs, um das betreffende
Fahrzeug auf die benachbarte Spur zu manövrieren.Known
Vehicle systems include autonomous and semi-autonomous vehicle control systems,
the maneuvering skills
include. Known autonomous vehicle control systems include
and cruise control capabilities.
An exemplary autonomous control system with maneuverability is
an autonomous lane change system. Known autonomous lane change systems
include on-board surveillance systems,
which are designed to target vehicles on a current track
of the vehicle concerned and target vehicles on lanes adjacent thereto
to the vehicle in question and are close to this
to detect. Known vehicle detection systems include
camera-based systems, radar detection devices and LIDAR detection devices,
around relative locations and trajectories of vehicles and other objects
to identify. The autonomous lane change system comprises a human-machine interface device,
to commands from the vehicle operator and actuators to the automatic
Steering of the vehicle in question to receive the vehicle trajectory
to change in response to the commands. Operation of the autonomous
The lane change system includes a vehicle operator command activation
the autonomous lane change system by the man-machine interface device, thereby
a desire to change the lane of the vehicle in question,
is specified. When the autonomous lane change system is activated, monitors
the autonomous lane change system adjacent lanes and operates
it is the steering system of the vehicle in question to the relevant
Maneuver vehicle to the adjacent lane.
Fahrzeuge
umfassen auch eine Anzahl von Sicherheitssystemen, die entworfen
sind, um die Auswirkungen einer Kollision zu verringern. Ein genaues
Vorhersagen eines unmittelbar bevorstehenden Kollisionsereignisses
ist bei der Vorbereitung für
ein Kollisionsereignis erwünscht.vehicles
also include a number of security systems designed
are to reduce the impact of a collision. An exact one
Predicting an imminent collision event
is preparing for
a collision event is desired.
ZUSAMMENFASSUNGSUMMARY
Ein
Verfahren zum Steuern eines Fahrzeugbetriebs während eines dynamischen Fahrzeugereignisses
umfasst, dass ein erstes Eingangsbild überwacht wird, ein erstes verfolgtes
Objekt in dem ersten Eingangsbild in einem ersten Verfolgungszyklus überwacht
wird, ein zweites Eingangsbild überwacht
wird, ein zweites verfolgtes Objekt in dem zweiten Eingangsbild
in einem zweiten Verfolgungszyklus überwacht wird und ein Unterschiedlichkeitsmaß ermittelt
wird, dass das erste verfolgte Objekt mit dem zweiten verfolgten
Objekt vergleicht. Das Unterschiedlichkeitsmaß schätzt, ob das erste verfolgte
Objekt und das zweite verfolgte Objekt ein einzelnes verfolgtes
Objekt in der Nähe
des Fahrzeugs darstellen. Das Verfahren umfasst ferner, dass das erste
verfolgte Objekt und das zweite verfolgte Objekt auf der Grundlage
des Unterschiedlichkeitsmaßes
zugeordnet werden und die zugeordneten Objekte in einem Kollisionsvorbereitungssystem
verwendet werden, um den Betrieb des Fahrzeugs zu steuern.A method of controlling vehicle operation during a dynamic vehicle event comprises monitoring a first input image, monitoring a first tracked object in the first input image in a first tracking cycle, monitoring a second input image, and tracking a second tracked object in the second input image second tracking cycle is monitored and a difference measure is determined that the first tracked object with the second tracked object compares. The difference measure estimates whether the first tracked object and the second tracked object represent a single tracked object in the vicinity of the vehicle. The method further comprises assigning the first tracked object and the second tracked object based on the difference measure and using the associated objects in a collision preparation system to control the operation of the vehicle.
KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS
Nachstehend
werden eine oder mehrere Ausführungsformen
beispielhaft mit Bezug auf die begleitenden Zeichnungen beschrieben,
wobei:below
become one or more embodiments
described by way of example with reference to the accompanying drawings,
in which:
1 schematisch
eine beispielhafte Anordnung eines Fahrzeugs, das mit einer Kamera
und einem Radarbilderfassungssystem ausgestattet ist, gemäß der vorliegenden
Offenbarung zeigt; 1 schematically illustrates an exemplary arrangement of a vehicle equipped with a camera and a radar image acquisition system according to the present disclosure;
2 schematisch
ein beispielhaftes Fahrzeug, das Sensoren verwendet, um eine vereinigte
Verfolgung eines Objekts zu erzeugen, gemäß der vorliegenden Offenbarung
zeigt; 2 schematically illustrates an exemplary vehicle using sensors to produce a unified tracking of an object, in accordance with the present disclosure;
3 schematisch
einen beispielhaften Prozess zum Überwachen von Sensoreingängen und
Erzeugen einer Verfolgungsliste gemäß einer Ausführungsform
der vorliegenden Offenbarung zeigt; 3 schematically illustrates an exemplary process for monitoring sensor inputs and generating a tracking list according to an embodiment of the present disclosure;
4 schematisch
ein beispielhaftes System, durch das Sensoreingänge zu Objektverfolgungen vereinigt
werden, die in einem Kollisionsvorbereitungssystem nützlich sind,
gemäß der vorliegenden
Offenbarung zeigt; 4 schematically illustrates an example system by which sensor inputs are merged into object traces useful in a collision preparation system in accordance with the present disclosure;
5 schematisch
ein beispielhaftes Vereinigungsmodul gemäß der vorliegenden Offenbarung
zeigt; 5 schematically illustrates an exemplary merge module according to the present disclosure;
6 ein
beispielhaftes Steuerschema zum Identifizieren von hervorstechenden
Bildbereichen und Bildbereichen, die einer Bewegung zugeordnet sind,
gemäß der vorliegenden
Offenbarung zeigt; 6 an exemplary control scheme for identifying salient image areas and image areas associated with movement in accordance with the present disclosure;
7 schematisch
eine beispielhafte Bank von Kalman-Filtern, die arbeiten, um die Position
und Geschwindigkeit einer Gruppe von Objekten zu schätzen, gemäß der vorliegenden
Offenbarung zeigt; und 7 schematically illustrates an exemplary bank of Kalman filters that operate to estimate the position and velocity of a group of objects in accordance with the present disclosure; and
8 beispielhafte
einer entsprechenden Bildebene überlagerte
Entfernungsdaten gemäß der vorliegenden
Offenbarung zeigt. 8th 3 shows exemplary distance data superimposed on a corresponding image plane in accordance with the present disclosure.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
Nun
auf die Zeichnungen Bezug nehmend, in denen die Darstellungen lediglich
dem Zweck des Erläuterns
bestimmter beispielhafter Ausführungsformen
und nicht dem Zweck des Einschränkens
dieser dienen, zeigt 1 eine beispielhafte Anordnung
einer Kamera 11, die an der Front eines Fahrzeugs 10 angeordnet
ist und auf den Boden vor dem Fahrzeug 10 gerichtet ist,
gemäß der Offenbarung.
Die Kamera 11 steht mit dem Steuermodul 5 in Kommunikation,
das eine Logik enthält,
um Eingänge
von der Kamera 11 zu verarbeiten. Das Fahrzeug 10 kann
auch mit einem Radarbilderfassungssystem 13 ausgestattet
sein, das, wenn es vorhanden ist, auch mit dem Steuermodul 5 in
Kommunikation steht. Fachleute werden erkennen, dass das Fahrzeug 10 zusätzlich zu
der Verwendung der Kamera 11 und des Radarbilderfassungssystems 13,
oder alternativ dazu, eine Anzahl von Verfahren zum Identifizieren
von Straßenbedingungen
verwenden könnte,
die eine GPS-Information, eine Information von anderen Fahrzeugen,
die mit dem Fahrzeug 10 in Kommunikation stehen, Verlaufsdaten
hinsichtlich der bestimmten Fahrbahn, eine biometrische Information,
wie beispielsweise Systeme, die den Blickpunkt des Fahrers lesen,
ein Radarbilderfassungssystem oder andere ähnliche Systeme umfassen. Die
Offenbarung hierin kann auf verschiedene Einrichtungsanordnungen
angewandt werden und ist daher nicht dadurch beschränkt.Referring now to the drawings, in which the drawings are merely for the purpose of explaining certain example embodiments and not for the purpose of limiting the same, FIG 1 an exemplary arrangement of a camera 11 standing at the front of a vehicle 10 is arranged and on the ground in front of the vehicle 10 directed, according to the disclosure. The camera 11 stands with the control module 5 in communication that contains logic to inputs from the camera 11 to process. The vehicle 10 can also use a radar imaging system 13 equipped, which, if it is present, also with the control module 5 is in communication. Professionals will recognize that the vehicle 10 in addition to using the camera 11 and the radar imaging system 13 , or alternatively, could use a number of methods of identifying road conditions that include GPS information, information from other vehicles associated with the vehicle 10 are in communication, historical data regarding the particular lane, biometric information, such as systems that read the driver's point of view, a radar imaging system, or other similar systems. The disclosure herein can be applied to various device arrangements and is therefore not limited thereby.
Die
Kamera 11 ist eine Einrichtung, die in der Technik weithin
bekannt ist und visuelle Eingänge
in Form von Licht, Infrarot- oder einer anderen elektromagnetischen
Strahlung (EM-Strahlung) in ein Datenformat übersetzen kann, das leicht
analysiert werden kann, z. B. ein digitales Pixel-Bild. Bei einer Ausführungsform verwendet
die Kamera 11 einen Sensor einer ladungsgekoppelten Einrichtung
(CCD-Sensor) zum Erzeugen von Bildern, die ein Sichtfeld angeben.
Vorzugsweise ist die Kamera 11 für eine kontinuierliche Bilderzeugung, z.
B. 30 erzeugte Bilder pro Sekunde, ausgestaltet. Durch die Kamera 11 erzeugte
Bilder können
in einem Speicher in der Kamera 11 gespeichert werden oder
für eine
Speicherung und/oder Analyse an das Steuermodul 5 übertragen
werden. Vorzugsweise ist jedes durch die Kamera 11 erzeugte
Bild ein zweidimensionales Bild mit bekannten Pixel-Dimensionen,
das mehrere identifizierbare Pixel umfasst. Die mehreren identifizierbaren
Pixel können
unter Verwendung eines Array gespeichert und analysiert werden.
Jedes Pixel kann in dem Array als Satz von Bits oder mehrere Sätze von
Bits dargestellt werden, wobei die Bits einer Farbe an einer vorbestimmten
Palette oder Farbkarte entsprechen. Jedes Pixel kann als Funktion
mehrerer Farbintensitätswerte,
wie beispielsweise in einem Rot-Grün-Blau-Farbmodell (RGB-Farbmodell)
oder einem Cyan-Magenta-Gelb-Key-Farbmodell (CMYK-Farbmodell), ausgedrückt werden.
Vorzugsweise umfasst jedes Pixel mehrere Sätze von Bits, wobei jeder Satz
von Bits einer Farbintensität
und einem Farbintensitätswert
entspricht, z. B. entspricht ein erster Satz von Bits einem Wert
einer roten Farbintensität,
entspricht ein zweiter Satz von Bits einem Wert einer grünen Farbintensität und entspricht
ein dritter Satz von Bits einem Wert einer blauen Farbintensität an dem
RGB-Farbmodell.The camera 11 is a device that is well known in the art and can translate visual inputs in the form of light, infrared or other electromagnetic radiation (EM radiation) into a data format that can be easily analyzed, e.g. B. a digital pixel image. In one embodiment, the camera uses 11 a charge coupled device (CCD) sensor for generating images indicative of a field of view. Preferably, the camera 11 for continuous imaging, e.g. B. 30 generated images per second, designed. Through the camera 11 generated images can be stored in memory in the camera 11 stored or for storage and / or analysis to the control module 5 be transmitted. Preferably, each is through the camera 11 generated image a two-dimensional Image with known pixel dimensions that includes multiple identifiable pixels. The plurality of identifiable pixels may be stored and analyzed using an array. Each pixel may be represented in the array as a set of bits or multiple sets of bits, the bits corresponding to a color on a predetermined pallet or color chart. Each pixel can be expressed as a function of multiple color intensity values, such as in a red-green-blue (RGB) color model or a cyan-magenta-yellow-key (CMYK) color model. Preferably, each pixel comprises a plurality of sets of bits, each set of bits corresponding to a color intensity and a color intensity value, e.g. For example, a first set of bits corresponds to a value of a red color intensity, a second set of bits corresponds to a value of a green color intensity, and a third set of bits corresponds to a value of a blue color intensity on the RGB color model.
Die
Radarbilderfassungseinrichtung 13 ist eine in der Technik
weithin bekannte Einrichtung, die einen Sender, der Funkwellen oder
eine andere EM-Strahlung aussenden kann, eine Empfängereinrichtung,
die die ausgesendeten Wellen erfassen kann, die von Objekten vor
dem Sender zu dem Empfänger
zurückreflektiert werden,
und ein Mittel zum Übertragen
der erfassten Wellen in ein Datenformat umfasst, das analysefähig ist und
beispielsweise die Entfernung und den Winkel von den Objekten, von
denen die Wellen reflektiert wurden, angibt. Alternativ kann die
Radarbilderfassungseinrichtung 13 durch ein Light Detection
And Ranging-System (LIDAR-System),
das ausgestaltet ist, um optische Energie zu senden und zu empfangen,
ersetzt oder ergänzt werden.
Die empfangene optische Energie kann verwendet werden, um die geometrischen
Abmessungen eines Objekts und/oder die geometrische Nähe zu dem
Fahrzeug 10 zu ermitteln. Es sei angemerkt, dass die Radarbilderfassungseinrichtung 13 optional
und nicht notwendig ist, um viele der hierin offenbarten Verfahren auszuführen, wobei
die Verarbeitung von visuellen Bildern eine Detektion eines freien
Pfads ausführen
kann. Der Begriff ”freier
Pfad” soll,
wie er hierin verwendet wird, für
einen Fachmann eine gewöhnliche
und übliche Bedeutung
darstellen (und ist nicht auf eine spezielle oder spezifisch angepasste
Bedeutung beschränkt)
und bezieht sich ohne Einschränkung
auf einen Pfad, der frei von Objekten ist, die einen Schwellenwert übersteigen,
z. B. einen Pfad, der frei von Objekten ist, die in der oben erwähnten zweiten
und dritten Kategorie klassifiziert sind.The radar imaging device 13 is a device well-known in the art which can emit a transmitter capable of transmitting radio waves or other EM radiation, receiver means capable of detecting the transmitted waves reflected back from objects in front of the transmitter to the receiver, and means for Transmitting the detected waves into a data format that is capable of analysis and, for example, indicates the distance and angle of the objects from which the waves were reflected. Alternatively, the radar imaging device 13 by a Light Detection And Ranging (LIDAR) system designed to transmit and receive optical energy, replaced or supplemented. The received optical energy may be used to determine the geometric dimensions of an object and / or the geometric proximity to the vehicle 10 to investigate. It should be noted that the radar image detection device 13 is optional and unnecessary to perform many of the methods disclosed herein, wherein the processing of visual images may perform a clear path detection. As used herein, the term "free path" is intended to represent a common and ordinary meaning to one skilled in the art (and is not limited to any specific or specifically adapted meaning) and refers, without limitation, to a path that is free of objects exceeding a threshold, e.g. A path that is free of objects classified in the second and third categories mentioned above.
Das
Steuermodul 5 ist in 1 gezeigt
und hierin als diskretes Element beschrieben. Diese Darstellung
dient der Vereinfachung der Beschreibung und es sei angemerkt, dass
das Steuermodul 5 jede geeignete Form an nehmen kann, die
verschiedene Kombinationen eines/r oder mehrerer anwendungsspezifischen/r
integrierten/r Schaltkreise(s) (ASIC), elektronischen/r Schaltkreise(s),
zentralen/r Verarbeitungseinheit(en) (vorzugsweise Mikroprozessor(en))
und zugeordneten/r Speicher(s) (Nur-Lese-Speicher, programmierbarer Nur-Lese-Speicher,
Direktzugriffsspeicher, Festplatte etc.), die ein oder mehrere Software-
oder Firmwareprogramme ausführen,
Schaltkreise(s) einer kombinatorischen Logik, Eingabe/Ausgabe-Schaltkreise(s)
und -Einrichtungen, geeigneten Signalkonditionierungs- und -pufferschaltung
und andere geeignete Komponenten umfasst, um die beschriebene Funktionalität bereitzustellen.
Das Steuermodul weist einen Satz von Steueralgorithmen auf, die
residente Software-Programmanweisungen
und Kalibrierungen umfassen, die in dem Speicher gespeichert sind
und ausgeführt
werden, um die gewünschten
Funktionen bereitzustellen. Die Algorithmen werden vorzugsweise
während
vorab festgelegter Schleifenzyklen ausgeführt. Die Algorithmen werden beispielsweise
durch eine zentrale Verarbeitungseinheit ausgeführt und dienen dazu, Eingänge von
Erfassungseinrichtungen und anderen vernetzten Steuermodulen zu überwachen
und Steuer- und Diagnoseroutinen zum Steuern des Betriebs der Aktoren
auszuführen.
Die Schleifenzyklen können
in regelmäßigen Intervallen,
beispielsweise alle 3,125, 6,25, 12,5, 25 und 100 Millisekunden,
während
des fortwährenden
Maschinen- und Fahrzeugbetriebs ausgeführt werden. Alternativ können Algorithmen
in Reaktion auf das Auftreten eines Ereignisses ausgeführt werden.The control module 5 is in 1 shown and described herein as a discrete element. This illustration is to simplify the description and it should be noted that the control module 5 may take any suitable form that includes various combinations of one or more application specific integrated circuit (s) (ASIC), electronic circuits (s), central processing unit (s) (preferably microprocessor (s)). ) and associated memory (s) (read-only memory, programmable read only memory, random access memory, hard disk, etc.) executing one or more software or firmware programs, combinatorial logic circuits, input / Includes output circuitry (s) and devices, appropriate signal conditioning and buffer circuitry, and other suitable components to provide the described functionality. The control module has a set of control algorithms comprising resident software program instructions and calibrations stored in the memory and executed to provide the desired functions. The algorithms are preferably executed during predetermined loop cycles. The algorithms are implemented, for example, by a central processing unit and serve to monitor inputs of detectors and other networked control modules and to execute control and diagnostic routines for controlling the operation of the actuators. The loop cycles may be performed at regular intervals, for example, every 3.125, 6.25, 12.5, 25, and 100 milliseconds during ongoing machine and vehicle operation. Alternatively, algorithms may be executed in response to the occurrence of an event.
Das
Steuermodul 5 führt
einen darin gespeicherten algorithmischen Code aus, um in Beziehung
stehende Geräte,
wie beispielsweise die Kamera 11 und das Radarbilderfassungssystem 13,
zu überwachen
und Befehle oder Datenübertragungen
wie durch die Analyse, die in dem Verarbeitungsmodul durchgeführt wird, angegeben
auszuführen.
Das Steuermodul 5 kann Algorithmen und Mechanismen zum
Betätigen
einer autonomen Fahr steuerung durch Mittel, die in der Technik bekannt
und hierin nicht beschrieben sind, umfassen, oder das Steuermodul 5 kann
einfach eine Information an ein separates autonomes Fahrsystem liefern.
Das Steuermodul 5 ist geeignet, um in Abhängigkeit
von der genauen Ausführungsform,
die in Verbindung mit dem Steuermodul verwendet wird, nach Bedarf
Eingangssignale von anderen Systemen und dem Bediener zu empfangen.The control module 5 Executes an algorithmic code stored therein to related devices, such as the camera 11 and the radar imaging system 13 to monitor and execute commands or data transfers as indicated by the analysis performed in the processing module. The control module 5 may include algorithms and mechanisms for actuating autonomous driving by means known in the art and not described herein, or the control module 5 can simply provide information to a separate autonomous driving system. The control module 5 is adapted to receive input signals from other systems and the operator as needed, depending on the exact embodiment used in conjunction with the control module.
2 zeigt
schematisch das beispielhafte Fahrzeug 10, das Sensoren
verwendet, um eine vereinigte Verfolgung eines Objekts zu erzeugen,
gemäß der vorliegenden
Offenbarung. Das beispielhafte Fahrzeug umfasst einen Personenkraftwagen,
der zur Verwendung auf Schnellstraßen vorgesehen ist, wobei anzumerken sei,
dass die hierin beschriebene Offenbarung auf jedes Fahrzeug oder
jedes andere System anwendbar ist, das die Position und Trajektorie
von entfernten Fahrzeugen und anderen Objekten überwachen möchte. Das Fahrzeug umfasst
ein Steuersystem, das verschiedene Algorithmen und Kalibrierungen
enthält,
die zu verschiedenen Zeitpunkten ausgeführt werden. Das Steuersystem
ist vorzugsweise ein Teilsatz einer gesamten Fahrzeugsteuerarchitektur
und stellt eine koordinierte Fahrzeugsystemsteuerung bereit. Das
Steuersystem überwacht
Eingänge
von verschiedenen Sensoren, synthetisiert entsprechende Informationen
und Eingänge und
führt Algorithmen
zum Steuern verschiedener Aktoren, um Steuerziele zu erreichen,
aus, wobei Parameter wie beispielsweise eine Kollisionsvermeidung
und ein adaptiver Tempomat umfasst sind. Die Fahrzeugsteuerarchitektur
umfasst mehrere verteilte Prozessoren und Einrichtungen, die einen
System-Controller umfassen, der eine Funktionalität, wie beispielsweise
ein Antiblockiersystem, eine Traktionssteuerung und eine Fahrzeugstabilität, bereitstellt. 2 schematically shows the exemplary vehicle 10 using sensors to produce a unified tracking of an object, in accordance with the present disclosure. The exemplary vehicle includes a passenger car intended for use on expressways, noting Let the disclosure described herein be applicable to any vehicle or system that wishes to monitor the position and trajectory of distant vehicles and other objects. The vehicle includes a control system that includes various algorithms and calibrations that are executed at different times. The control system is preferably a subset of an overall vehicle control architecture and provides coordinated vehicle system control. The control system monitors inputs from various sensors, synthesizes corresponding information and inputs, and executes algorithms for controlling various actuators to achieve control objectives, including such parameters as collision avoidance and adaptive cruise control. The vehicle control architecture includes a plurality of distributed processors and devices that include a system controller that provides functionality such as anti-lock braking system, traction control, and vehicle stability.
Das
beispielhafte Erfassungssystem umfasst vorzugsweise Objektlokalisierungssensoren,
die mindestens zwei nach vorne gerichtete Entfernungserfassungseinrichtungen 14 und 16 und
begleitende Subsysteme oder Prozessoren umfassen. Die Objektlokalisierungssensoren
können
die Radarbilderfassungseinrichtung 13 wie hierin oben beschrieben
umfassen, die derart ausgestaltet ist, dass sie ein Nahbereichsradarsubsystem,
ein Fernbereichsradarsubsystem und ein Vorwärtssichtsystem umfasst. Die
Objektlokalisierungserfassungseinrichtungen können beliebige Entfernungssensoren
wie die hierin oben beschriebenen umfassen, die FM-CW-Radare (Frequency
Modulated Continuous Wave-Radare), Impuls- und FSK-Radare (Frequency Shift
Keying-Radare) und LIDAR-Einrichtungen und Ultraschalleinrichtungen,
die auf Effekten, wie beispielsweise Doppler-Effekt-Messungen, beruhen,
um sich vorne befindende Objekte zu lokalisieren, umfassen. Die möglichen
Objektlokalisierungseinrichtungen umfassen die Kamera 11,
wie hierin oben beschrieben, die Verfahren einer digitalen Fotografie
verwendet, um sich vorne befindende Objekte zu ”sehen”. Solche Erfassungssysteme
werden zum Detektieren und Lokalisieren von Objekten in Kraftfahrzeuganwendungen
eingesetzt, die mit Systemen verwendet werden können, die z. B. einen adaptiven
Tempomat, eine Kollisionsvermeidung, eine Sicherheit vor dem Unfall
(pre-crash) und eine Seitenobjektdetektion umfassen. Das beispielhafte
Fahrzeugsystem kann auch ein globales Positionsbestimmungssystem
(GPS-System) umfassen.The exemplary detection system preferably includes object location sensors that include at least two forward distance detection devices 14 and 16 and accompanying subsystems or processors. The object location sensors may be the radar imaging device 13 as described hereinabove, configured to include a near range radar subsystem, a far range radar subsystem, and a forward vision system. The object location detectors may include any distance sensors such as those described hereinabove, the FM CW (Frequency Modulated Continuous Wave) radars, Pulse and Frequency Shift Keying (FSK) radars, and LIDAR and ultrasonic devices based on effects , such as Doppler effect measurements, are based to localize forward-looking objects. The possible object locators include the camera 11 as described hereinabove, uses the methods of digital photography to "see" front objects. Such detection systems are used for detecting and locating objects in automotive applications that can be used with systems that are e.g. As an adaptive cruise control, a collision avoidance, a pre-crash and a side object detection include. The exemplary vehicle system may also include a global positioning system (GPS).
Diese
Sensoren sind vorzugsweise innerhalb des Fahrzeugs 10 an
relativ hindernisfreien Positionen relativ zu einer Sicht vor dem
Fahrzeug positioniert. Es sei auch angemerkt, dass jeder dieser
Sensoren einen Schätzwert
eines tatsächlichen
Orts oder einer tatsächlichen
Bedingung eines Zielobjekts bereitstellt, wobei der Schätzwert eine
geschätzte
Position und eine Standardabweichung umfasst. Somit werden eine
Sensordetektion und eine Messung von Objektorten und Bedingungen
typischerweise als ”Schätzwerte” bezeichnet. Es
sei ferner angemerkt, dass die Eigenschaften dieser Sensoren darin
komplementär
sind, dass einige beim Schätzen
bestimmter Parameter zuverlässiger
sind als andere. Herkömmliche
Sensoren weisen verschiedene Betriebsreichweiten und Winkelabdeckungen
auf und können
innerhalb ihrer Betriebsreichweite verschiedene Parameter abschätzen. Beispielsweise
können
Radarsensoren für
gewöhnlich
die Entfernung, die Entfernungsänderung
und den Azimutort eines Objekts schätzen, sie sind normalerweise
jedoch beim Schätzen
des Umfangs eines detektierten Objekts nicht stabil. Eine Kamera
mit Sichtprozessor ist beim Schätzen
einer Form und einer Azimutposition des Objekts stabiler, ist jedoch
beim Schätzen
der Entfernung und Entfernungsänderung
des Objekts weniger effizient. LIDARe vom Abtasttyp arbeiten in
Bezug auf das Schätzen
von Entfernung und Azimutposition effizient und genau, können jedoch
typischerweise die Entfernungsänderung
nicht abschätzen
und sind daher in Bezug auf eine Erlangung/Erkennung eines neuen
Objekts nicht genau. Ultraschallsensoren können eine Entfernung abschätzen, können jedoch
im Allgemeinen nicht die Entfernungsänderung und die Azimutposition
schätzen
oder berechnen. Ferner sei angemerkt, dass das Leistungsvermögen jeder
Sensortechnologie durch unterschiedliche Umgebungsbedingungen beeinflusst
wird. Somit stellen herkömmliche
Sensoren parametrische Abweichungen dar, wobei die wirksame Überlappung
dieser Sensoren Möglichkeiten
für eine
Sensorvereinigung erzeugt.These sensors are preferably inside the vehicle 10 positioned at relatively obstacle-free positions relative to a view in front of the vehicle. It should also be noted that each of these sensors provides an estimate of an actual location or condition of a target object, the estimate comprising an estimated position and a standard deviation. Thus, sensor detection and measurement of object locations and conditions are typically referred to as "estimates." It should also be noted that the characteristics of these sensors are complementary in that some are more reliable in estimating certain parameters than others. Conventional sensors have different operating ranges and angle covers and can estimate various parameters within their operating range. For example, radar sensors may usually estimate the distance, range change and azimuth location of an object, but they are usually not stable in estimating the circumference of a detected object. A vision processor camera is more stable in estimating a shape and an azimuth position of the object, but is less efficient in estimating the distance and range change of the object. Scan-type LIDARs operate efficiently and accurately with respect to estimating range and azimuth position, but typically can not estimate the range change and are therefore not accurate in terms of acquiring / recognizing a new object. Ultrasonic sensors can estimate a distance, but generally can not estimate or calculate the range change and azimuth position. It should also be noted that the performance of each sensor technology is affected by different environmental conditions. Thus, conventional sensors represent parametric variations, with the effective overlap of these sensors creating opportunities for sensor integration.
Jeder
Objektlokalisierungssensor und jedes Subsystem stellt einen Ausgang
bereit, der eine Entfernung R, eine zeitbasierte Entfernungsänderung
R_dot und einen Winkel Θ,
vorzugsweise in Bezug auf eine Langsachse des Fahrzeugs, umfasst
und als Messvektor (o) geschrieben werden kann, d. h. Sensordaten.
Ein beispielhaftes Nahbereichsradarsubsystem weist ein Sichtfeld
(FOV) von 160 Grad und eine maximale Reichweite von dreißig Metern
auf. Ein beispielhaftes Fernbereichsradarsubsystem weist ein Sichtfeld
von 17 Grad und eine maximale Reichweite von 220 Metern auf. Ein
beispielhaftes Vorwärtssichtsubsystem
weist ein Sichtfeld von 45 Grad und eine maximale Reichweite von
fünfzig
(50) Metern auf. Für
jedes Subsystem ist das Sichtfeld vorzugsweise um die Längsachse
des Fahrzeugs 10 ausgerichtet. Das Fahrzeug ist vorzugsweise
auf ein Koordinatensystem, bezeichnet als XY-Koordinatensystem 20,
ausgerichtet, wobei die Längsachse
des Fahrzeugs 10 die X-Achse mit einer Ortslinie an einem
Punkt, der für
das Fahrzeug und eine Signalverarbeitung geeignet ist, festlegt,
und wobei die Y-Achse durch eine Achse festgelegt ist, die orthogonal
zur Langsachse des Fahrzeugs 10 ist und in einer horizontalen
Ebene liegt, die somit parallel zur Bodenfläche ist.Each object location sensor and subsystem provides an output that includes a distance R, a time-based range change R_dot, and an angle Θ, preferably with respect to a vehicle's longitudinal axis, that can be written as a measurement vector (o), ie, sensor data. An exemplary near range radar subsystem has a FOV of 160 degrees and a maximum range of thirty meters. An exemplary far-range radar subsystem has a field of view of 17 degrees and a maximum range of 220 meters. An exemplary forward vision subsystem has a 45 degree field of view and a maximum range of fifty (50) meters. For each subsystem, the field of view is preferably about the longitudinal axis of the vehicle 10 aligned. The vehicle is preferably on a coordinate system, referred to as XY coordinate system 20 , aligned with the longitudinal axis of the vehicle 10 determines the X-axis with a locus at a point suitable for the vehicle and signal processing, and wherein the Y-axis is defined by an axis orthogonal to the longitudinal axis of the vehicle 10 is and lies in a horizontal plane, which is thus parallel to the bottom surface.
Der
Offenbarungsgehalt des US-Patents Nr. 7,460,951 mit dem Titel SYSTEM
AND METHOD OF TARGET TRACKING USING SENSOR FUSION ist hierin durch
Bezugnahme vollständig
mit eingeschlossen, so dass das Verfahren und die Vorrichtung zum
Vereinigen von Verfolgungsdaten von mehreren Sensoren zum genaueren
Schätzen
eines Orts eines Objekts hierin nicht ausführlich beschrieben werden muss.Of the
The disclosure of U.S. Patent No. 7,460,951 entitled SYSTEM
AND METHOD OF TARGET TRACKING USING SENSOR FUSION is hereby
Reference completely
included so that the method and apparatus for
Combine tracking data from multiple sensors for more accurate
Estimate
a location of an object need not be described in detail herein.
Auf 2 Bezug
nehmend ist ein Fahrzeug 10 gezeigt, das ein Paar von Erfassungssystemen 14 und 16 umfasst.
Das Fahrzeug 10 kann als Koordinatensystem (X, Y) 20 bezeichnet
werden, wobei die Koordinaten in Bezug auf eine Langsachse des Fahrzeugs
und eine seitliche Position, beispielsweise im Vergleich zu einer
Mittellinie des Fahrzeugs, definiert sind. Die Erfassungssysteme 14 und 16 können ein
beliebiges der beispielhaften oben beschriebenen Systeme oder der
Systeme sein, die in der Technik bekannt sind und eine Verfolgung
eines erfassten Objekts zurückgeben
können.
Die Sensoren können
ihr eigenes Koordinatensystem aufweisen. Ein beispielhaftes Koordinatensystem
(u, V) 21 ist in Bezug auf das Sensorsystem 14 gezeigt. Ein
Objekt 30 ist zu drei verschiedenen Zeitpunkten gezeigt.
Das Sensorsystem 14, das Objekte innerhalb des FOV(A) erfasst,
gibt drei Orte eines verfolgten Objekts für das Objekt 30 zurück, die
mit ra1, ra2 und
ra3 bezeichnet sind. Das Sensorsystem 16,
das Objekte innerhalb des FOV(B) erfasst, gibt auf ähnliche
Weise drei Orte eines verfolgten Objekts für das Objekt 30 zurück, die
mit rb1, rb2 und
rb3 bezeichnet sind. Vereinigte Positionen für das Objekt 30 können auf
der Grundlage der verfügbaren
Information bezüglich
des Objekts 30 beschrieben werden. In der Technik sind
Verfahren zum Vereinigen mehrerer Sätze von Daten zu einem vereinigten Satz
bekannt. Beispielhafte Verfahren können beispielsweise Gewichte
oder gemessene Abweichungen in den verschiedenen Datenpunkten anwenden,
und der Beitrag jedes individuellen Punkts zu dem vereinigten Satz
kann von den Gewichten oder Abweichungen abhängen. 2 zeigt
einen beispielhaften Satz von vereinigten Datenpunkten, die mit
rf1, rf2 und rf3 bezeichnet sind.On 2 Referring to a vehicle 10 shown that a pair of detection systems 14 and 16 includes. The vehicle 10 can be used as a coordinate system (X, Y) 20 wherein the coordinates are defined with respect to a longitudinal axis of the vehicle and a lateral position, for example, compared to a centerline of the vehicle. The detection systems 14 and 16 may be any of the exemplary systems described above or the systems known in the art and capable of returning tracking of a detected object. The sensors can have their own coordinate system. An exemplary coordinate system (u, V) 21 is in relation to the sensor system 14 shown. An object 30 is shown at three different times. The sensor system 14 , which captures objects within the FOV (A), gives three locations of a tracked object for the object 30 back, which are denoted by r a1 , r a2 and r a3 . The sensor system 16 detecting objects within the FOV (B) similarly gives three locations of a tracked object for the object 30 back, which are denoted by r b1 , r b2 and r b3 . United positions for the object 30 can be based on the information available regarding the object 30 to be discribed. Methods are known in the art for merging multiple sets of data into a unified set. For example, example methods may apply weights or measured deviations in the various data points, and the contribution of each individual point to the merged set may depend on the weights or deviations. 2 Figure 14 shows an exemplary set of merged data points labeled r f1 , r f2, and r f3 .
3 zeigt
schematisch einen beispielhaften Prozess zum Überwachen von Sensoreingängen und Erzeugen
einer Verfolgungsliste, die detektierten Objekten entspricht, gemäß der vorliegenden
Offenbarung. Das beispielhafte Fahrzeug 10 umfasst allgemein
ein Steuersystem mit einem Beobachtungsmodul 22, einem Datenzuordnungs-
und Clustering-Modul (DAC-Modul) 24, das ferner ein Kalman-Filter 24A umfasst,
und einem Verfolgungslebensdauerverwaltungsmodul (TLM-Modul von
track life management module) 26, das eine Verfolgungsliste 26A verfolgt,
die mehrere Objektverfolgungen umfasst. Genauer gesagt umfasst das
Beobachtungsmodul die Sensoren 14 und 16, ihre
jeweiligen Sensorprozessoren und die Verbindung zwischen den Sensoren,
den Sensorprozessoren und dem DAC-Modul 24. 3 12 schematically illustrates an exemplary process for monitoring sensor inputs and generating a tracking list corresponding to detected objects, in accordance with the present disclosure. The exemplary vehicle 10 generally comprises a control system with an observation module 22 , a Data Assignment and Clustering Module (DAC Module) 24 , which is also a Kalman filter 24A and a track life management module (TLM module) 26 that has a chase list 26A track that includes multiple object pursuits. More specifically, the observation module includes the sensors 14 and 16 , their respective sensor processors and the connection between the sensors, the sensor processors and the DAC module 24 ,
Das
obige beispielhafte Objektverfolgungssystem zeigt ein Verfahren,
durch das ein Objekt oder mehrere Objekte verfolgt werden können. Es
sei jedoch angemerkt, dass gleichermaßen eine Anzahl von verschiedenen
Sensoren, die eine Information bezüglich der Umgebung um das Fahrzeug
herum erfassen, verwendet werden könnte, und dass die Offenbarung
nicht auf die hierin beschriebenen bestimmten Ausführungsformen beschränkt sein
soll. Ferner ist das hierin oben beschriebene Datenvereinigungsverfahren
ein beispielhaftes Verfahren, durch das die Details der verschiedenen
Eingangssensoren zu einer einzelnen nützlichen Verfolgung eines Objekts
vereinigt werden könnten.
Es sind jedoch zahlreiche Datenvereinigungsverfahren in der Technik
bekannt, und die Offenbarung soll nicht auf die hierin beschriebene
bestimmte beispielhafte Ausführungsform
beschrankt sein.The
The above exemplary object tracking system shows a method
by which one or more objects can be tracked. It
It should be noted, however, that a number of different
Sensors that provide information about the environment around the vehicle
capture, could be used, and that the revelation
are not limited to the particular embodiments described herein
should. Further, the data pooling method described hereinabove
an exemplary process through which the details of the various
Input sensors for a single useful tracking of an object
could be united.
However, there are numerous data pooling techniques in the art
and the disclosure is not intended to be as described herein
certain exemplary embodiment
be limited.
Hierin
sind Verfahren zum Steuern des Fahrzeugbetriebs unter Verwendung
eines Kollisionsvorbereitungssystems und einer Bewegung von identifizierten
Objekten offenbart. Das identifizierte Objekt wird analysiert, um
eine wahrscheinlich bevorstehende oder unmittelbar bevorstehende
Kollision auf der Grundlage der Objektbewegung relativ zu dem Fahrzeug
zu identifizieren. Das Kollisionsvorbereitungssystem ist ausgestaltet,
um einen Fahrzeugbediener hinsichtlich einer bevorstehenden Kollision
zu alarmieren, und ist ausgestaltet, um den Fahrzeugbetrieb beispielsweise
durch automatisches Bremsen zu steuern, wenn die Kollision als unvermeidbar
betrachtet wird, um die Kollisionsschwere zu reduzieren.Here in
are methods of controlling vehicle operation using
a collision preparation system and a movement of identified
Revealed objects. The identified object is analyzed to
a likely imminent or imminent one
Collision based on object movement relative to the vehicle
to identify. The collision preparation system is designed,
to a vehicle operator regarding an imminent collision
to alert, and is configured to operate the vehicle, for example
by controlling automatic braking when the collision is unavoidable
is considered to reduce the collision severity.
Sichtsysteme
stellen eine alternative Quelle eines Sensoreingangs zur Verwendung
bei Fahrzeugsteuersystemen bereit. Es ist in der Technik bekannt,
dass Verfahren zum Analysieren einer visuellen Information eine
Mustererkennung, eine Eckendetektion, eine Detektion vertikaler
Kanten, eine Erkennung vertikaler Objekte und andere Verfahren umfassen.
Es sei jedoch angemerkt, dass visuelle Darstellungen mit hoher Auflösung des
Felds in der Nähe
eines Fahrzeugs, die mit einer hohen Rate aktualisiert werden, die
notwendig ist, um die Bewegungen in Echtzeit wahrzunehmen, einen
sehr großen
zu analysierenden Umfang an Informationen umfassen. Eine Echtzeitanalyse
einer visuellen Information kann äußerst aufwendig sein. Es wird
ein Verfahren zum Vereinigen eines Eingangs von einem Sichtsystem
mit einer vereinigten Verfolgung offenbart, die durch Verfahren,
wie beispielsweise das oben beschriebene beispielhafte Verfolgungsvereinigungsverfahren,
erzeugt wird, um eine Sichtanalyse auf einen Teil der visuellen
Information zu richten, der am wahrscheinlichsten eine Kollisionsgefahr
darstellt, und wobei die fokussierte Analyse verwendet wird, um
auf ein wahrscheinlich unmittelbar bevorstehendes Kollisionsereignis
hinzuweisen. Ferner wird ein Verfahren beschrieben, das iterative
Verfolgungszyklen zum Identifizieren eines verfolgten Objekts, beispielsweise
unter Verwendung einer Information, die in einem Zyklus ermittelt
wird, um eine Ermittlung einer Information in dem nächsten Zyklus
zu unterstützen,
einsetzt. Ferner wird ein Verfahren beschrieben, um eine Bank von
Filtern auf ein verfolgtes Objekt in einem Bild anzuwenden und durch
eine Anwendung eines Modells zu ermitteln, welcher Filterausgang
die beste Schätzung
des verfolgten Objekts ist.Vision systems provide an alternative source of sensor input for use in vehicle control systems. It is known in the art that methods for analyzing visual information include pattern recognition, corner detection, vertical edge detection, vertical object detection, and other methods. It should be noted, however, that high resolution visual representations of the field in the vicinity of a vehicle, which are updated at a high rate necessary to perceive the movements in real time, involve a very large amount of information to be analyzed. A real-time analysis of visual information can be extremely expensive. A method is disclosed for uniting an input from a vision system with a unified tracking, generated by methods such as the exemplary tracking merging method described above to direct a visual analysis to a portion of the visual information most likely to present a collision hazard, and wherein the focused analysis is used to indicate a likely imminent collision event , Further described is a method that employs iterative tracking cycles to identify a tracked object, for example, using information determined in one cycle to aid in the detection of information in the next cycle. Further, a method is described for applying a bank of filters to a tracked object in an image and using a model to determine which filter output is the best estimate of the tracked object.
4 zeigt
schematisch ein beispielhaftes Steuerschema 100 für ein Kollisionsvorbereitungssystem gemäß der vorliegenden
Offenbarung. Das Steuerschema ist in 4 gezeigt
und hierin als diskrete Elemente umfassend beschrieben. Solch eine
Darstellung dient der Vereinfachung der Beschreibung und es ist
zu erkennen, dass die durch diese Elemente durchgeführten Funktionen
in einer oder mehreren Einrichtungen kombiniert sein können, z.
B. realisiert in Software, Hardware und/oder einer anwendungsspezifischen
integrierten Schaltung. Beispielsweise kann das Steuerschema 100 in
dem Steuermodul 5 realisiert sein. Das Steuersche ma 100 umfasst
das Überwachen
von Sensoreingangsdaten, die eine Umgebung um das Fahrzeug 10 herum beschreiben,
wobei Entfernungssensoren 102, Kamerabilder 104 und
fahrzeuginterne Sensoren 106 umfasst sind. Vorzugsweise überwacht
das Steuerschema 100 kontinuierlich die Umgebung des Fahrzeugs
unter Verwendung seiner Entfernungssensoren (z. B. Radare und LIDARe)
und Kameras. 4 schematically shows an exemplary control scheme 100 for a collision preparation system according to the present disclosure. The control scheme is in 4 and described herein as comprising discrete elements. Such a representation is to simplify the description and it will be appreciated that the functions performed by these elements may be combined in one or more devices, e.g. B. realized in software, hardware and / or an application-specific integrated circuit. For example, the control scheme 100 in the control module 5 be realized. The Steuersche ma 100 includes monitoring sensor input data surrounding an environment of the vehicle 10 describe around, with distance sensors 102 , Camera images 104 and in-vehicle sensors 106 are included. Preferably, the control scheme monitors 100 continuously the environment of the vehicle using its distance sensors (such as radars and LIDARe) and cameras.
Ein
Datenvereinigungsmodul 110 gibt die Sensordaten ein. Das
Datenvereinigungsmodul 110 analysiert, filtert oder priorisiert
die Eingänge
relativ zu der Zuverlässigkeit
der verschiedenen Eingänge,
und die priorisierten oder gewichteten Eingänge werden summiert, um Verfolgungsschätzwerte
für Objekte
in der Nähe des
Fahrzeugs 10 zu erzeugen. Diese Objektverfolgungen werden
dann in das Kollisionsgefahrenbewertungsmodul 120 eingegeben,
wobei jede Verfolgung hinsichtlich einer Wahrscheinlichkeit für eine Kollision
bewertet wird. Es sei angemerkt, dass für den Einsatz der hierin beschriebenen
Verfahren keine Kollision stattfinden muss, sondern dass stattdessen
auf der Grundlage einer Bewertung eines dynamischen Fahrzeugereignisses (beispielsweise
eines Änderns
der Beziehung eines detektierten Objekts zu dem Host-Fahrzeug, was
auf eine unmittelbar bevorstehende Kollision hindeutet) eine Wahrscheinlichkeit
einer Kollision bewertet werden kann. Diese Wahrscheinlichkeit für eine Kollision
kann beispielsweise hinsichtlich einer Schwellenwertwahrscheinlichkeit
für eine
Kollision bewertet werden, und wenn eine Kollision als wahrscheinlich
bestimmt wird, können Kollisionsgegenmaßnahmen
initiiert werden. Die Wahrscheinlichkeit für eine Kollision eines identifizierten
Objekts wird durch ein Kollisionsgegenmaßnahmenmodul 150 analysiert.A data union module 110 enters the sensor data. The data union module 110 analyzes, filters or prioritizes the inputs relative to the reliability of the various inputs, and the prioritized or weighted inputs are summed to provide tracking estimates for objects in the vicinity of the vehicle 10 to create. These object traces then become the collision hazard evaluation module 120 where each track is evaluated for probability of a collision. It should be noted that for the implementation of the methods described herein, no collision needs to take place, but instead based on an evaluation of a dynamic vehicle event (eg, changing the relationship of a detected object to the host vehicle, which indicates an imminent collision ) a probability of a collision can be assessed. For example, this probability of a collision may be evaluated in terms of a threshold probability for a collision, and if a collision is determined to be likely, collision countermeasures may be initiated. The probability of a collision of an identified object is determined by a collision countermeasure module 150 analyzed.
Kollisionsgegenmaßnahmen
können
in der Technik viele Formen annehmen. Beispielsweise können bei
einem Versuch, das Fahrzeug vor einem Aufprall zu verlangsamen,
automatisch Fahrzeugbremssysteme aktiviert werden. Ähnlich kann
der Motor gedrosselt werden, um die Geschwindigkeit des Fahrzeugs
und die kinetische Energie des Fahrzeugs vor dem Aufprall zu reduzieren.
Beispielsweise kann ein automatisiertes Lenken aktiviert werden,
um das Fahrzeug vor der Kollision abzugleichen, um die Auswirkungen
eines schrägen
Aufpralls zu vermeiden. Ähnlich
können,
wenn ein Seitenaufprall als unmittelbar bevorstehend projiziert wird,
ein Lenken und eine Vorwärtsbewegung
des Fahrzeugs gesteuert werden, um den Aufprall von dem Fahrgastraum
des Fahrzeugs weg anzupassen. Ähnlich
kann, wenn ein Heckaufprall als unmittelbar bevorstehend projiziert
wird, die Drosselung des Fahrzeugs erhöht werden, um den Unterschied
der Geschwindigkeiten der Fahrzeuge zum Zeitpunkt des Aufpralls
zu reduzieren. Ferner können
andere Fahrzeugsysteme bei der Vorbereitung für einen Aufprall gesteuert
werden. Beispielsweise können
die Sicherheitsgurte der Insassen bei einer Vorbereitung für den Aufprall
gestrafft und/oder verriegelt werden. Die Kopfstützen des Fahrzeugs können verändert werden,
um den Hals und Nacken der Insassen des Fahrzeugs bestmöglich zu
schützen.
Einen Moment vor dem projizierten Aufprall können Air-Gags präventiv,
beispielsweise mit einem verringerten Druck, entfaltet werden, um
auf diese Weise die Wahrscheinlichkeit zu reduzieren, dass der Insasse
durch die für
gewöhnlich
schnelle Entfaltung der Airbags beeinträchtigt wird. Vor dem Aufprall
können
automatisch die Fenster geschlossen und die Türen verriegelt werden. Die
Fußpedale
können
in eine zurückgezogene
Stellung angepasst werden, um die Wahrscheinlichkeit einer Interaktion
mit dem Fahrzeugbediener während
des Aufpralls zu reduzieren. Durch ein drahtloses Kommunikationsnetz
kann ein anfängliches
Notrufsignal übertragen
werden, um Rettungskräfte
zu alarmieren, wobei ein Unvermögen
des Systems zu Kommunizieren, wenn der Aufprall den Betrieb des
Systems beschädigt,
umgangen wird. Es kann ein akustischer Alarm einer unmittelbar bevorstehenden
Kollision ertönen,
um die Insassen des Fahrzeugs zu alarmieren. Es wird eine Anzahl
von Kollisionsgegenmaßnahmen
in Betracht gezogen, und die Offenbarung soll nicht auf die hierin
beschriebenen bestimmten beispielhaften Ausführungsformen beschränkt sein.Collision countermeasures
can
take many forms in technology. For example, at
an attempt to slow the vehicle from impact,
automatically vehicle braking systems are activated. Similarly
The engine will be throttled to the speed of the vehicle
and to reduce the kinetic energy of the vehicle before impact.
For example, automated steering can be activated,
to balance the vehicle before the collision to the impact
a weird one
Avoid impact. Similar
can,
if a side impact is projected as imminent,
a steering and a forward movement
the vehicle are controlled to the impact of the passenger compartment
to adapt the vehicle away. Similar
can if a rear-end impact projected as imminent
will, the throttling of the vehicle will be increased to the difference
the speeds of the vehicles at the time of impact
to reduce. Furthermore, can
other vehicle systems controlled in preparation for an impact
become. For example, you can
the seat belts of the occupants in preparation for the impact
streamlined and / or locked. The headrests of the vehicle can be changed
to best fit the neck and neck of the occupants of the vehicle
protect.
A moment before the projected impact, air-gags can preventively,
for example, with a reduced pressure, to be deployed
in this way reduce the likelihood that the inmate
through the for
usually
rapid deployment of the airbags is impaired. Before the impact
can
automatically closed the windows and the doors are locked. The
foot pedals
can
in a withdrawn
Position adjusted to the likelihood of interaction
with the vehicle operator during
to reduce the impact. Through a wireless communication network
can be an initial one
Emergency call signal transmitted
be to rescue workers
to alarm, being an inability
of the system to communicate when the impact of the operation of the
Damaged system,
is bypassed. It can be an audible alarm of an imminent
Sound a collision,
to alert the occupants of the vehicle. There will be a number
of collision countermeasures
considered and the disclosure is not intended to be herein
be limited to certain specific exemplary embodiments described.
Bei
einer Ausführungsform
wird das hierin oben beschriebene beispielhafte Steuerschema 100 verwendet,
um ein Fahrzeug zu steuern, das während eines dynamischen Fahrzeugereignisses
betrieben wird. Das Verfahren umfasst, dass eine Entfernungssensorinformation
und eine Sichtsysteminformation überwacht werden.
Ein Überlagern
der Entfernungssensorinformation an der Sichtsysteminformation erzeugt
ein modifiziertes Bild. Unter Verwendung einer Kantendetektion,
einer Eckendetektion und einer Detektion eines optischen Flusses
werden hervorstechende Bildbereiche in dem modifizierten Bild identifiziert,
wobei die hervorstechenden Bildbereiche, die dem Boden entsprechen,
ausgeschlossen werden. Das Verfahren umfasst ferner, dass in einem
ersten Zeitschritt ein erstes Objekt in einem Fahrzeugsichtfeld
unter Verwendung der hervorstechenden Bildbereiche identifiziert
wird und in einem nachfolgenden Zeitschritt ein zweites Objekt in
dem Fahrzeugsichtfeld unter Verwendung der hervorstechenden Bildbereiche
identifiziert wird. Es wird eine Position des ersten Objekts in
dem nachfolgenden Zeitschritt vorhergesagt und auf der Grundlage
eines Vergleichens der vorhergesagten Position des ersten Objekts
mit dem identifizierten zweiten Objekt mit dem zweiten Objekt in Übereinstimmung
gebracht. Es wird eine Objektverfolgung der in Übereinstimmung gebrachten Objekte
ermittelt, und es wird eine Wahrscheinlichkeit für eine Kollision zwischen dem
in Übereinstimmung
gebrachten Objekt und dem Fahrzeug auf der Grundlage der Objektverfolgung
ermittelt. Das Fahrzeug wird auf der Grundlage der Wahrscheinlichkeit
für eine
Kollision gesteuert.In one embodiment, the exemplary control scheme described hereinabove 100 used to control a vehicle operated during a dynamic vehicle event. The method includes monitoring distance sensor information and vision system information. Superimposing the range sensor information on the vision system information produces a modified image. Using edge detection, corner detection, and optical flow detection, prominent image areas in the modified image are identified, excluding the salient image areas corresponding to the floor. The method further comprises, in a first time step, identifying a first object in a vehicle field of view using the salient image areas, and identifying a second object in the vehicle field of view using the salient image areas in a subsequent time step. A position of the first object in the subsequent time step is predicted and matched based on comparing the predicted position of the first object with the identified second object with the second object. Object tracking of the matched objects is determined, and a probability of collision between the matched object and the vehicle is determined based on the object tracking. The vehicle is controlled based on the probability of a collision.
5 zeigt
schematisch das beispielhafte Bildvereinigungsmodul 120 gemäß der vorliegenden
Offenbarung. Das Vereinigungsmodul 110 integriert einen
Eingang von verschiedenen Erfassungseinrichtungen, die Kameras 104 und
Entfernungssensoren 102 umfassen, und erzeugt eine vereinigte
Verfolgung eines Objekts in der Nähe des Fahrzeugs 10.
Die Entfernungssensordaten umfassen Positionsdaten einer Liste von
Objekten in einem zweidimensionalen Fahrzeugkoordinatensystem. Bei
einer beispielhaften Ausführungsform
werden die Objekte an den Kameradaten projiziert oder überlagert,
um ein modifiziertes Bild in einem Modul 112 für eine Bewegungsanalyse
und eine Detektion eines hervorstechenden Gebiets zu erzeugen, wobei
vorzugsweise vorbestimmte Kamerakalibrierungsparameter verwendet
werden, die entsprechend dem zweidimensionalen Fahrzeugkoordinatensystem
angepasst werden. Eine Entfernungsinformation, wie beispielsweise
Radarrückführungen,
die mit entsprechenden Gebieten des Bilds in Übereinstimmung gebracht wird,
kann verwendet werden, um Orte potentieller Objekte in dem Bild
zu identifizieren. Auf die Kameradaten und das modifizierte Bild
kann ferner eine Beleuchtungsnormalisierung angewandt werden. Eine
Normalisierung ist ein Prozess, der den Bereich von Pixel-Intensitätswerten ändert. Der
Zweck der Normalisierung ist, das Bild in einen Bereich zu bringen,
der für
einen Maschinenprozess geeigneter ist, um die Zuverlässigkeit
zu verbessern. Beispielsweise wird jeder Pixel-Wert auf einen Mittelwert
von Null und eine Einheitsvarianz normalisiert, um den Bildkontrast
zu verbessern, insbesondere in einer Umgebung mit schwacher Beleuchtung,
oder wenn der Kontrast aufgrund einer Blendung schlecht ist. 5 schematically shows the exemplary Bildvereinigungsmodul 120 according to the present disclosure. The union module 110 Integrates an input from various capture devices, the cameras 104 and distance sensors 102 and creates a unified tracking of an object in the vicinity of the vehicle 10 , The ranging sensor data includes position data of a list of objects in a two-dimensional vehicle coordinate system. In an exemplary embodiment, the objects are projected or superimposed on the camera data to form a modified image in a module 112 for motion analysis and salient area detection, preferably using predetermined camera calibration parameters that are adjusted according to the two-dimensional vehicle coordinate system. Distance information, such as radar returns, that is matched with corresponding areas of the image may be used to identify locations of potential objects in the image. Furthermore, illumination normalization may be applied to the camera data and the modified image. Normalization is a process that changes the range of pixel intensity values. The purpose of normalization is to bring the image into a range that is more appropriate for a machine process to improve reliability. For example, each pixel value is normalized to a mean of zero and unit variance to improve image contrast, particularly in a low-light environment, or when contrast is poor due to glare.
Das
Modul 112 für
eine Bewegungsanalyse und eine Detektion eines hervorstechenden
Gebiets identifiziert Bildbereiche für eine weitere Analyse, die
eine Schwellenwertkonfidenz für
ein Erhalten von Objekten oder Teilen von Objekten aufweisen. Die
Bildbereiche, die zuvor identifizierten Objekten entsprechen, werden unter
Verwendung einer a priori-Information
ermittelt, die eine Objektinformation eines vorherigen Zeitschritts umfasst,
wie beispielsweise die Objektverfolgung und -position. Bei einer
Ausführungsform
werden die Objekte an dem modifizierten Bild unter Verwendung der
Objektposition, der verstrichenen Zeit zwischen Iterationen und
einer zugeordneten Objektverfolgung projiziert. Die hervorstechenden
Bildbereiche können
unter Verwendung von Extraktionsalgorithmen identifiziert werden,
die z. B. eine skaleninvariante Merkmalstransformation (SIFT von
scale-invariant feature transform), einen Algorithmus beschleunigter
robuster Merkmale (SURF von speeded up robust feature) und/oder
einen Algorithmus eines maximal stabilen Extremgebiets (MSER von
maximally stable extreme region) umfassen. Bei einer Ausführungsform
können
ein Gradientenorientierungshistogramm (HOG von histogram of oriented
gradients) und Eigenbildkoeffizienten verwendet werden.The module 112 motion analysis and salient area detection identifies image areas for further analysis having a threshold confidence for obtaining objects or parts of objects. The image areas corresponding to previously identified objects are determined using a priori information that includes object information of a previous time step, such as object tracking and position. In one embodiment, the objects on the modified image are projected using the object position, the elapsed time between iterations, and an associated object trace. The salient image areas can be identified using extraction algorithms, e.g. A scale-invariant feature transform (SIFT), an accelerated robust feature (SURF) algorithm, and / or a maximally stable extreme region (MSER) algorithm. In one embodiment, a gradient orientation histogram (HOG of oriented gradients) and eigen-image coefficients may be used.
Andere
interessierende Gebiete des modifizierten Bilds können unter
Verwendung von Kanten-, Eckendetektionsverfahren und Detektionsverfahren
eines hervorstechenden Blobs identifiziert werden. Unter Verwendung
einer Detektion eines optischen Flusses zwischen aufeinander folgenden
modifizierten Bildern und durch Projizieren zuvor identifizierter
Objekte auf das modifizierte Bild wie hierin nachstehend beschrieben können zusätzliche
interessierende Gebiete identifiziert werden. Unter Verwendung eines
mehrerer bekannter Verfahren kann eine Kantendetektion ausgeführt werden.
Unter Verwendung eines mehrerer Algorithmen, die einen Harris-Eckendetektionsalgorithmus
umfassen, können
Ecken identifiziert werden.Other
Regions of interest of the modified image can be found under
Use of edge, corner detection and detection methods
of a salient blob. Under use
a detection of an optical flow between successive ones
modified images and previously identified by projecting
Objects on the modified image as described hereinafter may be additional
areas of interest are identified. Using a
According to several known methods, an edge detection can be carried out.
Using one of several algorithms using a Harris corner detection algorithm
may include
Corners are identified.
Für die oben
beschriebene Identifikation hervorstechender Blobs an dem modifizierten
Bild wird ein Gauss-Operator auf das modifizierte Bild an gewandt.
Im Betrieb wird ein modifiziertes Bild I(x, y), wobei x und y Zeilen-
und Spaltenindizes des Bilds sind, durch einen Gauss-Kernel wie
den folgenden gefaltet.For the above
described identification of salient blobs on the modified
Image, a Gaussian operator is applied to the modified image.
In operation, a modified image I (x, y), where x and y are line
and column indexes of the image are through a Gauss kernel like
folded the following.
Das
modifizierte Bild wird durch den Gauss-Kernel mit einer bestimmten
Skalierung t gefaltet, um eine Skalenraumdarstellung, wie beispielsweise
die folgende Beziehung, zu erhalten. L(x,
y, t) = g(x, y, t)·f(x,
y) [2] The modified image is convolved by the Gauss kernel with a particular scale t to obtain a scale space representation, such as the following relationship. L (x, y, t) = g (x, y, t) · f (x, y) [2]
Nach
dem Falten des modifizierten Bilds wird ein skalennormalisierter
Gauss-Differenz-Operator auf der Grundlage der Skalenraumdarstellung
ermittelt. Der skalennormalisierte Gauss-Differenz-Operator (DoG-Operator von Difference
of Gaussian operator) kann unter Verwendung der folgenden Beziehung
ermittelt werden.To
The folding of the modified image becomes a scale normalized
Gaussian difference operator based on the scale space representation
determined. The scale-normalized Gauss difference operator (DoG operator of Difference
of Gaussian operator) can be made using the following relationship
be determined.
Die
hervorstechenden Blobs werden durch Hervorheben von Punkten an dem
modifizierten Bild lokalisiert, die eine gleichzeitige Entsprechung
mit lokalen Maxima/Minima des Gauss-Differenz-Operators in Bezug
auf sowohl Raum als auch Skalierung aufweisen. Die lokalen Maxima/Minima des
Gauss-Differenz-Operators können
unter Verwendung der folgenden Beziehung ermittelt werden. (x ^, y ^, t ^) = arg max min( x , y , t )(DoG{I(x,
y), t}) [4] The salient blobs are located by highlighting points on the modified image that have simultaneous correspondence with local maxima / minima of the Gaussian difference operator with respect to both space and scale. The local maxima / minima of the Gaussian difference operator can be determined using the following relationship. (x ^, y ^, t ^) = arg max min ( x . y . t ) (DoG {I (x, y), t}) [4]
Eines
mehrerer Detektionsverfahren eines optischen Flusses kann verwendet
werden, um Bildbereiche zu identifizieren, die eine Bewegung zwischen
aufeinander folgenden modifizierten Bildern aufweisen. Ein Verfahren
umfasst das Analysieren der aufeinanderfolgenden modifizierten Bilder
It-1(x, y) und It(x,
y) unter Verwendung eines Lucas-Kanade-Operators eines optischen Flusses, um
interessierende Gebiete, die einer Bewegung entsprechen, zu ermitteln.
Zusätzlich
können
eine Schwellenwertbildung und eine Komponentenverfolgung mit 4-fach
verbundener Nachbarschaft (4-neighborhood connected component tracking)
auf das Bild eines optischen Flusses angewandt werden, um Gebiete
zu identifizieren, die eine signifikante Bewegung angeben. Das Anwenden
eines Lucas-Kanade-Operators
eines optischen Flusses zwischen aufeinander folgenden modifizierten
Bildern liefert bei einer Ausführungsform
eine Abbildung eines optischen Flusses, die Pixel umfasst, die einer
Bewegung zwischen modifizierten Bildern zugeordnet sind.One of several optical flow detection methods may be used to identify image areas having motion between successive modified images. One method involves analyzing the successive modified images I t-1 (x, y) and I t (x, y) using a Lucas-Kanade optical flow operator to determine areas of interest corresponding to motion. In addition, 4-neighborhood connected component tracking thresholding and component tracking may be applied to the image of an optical flow to identify areas indicating significant motion. Applying a Lucas-Kanade optical flow operator between successive modified images, in one embodiment, provides an image of an optical flow comprising pixels associated with movement between modified images.
Durch
Analysieren von Pixeln hinsichtlich visueller Eigenschaften wie
beispielsweise Farbe und/oder Struktur, die einem Boden entsprechen,
in dem Bereich benachbart des Fahrzeugs 10 können zusätzlich interessierende
Bereiche in dem modifizierten Bild identifiziert werden. Die Pixel-Bereiche, die dem
Boden entsprechen, enthalten wahrscheinlich keine Objekte, und können korrekt
vernachlässigt
werden. Ferner können bei
einer Ausführungsform
Bildbereiche, die eine Schwellenwertquantität von Boden entsprechenden
Pixeln aufweisen, vernachlässigt
werden. Ferner liefert eine Disassoziation mit durch die Entfernungssensordaten identifizierten
Objekten eine Information bezüglich
einer Pixel-Entsprechung mit dem Boden. Die Pixel-Klassifizierungen
von Pixeln in segmentierten Bildbereichen oder Stücken des
modifizierten Bilds werden analysiert. Bildbereiche, die eine vorbestimmte
Anzahl von einer Bodenklassifizierung zugeordneten Pixeln enthalten, enthalten
weniger wahrscheinlich ein Objekt.By analyzing pixels for visual characteristics, such as color and / or texture, that correspond to a ground in the area adjacent to the vehicle 10 In addition, regions of interest may be identified in the modified image. The pixel areas that correspond to the floor probably contain no objects and can be neglected correctly. Further, in one embodiment, image areas having a threshold quantity of pixels corresponding to ground may be neglected. Further, disassociation with objects identified by the range sensor data provides information regarding pixel correspondence with the ground. The pixel classifications of pixels in segmented image areas or pieces of the modified image are analyzed. Image areas containing a predetermined number of pixels assigned to a floor classification are less likely to contain an object.
Nach
dem Analysieren des modifizierten Bilds hinsichtlich hervorstechender
Gebiete und Bildbereiche, die einer Bewegung und Merkmalen zugeordnet
sind, identifiziert das Modul 112 für eine Bewegungsanalyse und
eine Detektion eines hervorstechenden Gebiets Bildbereiche, die
einem Konfidenzniveau zugeordnet sind, das größer als eine vorbestimmte Schwellenwertentsprechung
mit einem Objekt und Ausgängen
der identifizierten Bildbereiche ist. Bei einer Ausführungsform
werden Gewichte, die eine Konfidenzentsprechung mit einem Objektvorhandensein
angeben, bestimmten identifizierten Merkmalen zugeordnet und auf
der Grundlage einer Merkmalsneigung in dem Bildbereich quantitativ
angewandt. Gleichermaßen
können
Gewichte auf hervorstechende Gebiete, einer Bewegung zugeordnete
Bildbereiche und Bildbereiche, die zuvor identifizierte Objekte
enthalten, angewandt werden. Die den Bildbereichen zugeordneten
Gewichte können
summiert werden, wobei die Bildbereiche, die einem Schwellenwertgewicht
entsprechen, von dem Modul 112 für eine Bewegungsanalyse und
eine Detektion eines hervorstechenden Gebiets ausgegeben werden.
Bei einer Ausführungsform
werden jedes extrahierte Merkmal, die einer Bewegung zugeordneten
Bildbereiche, die in einem vorherigen Zeitschritt identifizierten
Objekte und die nicht als Boden klassifizierten Bildbereiche miteinander
vereinigt. Die einem Schwellenwert vereinigter Pixel zugeordneten
Bildbereiche werden von dem Modul 112 für eine Bewegungsanalyse und
eine Detektion eines hervorstechenden Gebiets ausgegeben.After analyzing the modified image for salient areas and image areas associated with movement and features, the module identifies 112 for motion analysis and salient area detection, image areas associated with a confidence level greater than a predetermined threshold correspondence with an object and outputs of the identified image areas. In one embodiment, weights that indicate a confidence match with an object existence are assigned to certain identified features and applied quantitatively based on a feature slope in the image area. Likewise, weights may be applied to salient areas, image areas associated with a movement, and image areas containing previously identified objects. The weights associated with the image areas may be summed, with the image areas corresponding to a threshold weight being derived from the module 112 for a motion analysis and a salient area detection. In one embodiment, each extracted feature, the image regions associated with a motion, the objects identified in a previous time step, and the non-bottom image regions are merged together. The image areas associated with a threshold of merged pixels are derived from the module 112 for movement analysis and detection of a salient area.
6 zeigt
ein beispielhaftes Steuerschema 600 zum Identifizieren
von hervorstechenden Bildbereichen und Bildbereichen, die einer
Bewegung zugeordnet sind, unter Verwendung von hierin oben beschriebenen
Verfahren gemäß der vorliegenden
Offenbarung. Das Steuerschema 600 ist in 6 gezeigt
und hierin als diskrete Elemente umfassend beschrieben. Diese Darstellung
dient der Vereinfachung der Beschreibung und es sei angemerkt, dass
die durch diese Elemente ausgeführten
Funktionen in einer oder mehreren Einrichtungen kombiniert sein
können,
z. B. realisiert in Software, Hardware und/oder einer anwendungsspezifischen
integrierten Schaltung. Bei einer Ausführungsform ist das Steuerschema 600 in
dem Modul 112 für
eine Bewegungsanalyse und eine Detektion eines hervorstechenden
Gebiets realisiert. 6 shows an exemplary control scheme 600 for identifying salient image areas and image areas associated with movement using methods described hereinabove in accordance with the present disclosure. The control scheme 600 is in 6 and described herein as comprising discrete elements. This description is to simplify the description and it should be noted that the functions performed by these elements may be combined in one or more devices, e.g. B. realized in software, hardware and / or an application-specific integrated circuit. In one embodiment, the control scheme is 600 in the module 112 realized for a movement analysis and a detection of a salient area.
Das
Steuerschema 600 gibt kontinuierlich modifizierte Bilder,
die unter Verwendung der hierin oben beschriebenen Kameradaten und
Entfernungssensordaten erzeugt werden, ein und überwacht diese 602.
Unter Verwendung von in der Technik bekannten oder hierin beschriebenen
Verfahren ermittelt das Steuerschema 600 eine Kantenabbildung 604,
eine Eckenabbildung unter Verwendung des Harris-Eckendetektionsalgorithmus 606 und
eine Lucas-Kanade-Abbildung eines optischen Flusses 608.
Es sei angemerkt, dass die Schritte 604 bis 608 Muster
in dem Bild identifizieren, die wahrscheinlich Objekte umfassen,
die von dem Boden oder einer Fahrbahn unterscheidbar sind, auf dem
oder der das Fahrzeug fahren kann. Durch in der Technik bekannte
Verfahren, die eine Analyse von Pixel-Eigenschaften und eine Analyse
von Gebieten des Bilds, die Faktoren wie beispielsweise eine Farbe
und Linienmuster beschreiben, umfassen, können Gebiete des Bilds, die
wahrscheinlich den Boden um fassen, identifiziert werden. Durch Vergleichen
dieses Gebiets oder dieser Gebiete mit den identifizierten Gebieten
mit Mustern, die Objekte beschreiben, kann eine Ermittlung vorgenommen
werden, um Bereiche oder Gebiete des Bilds zu definieren, die wahrscheinlich
einen Boden umfassen und keine zu verfolgenden Objekte angeben.
Der Prozess 600 definiert Bereiche, die den Boden angeben 610,
auf der Grundlage des eingegebenen modifizierten Bilds wie hierin
oben beschrieben. Die in einer a priori-Iteration identifizierten Objekte werden
wie hierin oben beschrieben an dem modifizierten Bild projiziert 612.
Die Kantenabbildung, die Eckenabbildung, die Lucas-Kanade-Abbildung
eines optischen Flusses, die Bildbereiche, die nicht dem Boden entsprechen,
und die projizierten Objekte werden vereinigt, um Bildbereiche an
dem modifizierten Bild zu identifizieren, die einem Objekt entsprechen 614.The control scheme 600 inputs and monitors continuously modified images generated using the camera data and range sensor data described hereinabove 602 , Using control techniques known in the art or described herein, the control scheme determines 600 an edge illustration 604 , a corner map using the Harris corner detection algorithm 606 and a Lucas-Kanade image of an optical flow 608 , It should be noted that the steps 604 to 608 Identify patterns in the image that are likely to include objects that are distinguishable from the ground or a lane on which the vehicle can travel. By methods known in the art, including analysis of pixel characteristics and analysis of areas of the image describing factors such as color and line patterns, areas of the image that are likely to encompass the floor may be identified. By comparing this area or areas with the identified areas with patterns describing objects, a determination can be made to define areas or areas of the image that are likely to include ground and indicate no objects to track. The process 600 defines areas that indicate the ground 610 on the basis of the input modified image as described hereinabove. The objects identified in an a priori iteration are projected on the modified image as described hereinabove 612 , The edge map, the corner map, the Lucas-Kanade optical flow map, the non-ground image areas, and the projected objects are merged to identify image areas on the modified image that correspond to an object 614 ,
Wieder
auf 5 Bezug nehmend gibt das Modul 112 für eine Bewegungsanalyse
und eine Detektion eines hervorstechenden Gebiets nach dem Identifizieren
von Bildbereichen an dem modifizierten Bild die Objektposition (P)
und die identifizierten Bildbereiche, die einen definierten Bereich
von Merkmalen (I) umfassen, für
eine weitere Analyse an ein Merkmalsextraktionsmodul 114 aus.
Das Merkmalsextraktionsmodul 114 analysiert den Bildbereich
durch Anwenden bekannter Merkmalsidentifikationsalgorithmen auf
das Stück.
Die Merkmalsidentifikationsalgorithmen durchsuchen die verfügbare visuelle
Information hinsichtlich charakteristischer Muster in dem Bildbereich,
der einem Objekt zugeordnet ist, einschließlich Merkmalen, die durch
eine Linienausrichtung, einen Linienort, eine Farbe, Eckeneigenschaften,
andere visuelle Attribute und gelernte Attribute definiert sind.
Bei einer Ausführungsform
können
die Merkmalsidentifikationsalgorithmen auf sequentielle Bilder angewandt
werden, um Änderungen
zu identifizieren, die einer Fahrzeugbewegung entsprechen, wobei
die Änderungen,
die nicht einer Bodenbewegung zugeordnet sind, als nicht freier
Pfad identifiziert werden können.
Das Merkmalsextraktionsmodul 114 überwacht die Bildbereiche des
modifizierten Bilds und ermittelt einen Merkmalsdeskriptor für jeden
Bildbereich. Der Merkmalsdeskriptor kann unter Verwendung von Merkmalsextraktionsalgorithmen
und Transformationen, wie beispielsweise ein Histogramm vorbestimmter Unterscheidungsmerkmale,
wie beispielsweise vertikale Kanten, Symmetrie, ein Gradientenorientierungshistogramm
(HOG), und unter Verwendung einer Projektion auf einen linearen
Subraum, z. B. eine Hauptkomponentenanalyse, ermittelt werden. Durch
in der Technik bekannte Verfahren, wie beispielsweise Haar-Wavelet, Gabor-Wavelet
und Leung-Malik-Filterbank, können
zusätzliche
Unterscheidungsmerkmale definiert werden.Back on 5 Referring to the module gives 112 for motion analysis and salient area detection, after identifying image areas on the modified image, the object position (P) and the identified image areas comprising a defined range of features (I) for further analysis to a feature extraction module 114 out. The feature extraction module 114 analyzes the image area by applying known feature identification algorithms to the piece. The feature identification algorithms search the available visual information for characteristic patterns in the image area associated with an object, including features defined by line orientation, line location, color, corner properties, other visual attributes, and learned attributes. In one embodiment, the feature identification algorithms may be applied to sequential images to identify changes corresponding to vehicle movement, wherein the changes that are not associated with ground movement may be identified as a non-free path. The feature extraction module 114 monitors the image areas of the modified image and determines a feature descriptor for each image area. The feature descriptor may be constructed using feature extraction algorithms and transformations, such as a histogram of predetermined distinguishing features, such as vertical edges, symmetry, a gradient orientation histogram (HOG), and using a linear subspace projection, e.g. B. a principal component analysis can be determined. By methods known in the art, such as Haar wavelet, Gabor wavelet and Leung-Malik filter bank, additional distinguishing features can be defined.
Das
Klassifizierungsmodul 116 analysiert jeden Bildbereich
und ordnet jedem identifizierten Objekt und zugeordneten Bildbereichen
auf der Grundlage eines vorab trainierten Klassifizierers ein Kennzeichen
(L) zu. Das Klassifizierungsmodul 116 nimmt die extrahierten
Merkmale und die vorherigen identifizierten Objekte (a priori) und
die zugeordneten Daten, die eine Position, einen Bildbereich und
ein Klassifizierungskennzeichen umfassen, welche für den momentanen
Zeitschritt in einem Vorhersageprozessmodul 117 aktualisiert werden,
als Eingang, und führt
sie einem Klassifizierer zu, um zu ermitteln, ob ein Bildbereich
ein Objekt umgibt. Die Klassifizierung ermittelt das Kennzeichen
jedes identifizierten Objekts gemäß einer beliebigen Anzahl von
Klassifizierern. Beispielhafte Klassifizierungen umfassen z. B.
ein sich schnell bewegendes Objekt, wie beispielsweise ein Fahrzeug
in Bewegung, ein sich langsam bewegendes Objekt, wie beispielsweise
ein Fußgänger, und
ein stationäres
Objekt, wie beispielsweise ein Verkehrsschild. Das Klassifizierungsmodul 116 verwendet
statistische Klassifiziererverfahren mit Trainings-Klassifizierung
für eine
Entsprechung mit Merkmalen oder Attributen in dem Bildbereich unter
Verwendung einer signifikanten Anzahl von Objekt- und Nicht-Objekt-Bildabtastwerten.
Die Entsprechung gelernter Attribute mit Merkmalen in dem Bildbereich
kann durch Maschinenlernalgorithmen in dem Fahrzeug gelernt werden,
wird jedoch zumeist offline programmiert und kann experimentell,
empirisch, prädiktiv,
durch eine Modellerstellung oder andere Techniken entwickelt werden,
die geeignet sind, um Unterscheidungsattribute genau zu trainieren.
Diese Attribute ermöglichen
dem Steuerschema, eine Konfidenz zwischen Null und Eins zu entwickeln,
dass die in dem Bildbereich identifizierten Merkmale einem vorbestimmten
klassifizierten Objekt entsprechen. Es kann eine Schwellenwertkonfidenz
festgelegt werden, die die Konfidenz definiert, die erforderlich
ist, um einen bestimmten Bildbereich als ein Objekt angebend zu
identifizieren.The classification module 116 analyzes each image area and assigns a tag (L) to each identified object and associated image areas based on a pre-trained classifier. The classification module 116 takes the extracted features and the previously identified objects (a priori) and the associated data comprising a position, an image area, and a classification flag, which for the current time step in a prediction process module 117 to be updated as an input, and passes it to a classifier to determine if an image area is surrounding an object. The classification determines the tag of each identified object according to any number of classifiers. Exemplary classifications include e.g. A moving object, such as a moving vehicle, a slow moving object, such as a pedestrian, and a stationary object, such as a traffic sign. The classification module 116 uses statistical classifier methods with training classification for correspondence with features or attributes in the image area using a significant number of object and non-object image samples. The correspondence of learned attributes with features in the image area may be described by Ma however, for the most part, it is programmed offline and can be developed experimentally, empirically, predictively, through modeling, or other techniques suitable for accurately training distinguishing attributes. These attributes allow the control scheme to develop a confidence between zero and one that the features identified in the image area correspond to a predetermined classified object. A threshold confidence can be set that defines the confidence required to identify a particular image area as an object.
Eines
mehrerer Verfahren kann verwendet werden, um trainierte Klassifizierer
auf die von den Bildbereichen extrahierten Merkmale anzuwenden.
Ein erstes Verfahren analysiert die Merkmale unter Verwendung eines
Trainingssatzes von Bildern. Eine Information von den trainierten
Klassifizierern wird verwendet, um das Merkmal als ein bestimmtes
Objekt angebend zu klassifizieren oder zu gewichten, wobei die bestimmte
Klassifizierung von der Stärke
von Vergleichen mit den trainierten Daten abhängt. Eine Klassifizierung des
Merkmals, wenn das Merkmal das einzige Merkmal in dem Bildbereich
ist, kann direkt auf den Bildbereich angewandt werden. Eine Klassifizierung
eines Bildbereichs mit mehreren identifizierten Merkmalen kann viele
Formen annehmen, die den Bildbereich, der durch das umfasste Merkmal
definiert wird, das den Bildbereich, der einem bestimmten Objekt
entspricht, am stärksten
angibt, oder den Bildbereich, der durch eine gewichtete Summe aller
darin umfassten Merkmale definiert ist, umfassen.One
Several methods can be used to train classifiers
apply to the features extracted from the image areas.
A first method analyzes the features using a
Training set of pictures. An information from the trained
Classifiers are used to identify the characteristic as a particular
Specifying or weighting object specifying the particular
Classification of the strength
depends on comparisons with the trained data. A classification of the
Feature, if the feature is the only feature in the image area
is, can be applied directly to the image area. A classification
An image area with multiple identified features can have many
Take shapes that represent the image area covered by the feature
defines the image area of a given object
corresponds, the strongest
indicates, or the image area, by a weighted sum of all
Characteristics defined therein include.
Ein
zusätzliches
Verfahren, das zum Anwenden trainierter Klassifizierer auf die von
den Bildbereichen extrahierten Merkmale zum Identifizieren und Klassifizieren
eines Objekts in den Bildbereichen verwendet wird, umfasst das Verwenden
einer Stützvektormaschine
(SVM von support vector machine) und eines neuronalen Netzes. Wie
ein Fachmann erkennen wird, sind künstliche neuronale Netze oder
neuronale Netze Computersysteme, die für eine komplexe und adaptierbare
Entscheidungsfindung erzeugt werden. Während herkömmliche Rechenmittel auf einer
sequentiellen Verarbeitung von Daten durch einen Algorithmus, der
vorhersagbare Ergebnisse liefert, basieren, ist bekannt, dass neuronale
Netze Daten in aufeinander folgenden Schichten und parallelen Pfaden
innerhalb jeder Schicht durch wechselnde Knoten verarbeiten. Das
neuronale Netz wird anfänglich
mit Daten trainiert, die einen bekannten Satz von Ergebnissen liefern.
Als Ergebnis dieses Trainings werden Gewichte zwischen den Schichten
und unter den Knoten angewandt, wobei sich das Netz automatisch
an die Trainingsdaten anpasst und die Gewichte einstellt, um ein
näheres
Modell für
die Daten zu erstellen. Bei einer späteren Verwendung kann das neuronale
Netz die Trainingsanpassungen beibehalten und sie über die
Lebensdauer des Netzes anwenden, oder das Netz kann verschiedene
bekannte Verfahren zum Lernen von laufenden Datenmustern einsetzen.
Durch Trainieren und Abstimmen eines neuronalen Netzes können Eingangsdaten,
die mehrere identifizierte Merkmale umfassen, analysiert werden,
um Objekte in den Bildbereichen zu identifizieren und zu klassifizieren.One
additional
Method of applying trained classifiers to those of
features extracted from the image areas for identification and classification
of an object in the image areas includes using
a support vector machine
(SVM of support vector machine) and a neural network. As
A person skilled in the art will recognize artificial neural networks or
neural networks computer systems designed for a complex and adaptable
Decision making are generated. While conventional computing means on a
sequential processing of data by an algorithm that
provides predictable results, it is known that neural
Networks data in consecutive layers and parallel paths
process within each layer by changing nodes. The
neural network is initial
trains with data that provides a known set of results.
As a result of this training will be weights between the layers
and applied under the nodes, with the network automatically
adapts to the training data and adjusts the weights to a
closer
Model for
to create the data. For later use, the neural
Retain the training adjustments and use them over the
To apply the life of the network, or the network can be different
Use known methods for learning current data patterns.
By training and tuning a neural network, input data,
which include several identified characteristics, be analyzed,
to identify and classify objects in the image areas.
Nach
dem Ermitteln des Kennzeichens in dem Klassifizierungsmodul 116 kann
ein Objekt in einem Eingangsbild entsprechend P, I und L gemäß den oben
beschriebenen Verfahren beschrieben werden. Ein Datenzuordnungsmodul 118 analysiert
die momentane Objektliste mit P, I und L, wobei die vorherigen Objekte
(a priori) und die zugeordneten Daten, die eine Position, Bildbereichsmerkmale
und ein Klassifizierungskennzeichen umfassen, für den momentanen Zeitschritt
in dem Vorhersageprozessmodul 117 unter Verwendung eines Objektdynamikmodells
aktualisiert werden. Das Datenzuordnungsmodul 118 bringt
die momentanen identifizierten Objekte mit den vorherigen identifizierten
Objekten in Übereinstimmung
und gibt eine Liste von in Übereinstimmung
gebrachten Objektmessungspaaren aus. Die vorherigen identifizierten
Objekte werden unter Verwendung des Vorhersageprozessmoduls 117 wie
hierin nachstehend beschrieben mit dem momentanen Zeitschritt aktualisiert.After determining the tag in the classification module 116 For example, an object in an input image corresponding to P, I and L may be described according to the methods described above. A data mapping module 118 analyzes the current object list with P, I and L, the previous objects (a priori) and the associated data comprising a position, picture area features and a classification flag for the current time step in the prediction process module 117 be updated using an object dynamics model. The data mapping module 118 matches the current identified objects with the previous identified objects and outputs a list of matched object measurement pairs. The previous identified objects are using the prediction process module 117 as described below with the current time step.
Durch
Vergleichen eines Objekts (P, I und L) in einem zweiten Verfolgungszyklus,
der ein zweites Eingangsbild analysiert, mit einem anderen Objekt
(P, I und L) in einem ersten Verfolgungszyklus, der ein erstes Eingangsbild
analysiert, kann ermittelt werden, ob sich die beiden Objekte wahrscheinlich
auf das gleiche verfolgte Objekt in der Nähe des Fahrzeugs beziehen.
Bei einem beispielhaften Verfahren kann die momentane Objektliste
mit der vorhergesagten Objektliste unter Verwendung eines Unterschiedlichkeitsmaßes zwischen den
Deskriptoren eines Objekts P, I und L in Übereinstimmung gebracht werden.
Die Unterschiedlichkeit D(ôβ, xα)
zwischen den beiden Objekten α und β ist wie
folgt definiert: D(ôβ,
xα)
= wPd(P ^β, Pα) +
wId(Îβ,
Iα)
+ wLd(L ^β, Lα) [5]wobei d(P ^β,
Pα)
die Positionsdistanz zwischen den Objekten α und β, die verglichen werden, ist,
d(Îβ,
Iα)
die Unterschiedlichkeit zwischen den beiden Objekten ist, berechnet
als Distanz zwischen zwei entsprechenden Merkmalsdeskriptorvektoren,
undeinen binären Faktor beschreibt, der
die Kennzeichen der beiden Objekte vergleicht. wP,
wI und wL sind Gewichte,
die experimentell ermittelt und kalibriert werden. Durch Vergleichen
der Position der verfolgten Objekte, der Bildmerkmale in der Nähe der verfolgten
Objekte und der Kennzeichen der verfolgten Objekte kann geschätzt werden,
ob die beiden Objekte das gleiche verfolgte Objekt in der Nähe des Fahrzeugs
darstellen.By comparing one object (P, I and L) in a second tracking cycle analyzing a second input image with another object (P, I and L) in a first tracking cycle analyzing a first input image, it can be determined whether the two objects probably relate to the same tracked object near the vehicle. In an example method, the current object list may be matched with the predicted object list using a measure of difference between the descriptors of an object P, I, and L. The difference D (ô β , x α ) between the two objects α and β is defined as follows: Do β , x α ) = w P d (P ^ β , P α ) + w I d (I β , I α ) + w L d (L ^ β , L α ) [5] where d (P ^ β, P α) the position distance between the objects α and β, which are compared is, (β, i α) d is the difference between the two objects, calculated as the distance between two corresponding Merkmalsdeskriptorvektoren, and describes a binary factor that compares the characteristics of the two objects. w P , w I and w L are weights that are experimentally determined and calibrated. By comparing the position of the tracked objects, the image features in the vicinity of the tracked objects, and the characteristics of the tracked objects, it can be estimated whether the two objects represent the same tracked object in the vicinity of the vehicle.
Im
Betrieb wird ein α-tes
vorhergesagtes Objekt von der vorhergesagten Objektliste (a priori)
mit xα = (Iα,
Pα,
Lα)
bezeichnet, wobei Iα ein Merkmalsdeskriptor
des entsprechenden Bildstücks
ist, Pα die
Position des Objekts ist und Lα das Klassifizierungskennzeichen
ist (z. B. Fahrzeug, Fußgänger, Motorrad,
Fahrrad, Reh). Ein β-tes
detektiertes momentanes Objekt wird mit ôβ =
(Îβ, P ^β, L ^β)
bezeichnet. Wenn die Unterschiedlichkeit D(ôβ, xα)
kleiner als ein Schwellenwert ist, wird das beobachtete Objekt ôβ dem
vorhergesagten Objekt xα zugeordnet.In operation, an α-th predicted object from the predicted object list (a priori) with x α = (I α, P α, L α), where I is α a feature descriptor of the corresponding image patch, P α is the position of the object and L α is the classification mark (eg vehicle, pedestrian, motorcycle, bicycle, deer). A β-th detected instantaneous object (β i, p ^ β, L ^ β) with β = ô designated. If the difference D (ô β , x α ) is less than a threshold, the observed object ô β is assigned to the predicted object x α .
Ein
Objektverfolgermodul 119 überwacht den Ausgang des Datenzuordnungsmoduls 118,
um aktualisierte Positionen und Geschwindigkeitsattribute der Objekte
unter Verwendung einer Bank von Kalman-Filtern zu ermitteln. 7 zeigt
schematisch das Objektverfolgermodul 119, das eine beispielhafte
Bank von Kalman-Filtern 206 zeigt, die ausgestaltet sind,
um die Position und Geschwindigkeit einer Gruppe von Objekten zu
schätzen,
gemäß der vorliegenden
Offenbarung. Es werden verschiedene Filter für Objekte verwendet, die verschiedenen
dynamischen Eigenschaften zugeordnet sind, wie beispielsweise Objekte,
die mit konstanter Geschwindigkeit fahren, Objekte mit Manövern mit
starker Längsrichtung,
Objekte mit Manövern
mit starker Querrichtung und stationäre Objekte. Es wird ein Markov-Entscheidungsprozess-Modell
(MDP-Modell von Markov decision process model) 208 verwendet,
um das Kalman-Filter mit dem größten gewichteten
Wert auszuwählen,
das für
eine Entsprechung mit genauen Positionen und einer Geschwindigkeitsschätzung für das Objekt
verwendet wird. Ein Auswählen
eines Kalman-Filters unter Verwendung des Markov-Entscheidungsprozesses
reduziert die Verfolgungslatenzzeit, was eine größere Kollisionsvorbereitungssystemfunktionalität ermöglicht.
Das ausgewählte
Kalman-Filter wird durch das Aktualisierungsobjektmodul 210 zum
Aktualisieren der Objektdaten, die Position und Geschwindigkeit
umfassen, verwendet.An object tracker module 119 monitors the output of the data mapping module 118 to determine updated positions and velocity attributes of the objects using a bank of Kalman filters. 7 schematically shows the tracker module 119 , which is an exemplary bank of Kalman filters 206 1, which are configured to estimate the position and velocity of a group of objects, according to the present disclosure. Different filters are used for objects associated with different dynamic properties, such as objects traveling at constant speed, objects with high-length maneuvers, objects with high-transverse maneuvers, and stationary objects. It becomes a Markov decision process model (MDP model by Markov decision process model) 208 is used to select the Kalman filter with the largest weighted value used for correspondence with exact positions and a speed estimate for the object. Selecting a Kalman filter using the Markov decision process reduces tracking latency, allowing greater collision preparation system functionality. The selected Kalman filter is passed through the update object module 210 to update the object data, which includes position and velocity.
Hierin
ist ein beispielhafter Markov-Entscheidungsprozess in Bezug auf 7 und
das Objektverfolgermodul 119 beschrieben. Der Markov-Entscheidungsprozess 208 wird
verwendet, um ein Kalman-Filter aus der Bank von Kalman-Filtern 206 auszuwählen, um
eine Position und Geschwindigkeit eines Objekts zu aktualisieren.
Unter Verwendung eines ausgewählten
i-ten Kaiman-Filters einer Bank von Kalman-Filtern 206 mit einer
beliebigen Anzahl n wird zu einem momentanen Zeitschritt tk ein Objektzustand in
Bezug auf einen Merkmalsdeskriptor ,
eine Position und Geschwindigkeit des Objekts und
ein Klassifizierungskennzeichen ermittelt.
Das ausgewählte
i-te Kalman-Filter zeigte eine größte Wahrscheinlichkeit aller
i-ten Kalman-Filter, den Objektzustand genau
zu ermitteln. Eine Markov-Übergangsmatrix
T kann verwendet werden, um eine Wahrscheinlichkeit zu beschreiben,
dass ein anderes Kalman-Filter
den Objektzustand zu
einem zukünftigen
Zeitschritt tk+1 genauer ermittelt. Daher
stellt Tij eine Wahrscheinlichkeit dar,
dass sich der Objektzustand von
einem i-ten Kalman-Filter zu einem j-ten Kalman-Filter zu einem Zeitschritt tk+1 ändert.Here is an exemplary Markov decision process with respect to 7 and the tracker module 119 described. The Markov Decision Process 208 is used to filter out a Kalman filter from the bank of Kalman filters 206 to update a position and speed of an object. Using a selected i th Kalman filter of a bank of Kalman filters 206 with an arbitrary number n, an object state becomes at a current time step t k with respect to a feature descriptor , a position and speed of the object and a classification mark determined. The selected i-th Kalman filter showed a greatest probability of all i-th Kalman filters, the object state to determine exactly. A Markov transition matrix T can be used to describe a probability that another Kalman filter will be the object state to a future time step t k + 1 determined more accurately. Therefore, T ij represents a probability that the object state from an i-th Kalman filter to a j-th Kalman filter at a time step t k + 1 changes.
Die
Wahrscheinlichkeiten werden durch einen Datenauswertungsprozess
(data mining process), der an einer öffentlichen Straße gesammelte
Verkehrsdaten verwendet, oder einfach durch heuristische Regeln vorbestimmt.
Mit über
eine im Wesentlichen lange Sequenz aufgezeichneten Fahrzeugdaten
mehrerer Fahrzeuge wird jedes Fahrzeug zu
einem Zeitpunkt tk mit einem bestimmten
Modell auf der Grundlage von Bodenwirklichkeitsdaten gekennzeichnet
(gesammelt durch ein anderes Messverfahren, z. B. GPS-Daten). Dann kann
die Übergangswahrscheinlichkeit
Tij durch die folgende Beziehung ermittelt
werden: wobei die
Häufigkeit
bezeichnet, dass ein Fahrzeugzustand zu einem Zeitschritt tk+1 zu einem Modell j gehört, und die
Häufigkeit
bezeichnet, dass ein Fahrzeugzustand zu Zeitschritten tk bzw.
tk+1 zu einem Modell i bzw. einem Modell
j gehört.The probabilities are predetermined by a data mining process that uses traffic data collected on a public road, or simply by heuristic rules. With vehicle data of multiple vehicles recorded over a substantially long sequence, each vehicle becomes at a time t k with a particular model based on ground reality data (collected by another measurement technique, eg GPS data). Then, the transition probability T ij can be determined by the following relationship: in which the frequency denotes that a vehicle state belongs to a model j at a time step t k + 1 , and the frequency denotes that a vehicle state at time steps t k or t k + 1 belongs to a model i or a model j.
Hierin
ist in Bezug auf 7 und das Objektverfolgermodul 119 ein
beispielhafter Markov-Entscheidungsprozess beschrieben. Der Markov-Entscheidungsprozess 208 wird
verwendet, um ein Kalman-Filter von der Bank von Kalman-Filtern 206 auszuwählen, um
eine Position und Geschwindigkeit eines Objekts zu aktualisieren.
Zu einem momentanen Zeitschritt tk wird
ein Objektzustand in
Bezug auf einen Merkmalsdeskriptor ,
eine Position und Geschwindigkeit des Objekts und
ein Klassifizierungskennzeichen unter
Verwendung eines ausgewählten
i-ten Kaiman-Filters einer Bank von Kalman-Filtern 206 mit
einer beliebi gen Anzahl n ermittelt. Das ausgewählte i-te Kalman-Filter zeigte
eine größte Wahrscheinlichkeit
aller i-ten Kalman-Filter, um den Objektzustand xk genau
zu ermitteln.Here's in terms of 7 and the tracker module 119 an exemplary Markov decision process described. The Markov Decision Process 208 is used to filter a Kalman filter from the bank of Kalman filters 206 to update a position and speed of an object. At an instantaneous time step t k becomes an object state in terms of a feature descriptor gate , a position and speed of the object and a classification mark using a selected i th Kalman filter of a bank of Kalman filters 206 determined with any number n. The selected i-th Kalman filter showed a largest probability of all ith Kalman filters to accurately determine the object state x k .
Jedes
Kalman-Filter ist ausgestaltet, um einen Objektzustand zu
einem momentanen Zeitschritt k in Bezug auf einen Merkmalsdeskriptor ,
eine Position und Geschwindigkeit des Objekts und
ein Klassifizierungskennzeichen auf
der Grundlage des Ausgangs des Datenzuordnungsmoduls 118 und
der Fahrzeugkinematikdaten, die Fahrzeuggeschwindigkeit und Gierrate
von den Fahrzeugsensoren 204 umfassen, zu aktualisieren.
Ferner ist jedes Kalman-Filter ausgestaltet, um eine Positionsmessung auf
der Grundlage von Messungen von den Entfernungserfassungseinrichtungen 14 und 16 und
der Kamera 11 zu aktualisieren. Jedes i-te Kalman-Filter
der unabhängigen
Bank von n Kalman-Filtern 206 kann dargestellt werden mit: wobei
Ai und Bi Systemmatrizen
des i-ten Kaiman-Filters sind, einen
Fahrzeugbedienereingang und Fahrzeugkinematikdaten, die z. B. eine
Brems- und eine Gaspedalstellung, einen Lenkradwinkel und eine Fahrzeuggierrate
umfassen, zu einem Zeitschritt tk darstellt, νi einen
Modellerstellungsfehler für
das i-te Modell bezeichnet, verteilt als Gauss-Wahrscheinlichkeitsverteilungsfunktion
(WVF), d. h. νi = N(O, Qi), wobei
Qi eine Kovarianzmatrix ist, Hi die
Messmatrix für
ein i-tes Kalman-Filter ist und ωi den Messfehler für das i-te Kalman-Filter bezeichnet,
verteilt als Gauss-WVF,
d. h. ωi = N(O, Ri), wobei
Ri die Kovarianzmatrix des Messfehlers des i-ten
Kalman-Filters ist.Each Kalman filter is designed to be an object state at a current time step k with respect to a feature descriptor , a position and speed of the object and a classification mark based on the output of the data mapping module 118 and the vehicle kinematics data, vehicle speed, and yaw rate from the vehicle sensors 204 include, update. Further, each Kalman filter is configured to take a position measurement based on measurements from the rangefinders 14 and 16 and the camera 11 to update. Every i-th Kalman filter of the independent bank of n Kalman filters 206 can be displayed with: where A i and B i are system matrices of the i th Kalman filter, a vehicle operator input and vehicle kinematic data, e.g. At a time step t k , ν i denotes a model creation error for the ith model, distributed as a Gaussian Probability Distribution Function (WVF), ie, ν i = N (eg, a brake and an accelerator pedal position, a steering wheel angle and a vehicle yaw rate . O, Q i ), where Q i is a covariance matrix, H i is the measurement matrix for an ith Kalman filter, and ω i denotes the measurement error for the i-th Kalman filter, distributed as Gauss-WVF, ie, ω i = N (O, R i ), where R i is the covariance matrix of the measurement error of the ith Kalman filter.
Der
Markov-Entscheidungsprozess 208 wählt ein Kalman-Filter aus,
um den Objektzustand und
die Positionsmessung zu
aktualisieren, die im Vergleich zu den Gewichten aller Kalman-Filter
einem größten Gewicht
wi eines i-ten Kalman-Filters zugeordnet
ist. Das Gewicht wi beschreibt eine Wahrscheinlichkeit,
dass ein bestimmtes Kalman-Filter i den Objektzustand x genau ermittelt.
Im Betrieb initiiert der Markov-Entscheidungsprozess 208 jedes
Kalman-Filter für
die Bank von Kalman-Filtern 206 mit gemischten Variablen,
die das Gewicht w i / 0, den Mittelwert x ^ i / 0 und die Kovarianz P i / 0 umfassen.
Die Kalman-Filter werden nach dem Empfangen einer neuen Messung
zu einem Zeitpunkt k aktualisiert, wobei vorherige Schätzwerte
verwendet werden, die zu einem vorherigen Zeitschritt tk-1 ermittelt
werden und ein Gewicht einen
Mittelwert und
eine Kovarianzmatrix für das i-te
Kalman-Filter umfassen.The Markov Decision Process 208 selects a Kalman filter to set the object state and the position measurement which is associated with a largest weight w i of an i-th Kalman filter compared to the weights of all Kalman filters. The weight w i describes a probability that a specific Kalman filter i exactly determines the object state x. In operation, the Markov decision-making process initiates 208 every Kalman filter for the bank of Kalman filters 206 with mixed variables comprising the weight wi / 0, the mean x ^ i / 0 and the covariance P i / 0. The Kalman filters are updated after receiving a new measurement at a time k, using previous estimates obtained at a previous time step t k-1 and a weight an average and a covariance matrix for the ith Kalman filter.
Unter
Verwendung einer Übergangswahrscheinlichkeitsmatrix
T, die wie hierin oben beschrieben ermittelt wird und auf der Grundlage
der verglichenen Kalman-Filter ausgewählt wird, werden gemischte
Variablen iterativ ermittelt. Die gemischten Variablen werden in
die Bank von Kalman-Filtern 206 eingegeben.
Für jedes
Kalman-Filter i kann ein gemischter gewichteter Wert, der einen
Zeitschritt k beschreibt, unter Verwendung der folgenden Beziehung
ermittelt werden: wobei Tij die
Wahrscheinlichkeit darstellt, dass ein Objekt von einer bestimmten
vorhergesagten Klassifizierung i, z. B. einer Klassifizierung eines
stationären
Objekts, in eine andere bestimmte Klassifizierung j, z. B. ein Fahren
mit konstanter Geschwindigkeit, wechselt.Using a transition probability matrix T determined as described hereinabove and selected based on the compared Kalman filters, mixed variables are iteratively determined. The mixed variables will be in the bank of Kalman filters 206 entered. For each Kalman filter i, a mixed weighted value describing a time step k can be obtained using the following relationship: where T ij represents the probability that an object will depend on a particular predicted classification i, e.g. B. a classification of a stationary object, in another specific classification j, z. B. driving at a constant speed, changes.
Für jedes
Kalman-Filter kann unter Verwendung der folgenden Beziehung ein
gemischter Mittelwert ermittelt werden.For each
Kalman filter can use the following relationship
mixed average.
Für jedes
Kalman-Filter wird unter Verwendung einer Rückkopplung, die einen geschätzten Modellbedingungszustand
und eine geschätzte
Fehlerkovarianz umfasst, die unter Verwendung der hierin unten beschriebenen
Beziehungen [19] und [20] bereitgestellt werden, iterativ ein gemischter
Kovarianzwert ermittelt. Der gemischte Kovarianzwert kann unter
Verwendung der folgenden Beziehung ermittelt werden.For each
Kalman filter is using a feedback that has an estimated model condition
and an estimated
Includes error covariance using the methods described hereinbelow
Relationships [19] and [20] are provided, iteratively a mixed one
Covariance value determined. The mixed covariance value can be below
Using the following relationship can be determined.
Nach
dem Ermitteln der gemischten Variablen ermittelt die Bank von Kalman-Filtern
die folgenden Beziehungen: wobei
Ai und Bi Systemmatrizen
des i-ten Kalman-Filters sind; einen
Fahrzeugbedienereingang und Fahrzeugkinematikdaten, die z. B. eine
Brems- und eine Gaspedalstellung, einen Lenkradwinkel und eine Fahrzeuggierrate
umfassen, zu einem Zeitindex tk darstellt;
Qi eine Kovarianzmatrix bezeichnet, die
einen Modellvorhersagefehler für
das i-te Kalman-Filter
darstellt; Hi die Messmatrix für das i-te
Kalman-Filter ist; I eine Identitätsmatrix darstellt; eine
Kalman-Verstärkung
für das
i-te Kalman-Filter zu einem Zeitschritt tk darstellt; und den
geschätzten
Mittelwert und die entsprechende Kovarianzmatrix für das Objekt
zum Zeitschritt tk bezeichnen; und Ri eine Kovarianzmatrix bezeichnet, die einen
Messfehler für
das i-te Kalman-Filter darstellt.After determining the mixed variable, the bank of Kalman filters determines the following relationships: where A i and B i are system matrices of the i-th Kalman filter; a vehicle operator input and vehicle kinematic data, e.g. B. a brake and an accelerator pedal position, a steering wheel angle and a Fahrzeuggierrate include, represents a time index t k ; Q i denotes a covariance matrix representing a model prediction error for the ith Kalman filter; H i is the measurement matrix for the ith Kalman filter; I represents an identity matrix; represents a Kalman gain for the i-th Kalman filter at a time step t k ; and denote the estimated mean and covariance matrix for the object at time step t k ; and R i denotes a covariance matrix representing a measurement error for the ith Kalman filter.
Es
wird eine Wahrscheinlichkeitsanalyse verwendet, um eine Wahrscheinlichkeit
zu ermitteln, dass ein i-tes Kalman-Filter mit momentanen Mess beobachtungen übereinstimmt.
Die Wahrscheinlichkeitsanalyse wird unter Verwendung der folgenden
Beziehung ausgeführt: wobei γi ein
Normalisierungskoeffizient ist, der verwendet wird, um die WVF auf
1 zu integrieren, und den geschätzten Mittelwert
und die entsprechende Kovarianzmatrix bezeichnen, die hierin oben
unter Verwendung der Beziehungen [12] und [13] ermittelt werden,
und A probability analysis is used to determine a probability that an i-th Kalman filter matches current measurement observations. The probability analysis is performed using the following relationship: where γ i is a normalization coefficient used to integrate the WVF to 1, and denote the estimated mean and covariance matrix determined hereinabove using relationships [12] and [13], and
Nach
dem Ausführen
der Wahrscheinlichkeitsanalyse wird ein gewichteter Wert für die vorhergesagte Klassifizierung
gemäß der folgenden
Beziehung aktualisiert. wobei und
Li in den Beziehungen [9] bzw. [17] berechnet
werden.After performing the probability analysis, a weighted value for the predicted classification is updated according to the following relationship. in which and L i in relations [9] and [17], respectively.
Nach
dem Aktualisieren des gewichteten Werts werden der geschätzte Modellbedingungszustand
und die geschätzte
Fehlerkovarianz unter Verwendung der folgenden Beziehungen ermittelt: wobei After updating the weighted value, the estimated model condition state and the estimated error covariance are determined using the following relationships: in which
Die
Beziehungen [19] und [20] sind der Schätzungsausgang einer Objektposition
und -geschwindigkeit des Objektverfolgermoduls 119. Der
Merkmalsdeskriptor und das Klassifizierungskennzeichnen, die den
Objekten zugeordnet werden, bleiben von dem Datenzuordnungsmodul 118 unverändert. Die
Ausgänge
sind Eingänge
in eine Objektverfolgungsdatenbank 113, die ausgestaltet
ist, um eine Objektinformation zu speichern, die Objektverfolgungsdateien
und entsprechende Bildbereiche und Klassifizierungskennzeichen umfasst.
Die Objektinformation wird für
einen iterativen Vergleich mit neuen Daten und für eine Vorhersage einer relativen Bewegung
des Fahrzeugs, die auf ein wahrscheinliches oder unmittelbar bevorstehendes
Kollisionsereignis hindeutet, gespeichert. Ferner können ein
interessierendes Gebiet oder interessierende Gebiete, die zuvor ausgewählte Bildbereiche
reflektieren, an das Modul 112 für eine Bewegungsanalyse und
eine Detektion eines hervorstechenden Gebiets, das die Bildbereichsidentifikation
durchführt,
weitergeleitet werden, um eine Kontinuität der Analyse von iterativen
Sichtdaten bereitzustellen. Auf diese Weise werden Entfernungsdaten
oder eine Entfernungsverfolgungsinformation der Bildebene überlagert,
um die Schätzung
zu verbessern.The relationships [19] and [20] are the estimation output of an object position and velocity of the object tracker module 119 , The feature descriptor and the classification tag associated with the objects remain of the data mapping module 118 unchanged. The outputs are inputs to an object tracking database 113 adapted to store object information comprising object tracking files and corresponding image areas and classification marks. The object information is stored for iterative comparison with new data and for predicting relative movement of the vehicle indicative of a likely or imminent collision event. Further, a region of interest or regions of interest reflecting previously selected image regions may be applied to the module 112 for motion analysis and salient area detection that performs image area identification, to provide continuity of analysis of iterative view data. In this way, distance data or distance tracking information is superimposed on the image plane to improve the estimation.
Nachdem
das Datenvereinigungsmodul 110 Verfolgungsschätzwerte
für Objekte
in der Nähe
des Fahrzeugs 10 erzeugt hat, werden die Objektverfolgungen
dann in das Kollisionsgefahrenbewertungsmodul 120 eingegeben,
wobei jede Verfolgung für
eine Wahrscheinlichkeit für
eine Kollision bewertet wird. Jede Objektverfolgung umfasst eine
Mischung aus einer Gauss-Verteilung mitwobei x ^i und
Pi hierin in den Beziehungen [15] bzw. [16]
beschrieben sind und wobei die Zeitindextiefstellung tk ignoriert
wird. Diese Verteilung kann zufällig
abgetastet werden, um einen Satz von Partikeln zu erhalten, der eine
Wahrscheinlichkeitsverteilung des Objekts darstellt.After the data merging module 110 Pursuit estimates for objects near the vehicle 10 then the object traces will become the collision hazard evaluation module 120 where each track is evaluated for a probability of a collision. Each object tracking involves a mixture of a Gaussian distribution where x ^ i and P i are described herein in relationships [15] and [16], respectively, and ignoring the time texture depression t k . This distribution can be sampled randomly to obtain a set of particles representing a probability distribution of the object.
Beispielsweise
stellt für
ein n-tes Objekt ein entsprechender Partikelsatz s = {x (ϛ) / n|ϛ =
1,..., M}, wobei M die Anzahl von Partikeln bezeichnet, die Wahrscheinlichkeitsverteilung
war. Der ϛ-te Partikel x (ϛ) / n =(x (ϛ) / n, y (ϛ) / n, vx (ϛ) / n, vy (ϛ) / n), wobei die Längsverschiebung
des n-ten Objekts ist, y (ϛ) / n die Querverschiebung ist, vx (ϛ) / n und vy (ϛ) / n die
Längs- bzw.
Quergeschwindigkeit des Objekts sind. Wenn sich das Objekt x auf
dem Kollisionspfad befindet und die Zeitdauer bis zur Kollision
(TTC) TTC(ϛ) = –x (ϛ) / n/vx (ϛ) / n kleiner als ein Schwellenwert
ist (z. B. 2 Sekunden), wird der Partikel als Gefahr bezeichnet.
Das Kollisionsgefahrenbewertungsmodul 120 ermittelt die
Wahrscheinlichkeit für
eine Kollision auf der Grundlage eines Prozentsatzes einer Anzahl
von Gefahren pro einem Objekt zugeordneten Gesamtpartikeln. Die
Wahrscheinlichkeit für
eine Kollision wird an das Kollisionsgegenmaßnahmenmodul 150 ausgegeben.For example, for an nth object, a corresponding set of particles s = {x (ς) / n | ς = 1, ..., M}, where M denotes the number of particles that was probability distribution. The ς-th particle x (ς) / n = (x (ς) / n, y (ς) / n, vx (ς) / n, vy (ς) / n), where the longitudinal displacement of the nth object is, y (ς) / n is the lateral displacement, vx (ς) / n and vy (ς) / n are the longitudinal or lateral velocity of the object. If the object x is on the collision path and the time to collision (TTC) TTC (ς) = -x (ς) / n / vx (ς) / n is less than a threshold (eg 2 seconds) , the particle is called a danger. The collision hazard assessment module 120 determines the probability of a collision based on a percentage of a number of hazards per total particles associated with an object. The probability of a collision is sent to the collision countermeasure module 150 output.
Die
Wahrscheinlichkeit für
eine Kollision eines identifizierten Objekts wird durch ein Kollisionsgegenmaßnahmenmodul 150 analysiert.
Diese Wahrscheinlichkeit für
eine Kollision kann beispielsweise hinsichtlich einer Schwellenwertwahrscheinlichkeit
für eine
Kollision bewertet werden, und wenn eine Kollision als wahrscheinlich
ermittelt wird, können
Kollisionsgegenmaßnahmen
initiiert werden. Wenn beispielsweise die Wahrscheinlichkeit für eine Kollision
größer als
ein Schwellenwert ist (z. B. 90%), stellt das Objekt eine unmittelbare Gefahr
für das
Host-Fahrzeug bereit und werden geeignete Kollisionsgegenmaßnahmen
ausgeführt.
Die Kollisionsgegenmaßnahmen
können
eine Sicherheitsgurtstraffung, einen Drosselleerlauf, ein automatisches Bremsen,
eine Airbag-Vorbereitung, ein Anpassen der Kopfstützen, eine
Hupen- und Scheinwerferaktivierung, eine Anpassung der Pedale oder
der Lenksäule,
Anpassungen auf der Grundlage einer geschätzten relativen Aufprallgeschwindigkeit,
Anpassungen der Aufhängungssteuerung
und Anpassungen von Stabilitätssteuersystemen
umfassen. Eine Reaktion auf wahrscheinliche Kollisionsereignisse
kann auf der Grundlage einer erhöhten
Wahrscheinlichkeit skaliert werden. Beispielsweise kann ein leichtes
automatisches Bremsen in dem Fall verwendet werden, dass eine geringe
Schwellenwertwahrscheinlichkeit ermittelt wird, und können drastischere
Maßnahmen
in Ansprechen auf die Ermittlung einer hohen Schwellenwertwahrscheinlichkeit
ergriffen werden.The probability of a collision of an identified object is determined by a collision countermeasure module 150 analyzed. For example, this probability of a collision may be evaluated in terms of a threshold probability for a collision, and if a collision is determined to be likely, collision countermeasures may be initiated. For example, if the probability of a collision is greater than a threshold (eg 90%), the object provides an immediate threat to the host vehicle and appropriate collision countermeasures are performed. The collision countermeasures may include seat belt tightening, throttle aging, automatic braking, air bag preparation, head restraint adjustment, horn and headlight activation, pedals or steering column adjustment, estimated relative impact velocity adjustments, suspension control adjustments, and the like Adjustments to stability control systems include. A response to likely collision events may be scaled based on an increased probability. For example, a slight automatic braking may be used in the event that a low threshold probability is determined, and more drastic measures may be taken in response to the determination of a high threshold probability.
Ferner
sei angemerkt, dass eine verbesserte Genauigkeit des Beurteilens
einer Wahrscheinlichkeit durch ein iteratives Trainieren der Alarmmodelle
erreicht werden kann. Wenn beispielsweise ein Alarm ausgegeben wird,
kann dem Fahrer durch eine Sprachaufforderung und eine Anfrage an
einem Bildschirm oder durch ein beliebiges anderes Eingabeverfahren
eine Überprüfungsoption
bereitgestellt werden, die anfordert, dass der Fahrer bestätigt, ob
der Alarm einer unmittelbar bevorstehenden Kollision angemessen
war. Es ist eine Anzahl von Verfahren in der Technik bekannt, um
korrekte Alarme, falsche Alarme oder verpasste Alarme anzupassen.
Beispielsweise sind Maschinenlernalgorithmen in der Technik bekannt
und können
sie verwendet werden, um adaptiv eine Programmierung zu verwenden,
die Gewichte und Gewichtungen alternativen Berechnungen in Abhängigkeit
von der Natur der Rückmeldung
zuordnet. Ferner kann eine Fuzzy-Logik verwendet werden, um Eingänge in ein
System gemäß skalierbaren
Faktoren auf der Grundlage einer Rückmeldung zu konditionieren.
Auf diese Weise kann eine Genauigkeit des Systems über der
Zeit und basierend auf den bestimmten Fahrgewohnheiten eines Bedieners
verbessert werden.Further
It should be noted that improved accuracy of judgment
a probability by iteratively training the alarm models
can be achieved. For example, if an alarm is issued,
can contact the driver through a voice prompt and a request
a screen or by any other input method
a review option
be provided, which requests that the driver confirms whether
the alarm of imminent collision appropriate
was. There are a number of methods known in the art
correct alarms, false alarms or missed alarms.
For example, machine learning algorithms are known in the art
and can
they are used to adaptively use a programming
the weights and weights are dependent on alternative calculations
from the nature of the feedback
assigns. Furthermore, fuzzy logic can be used to input in
System according to scalable
Condition factors based on feedback.
In this way, the accuracy of the system over the
Time and based on the specific driving habits of an operator
be improved.
8 zeigt
beispielhafte einer entsprechenden Bildebene überlagerte Entfernungsdaten
gemäß der vorliegenden
Offenbarung. Die schraffierten Balken sind die Radarverfolgungen,
die dem Bild einer nach vorn gerichteten Kamera überlagert sind. Wie hierin
oben beschrieben extrahiert das Modul 112 für eine Bewegungsanalyse
und eine Detektion eines hervorstechenden Gebiets die Bildbereiche,
die die Entfernungssensorverfolgungen umgeben. Das Merkmalsextraktionsmodul 114 berechnet
den Merkmalsdeskriptor der Bildbereiche. Das Klassifizierungsmodul 116 nimmt
die extrahierten Merkmale als Eingang her und führt sie einem Klassifizierer
zu, um zu ermitteln, ob ein Bildbereich ein Objekt umgibt. Die Klassifizierung
ermittelt das Kennzeichen jedes Bildbereichs. Beispielsweise werden
in 8 die Kasten A und B als Fahrzeuge identifiziert, während der
nicht bezeichnete Kasten als Objekt am Straßenrand identifiziert wird.
Das Vorhersageprozessmodul 117 verwendet eine Information
des Objekts aus der Vergangenheit (d. h. Position, Bildstück und Kennzeichen
eines vorherigen Zyklus) und sagt die momentanen Werte vorher. Das
Datenzuordnungsmodul 118 verbindet die momentanen Messungen
mit den vorhergehenden Objekten oder ermittelt, ob die Quelle einer Messung
(d. h. Position, Bildstück
und Kennzeichen) von einem spezifischen Objekt stammt. Das Objektverfolgermodul 119 erzeugt
aktualisierte Positionen für
die Objekte für
eine Speicherung in der Objektverfolgungsdatenbank 113. 8th FIG. 12 shows exemplary range data superimposed on a corresponding image plane in accordance with the present disclosure. FIG. The hatched bars are the radar tracks superimposed on the image of a front-facing camera. As described hereinabove, the module extracts 112 for motion analysis and salient area detection, the image areas surrounding the range sensor tracks. The feature extraction module 114 calculates the feature descriptor of the image areas. The classification module 116 takes the extracted features as input and passes them to a classifier to determine if an image area is surrounding an object. The classification determines the indicator of each screen area. For example, in 8th the boxes A and B are identified as vehicles, while the unmarked box is identified as an object on the roadside. The prediction process module 117 uses information of the object from the past (ie position, image piece and flag of a previous cycle) and predicts the current values. The data mapping module 118 connects the current measurements to the previous objects or determines if the source of a measurement (ie, position, image piece, and label) is from a specific object. The object tracker module 119 creates updated locations for the objects for storage in the object tracking database 113 ,
Die
Offenbarung beschrieb bestimmte bevorzugte Ausführungsformen und Abwandlungen
dieser. Weitere Abwandlungen und Änderungen können für Dritte beim Lesen und Verstehen
der Beschreibung ersichtlich werden. Daher soll die Offenbarung
nicht auf die bestimmte(n) Ausführungsform(en)
beschrankt sein, die als die beste Ausführungsart offenbart ist/sind,
die zur Ausführung
dieser Offenbarung in Betracht gezogen wird, sondern die Offenbarung
soll alle Ausführungsformen
umfassen, die in den Schutzumfang der beigefügten Ansprüche fallen.The
Revelation has described certain preferred embodiments and modifications
this. Other modifications and changes may be made for others to read and understand
the description will be apparent. Therefore, the revelation
not to the specific embodiment (s)
which is / are the best embodiment,
to the execution
This revelation is considered, but the revelation
should all embodiments
include, which fall within the scope of the appended claims.