DE102010005290A1 - Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle - Google Patents

Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle Download PDF

Info

Publication number
DE102010005290A1
DE102010005290A1 DE102010005290A DE102010005290A DE102010005290A1 DE 102010005290 A1 DE102010005290 A1 DE 102010005290A1 DE 102010005290 A DE102010005290 A DE 102010005290A DE 102010005290 A DE102010005290 A DE 102010005290A DE 102010005290 A1 DE102010005290 A1 DE 102010005290A1
Authority
DE
Germany
Prior art keywords
vehicle
objects
image
tracked
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010005290A
Other languages
German (de)
Inventor
Shuqing Sterling Heights Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/689,279 external-priority patent/US8812226B2/en
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102010005290A1 publication Critical patent/DE102010005290A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

The method involves monitoring two input images i.e. camera images (104). Two tracked objects e.g. stationary objects, are monitored within the input images in two tracking cycles, respectively. A dissimilarity measure for comparing the tracked objects is determined, where the dissimilarity measure estimates whether the tracked objects represent a single tracked object proximate to a vehicle. The tracked objects are associated based upon the dissimilarity measure. The associated objects are utilized in a collision preparation system to control operation of the vehicle. An independent claim is also included for a system for operating a collision preparation system in a vehicle.

Description

QUERVERWEIS AUF VERWANDTE ANMELDUNGENCROSS-REFERENCE TO RELATED REGISTRATIONS

Diese Anmeldung beansprucht die Priorität der vorläufigen US-Anmeldung Nr. 61/147,175, die am 26. Januar 2009 eingereicht wurde und deren Offenbarungsgehalt hierin durch Bezugnahme vollständig mit eingeschlossen ist.These Application claims priority to US Provisional Application No. 61 / 147,175, filed on January 26, 2009 and its disclosure herein by reference in its entirety is included.

TECHNISCHES GEBIETTECHNICAL AREA

Diese Offenbarung betrifft allgemein Objektverfolgungssysteme und insbesondere Messsysteme, die Objektverfolgungssystemen zugeordnet sind, die mit dem Fahrzeugbetrieb in Beziehung stehen.These Disclosure relates generally to object tracking systems, and more particularly Measuring systems associated with object tracking systems that related to vehicle operation.

HINTERGRUNDBACKGROUND

Die Aussagen in diesem Hintergrund stellen lediglich Hintergrundinformationen bezüglich der vorliegenden Offenbarung bereit und müssen nicht unbedingt Stand der Technik darstellen.The Statements in this background merely provide background information in terms of of the present disclosure and need not necessarily stand represent the technique.

Moderne Fahrzeuge können mit verschiedenen Erfassungseinrichtungen und -systemen ausgestattet sein, die einen Fahrzeugbediener beim Verwalten des Fahrzeugbetriebs und der Navigation unterstützen. Bekannte Systeme für Bodenfahrzeuge können autonome Steuersysteme zum Steuern des Fahrzeugbetriebs umfassen. Beispielsweise verwenden Fahrzeuge Tempomatsysteme, um eine Fahrgeschwindigkeit des Fahrzeugs auf einer von einem Bediener ausgewählten Geschwindigkeit zu halten. Ferner verwenden Fahrzeuge Systeme eines adaptiven Tempomaten zum Steuern der Geschwindigkeit auf der Grundlage von sowohl der von dem Bediener ausgewählten Geschwindigkeit als auch des Vorhandenseins von und der Distanz zu einem anderen Fahrzeug auf einem projizierten Fahrpfad, beispielsweise einem anderen Fahrzeug auf der momentanen Spur des betreffenden Fahrzeugs. Beispielhafte Fahrzeugdetektionssysteme, die durch Systeme eines adaptiven Tempomaten verwendet werden, umfassen Radardetektionseinrichtungen und LIDAR-Detektionseinrichtungen, um die Position und Geschwindigkeit anderer Fahrzeuge auf dem projizierten Fahrpfad des betreffenden Fahrzeugs zu detektieren.modern Vehicles can be equipped with different detection devices and systems, a vehicle operator in managing the vehicle operation and support the navigation. Known systems for Ground vehicles can autonomous control systems for controlling vehicle operation. For example, vehicles use cruise control systems at a driving speed of the vehicle at a speed selected by an operator to keep. Furthermore, vehicles use systems of adaptive cruise control for controlling the speed based on both of selected by the operator Speed as well as the presence of and the distance to another vehicle on a projected driving path, for example another vehicle on the current lane of the vehicle in question Vehicle. Exemplary vehicle detection systems implemented by systems Adaptive cruise control systems include radar detection devices and LIDAR detection devices to the position and speed other vehicles on the projected driving path of the vehicle in question Detect vehicle.

Bekannte Fahrzeugsysteme umfassen autonome und semiautonome Fahrzeugsteuersysteme, die Manövrierfähigkeiten umfassen. Bekannte autonome Fahrzeugsteuersysteme umfassen Fahrpfad- und Geschwindigkeitsregelungsfähigkeiten. Ein beispielhaftes autonomes Steuersystem mit einer Manövrierfähigkeit ist ein autonomes Spurwechselsystem. Bekannte autonome Spurwechselsysteme umfassen fahrzeugeigene Überwachungssysteme, die ausgestaltet sind, um Zielfahrzeuge auf einer momentanen Spur des betreffenden Fahrzeugs und Zielfahrzeuge auf Spuren, die benachbart zu dem betreffenden Fahrzeug sind und sich in der Nähe dieses befinden, zu detektieren. Bekannte Fahrzeugdetektionssysteme umfassen kamerabasierte Systeme, Radardetektionseinrichtungen und LIDAR-Detektionseinrichtungen, um relative Orte und Trajektorien von Fahrzeugen und anderen Objekten zu identifizieren. Das autonome Spurwechselsystem umfasst eine Mensch-Maschine-Schnittstelleneinrichtung, um Befehle von dem Fahrzeugbediener und Aktoren zum automatischen Lenken des betreffenden Fahrzeugs zu empfangen, um die Fahrzeugtrajektorie in Ansprechen auf die Befehle zu ändern. Der Betrieb des autonomen Spurwechselsystems umfasst eine Fahrzeugbedienerbefehlsaktivie rung des autonomen Spurwechselsystems durch die Mensch-Maschine-Schnittstelleneinrichtung, wodurch ein Wunsch, die Fahrspur des betreffenden Fahrzeugs zu wechseln, angegeben wird. Wenn das autonome Spurwechselsystem aktiviert ist, überwacht das autonome Spurwechselsystem benachbarte Fahrspuren und betreibt es das Lenksystem des betreffenden Fahrzeugs, um das betreffende Fahrzeug auf die benachbarte Spur zu manövrieren.Known Vehicle systems include autonomous and semi-autonomous vehicle control systems, the maneuvering skills include. Known autonomous vehicle control systems include and cruise control capabilities. An exemplary autonomous control system with maneuverability is an autonomous lane change system. Known autonomous lane change systems include on-board surveillance systems, which are designed to target vehicles on a current track of the vehicle concerned and target vehicles on lanes adjacent thereto to the vehicle in question and are close to this to detect. Known vehicle detection systems include camera-based systems, radar detection devices and LIDAR detection devices, around relative locations and trajectories of vehicles and other objects to identify. The autonomous lane change system comprises a human-machine interface device, to commands from the vehicle operator and actuators to the automatic Steering of the vehicle in question to receive the vehicle trajectory to change in response to the commands. Operation of the autonomous The lane change system includes a vehicle operator command activation the autonomous lane change system by the man-machine interface device, thereby a desire to change the lane of the vehicle in question, is specified. When the autonomous lane change system is activated, monitors the autonomous lane change system adjacent lanes and operates it is the steering system of the vehicle in question to the relevant Maneuver vehicle to the adjacent lane.

Fahrzeuge umfassen auch eine Anzahl von Sicherheitssystemen, die entworfen sind, um die Auswirkungen einer Kollision zu verringern. Ein genaues Vorhersagen eines unmittelbar bevorstehenden Kollisionsereignisses ist bei der Vorbereitung für ein Kollisionsereignis erwünscht.vehicles also include a number of security systems designed are to reduce the impact of a collision. An exact one Predicting an imminent collision event is preparing for a collision event is desired.

ZUSAMMENFASSUNGSUMMARY

Ein Verfahren zum Steuern eines Fahrzeugbetriebs während eines dynamischen Fahrzeugereignisses umfasst, dass ein erstes Eingangsbild überwacht wird, ein erstes verfolgtes Objekt in dem ersten Eingangsbild in einem ersten Verfolgungszyklus überwacht wird, ein zweites Eingangsbild überwacht wird, ein zweites verfolgtes Objekt in dem zweiten Eingangsbild in einem zweiten Verfolgungszyklus überwacht wird und ein Unterschiedlichkeitsmaß ermittelt wird, dass das erste verfolgte Objekt mit dem zweiten verfolgten Objekt vergleicht. Das Unterschiedlichkeitsmaß schätzt, ob das erste verfolgte Objekt und das zweite verfolgte Objekt ein einzelnes verfolgtes Objekt in der Nähe des Fahrzeugs darstellen. Das Verfahren umfasst ferner, dass das erste verfolgte Objekt und das zweite verfolgte Objekt auf der Grundlage des Unterschiedlichkeitsmaßes zugeordnet werden und die zugeordneten Objekte in einem Kollisionsvorbereitungssystem verwendet werden, um den Betrieb des Fahrzeugs zu steuern.A method of controlling vehicle operation during a dynamic vehicle event comprises monitoring a first input image, monitoring a first tracked object in the first input image in a first tracking cycle, monitoring a second input image, and tracking a second tracked object in the second input image second tracking cycle is monitored and a difference measure is determined that the first tracked object with the second tracked object compares. The difference measure estimates whether the first tracked object and the second tracked object represent a single tracked object in the vicinity of the vehicle. The method further comprises assigning the first tracked object and the second tracked object based on the difference measure and using the associated objects in a collision preparation system to control the operation of the vehicle.

KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Nachstehend werden eine oder mehrere Ausführungsformen beispielhaft mit Bezug auf die begleitenden Zeichnungen beschrieben, wobei:below become one or more embodiments described by way of example with reference to the accompanying drawings, in which:

1 schematisch eine beispielhafte Anordnung eines Fahrzeugs, das mit einer Kamera und einem Radarbilderfassungssystem ausgestattet ist, gemäß der vorliegenden Offenbarung zeigt; 1 schematically illustrates an exemplary arrangement of a vehicle equipped with a camera and a radar image acquisition system according to the present disclosure;

2 schematisch ein beispielhaftes Fahrzeug, das Sensoren verwendet, um eine vereinigte Verfolgung eines Objekts zu erzeugen, gemäß der vorliegenden Offenbarung zeigt; 2 schematically illustrates an exemplary vehicle using sensors to produce a unified tracking of an object, in accordance with the present disclosure;

3 schematisch einen beispielhaften Prozess zum Überwachen von Sensoreingängen und Erzeugen einer Verfolgungsliste gemäß einer Ausführungsform der vorliegenden Offenbarung zeigt; 3 schematically illustrates an exemplary process for monitoring sensor inputs and generating a tracking list according to an embodiment of the present disclosure;

4 schematisch ein beispielhaftes System, durch das Sensoreingänge zu Objektverfolgungen vereinigt werden, die in einem Kollisionsvorbereitungssystem nützlich sind, gemäß der vorliegenden Offenbarung zeigt; 4 schematically illustrates an example system by which sensor inputs are merged into object traces useful in a collision preparation system in accordance with the present disclosure;

5 schematisch ein beispielhaftes Vereinigungsmodul gemäß der vorliegenden Offenbarung zeigt; 5 schematically illustrates an exemplary merge module according to the present disclosure;

6 ein beispielhaftes Steuerschema zum Identifizieren von hervorstechenden Bildbereichen und Bildbereichen, die einer Bewegung zugeordnet sind, gemäß der vorliegenden Offenbarung zeigt; 6 an exemplary control scheme for identifying salient image areas and image areas associated with movement in accordance with the present disclosure;

7 schematisch eine beispielhafte Bank von Kalman-Filtern, die arbeiten, um die Position und Geschwindigkeit einer Gruppe von Objekten zu schätzen, gemäß der vorliegenden Offenbarung zeigt; und 7 schematically illustrates an exemplary bank of Kalman filters that operate to estimate the position and velocity of a group of objects in accordance with the present disclosure; and

8 beispielhafte einer entsprechenden Bildebene überlagerte Entfernungsdaten gemäß der vorliegenden Offenbarung zeigt. 8th 3 shows exemplary distance data superimposed on a corresponding image plane in accordance with the present disclosure.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

Nun auf die Zeichnungen Bezug nehmend, in denen die Darstellungen lediglich dem Zweck des Erläuterns bestimmter beispielhafter Ausführungsformen und nicht dem Zweck des Einschränkens dieser dienen, zeigt 1 eine beispielhafte Anordnung einer Kamera 11, die an der Front eines Fahrzeugs 10 angeordnet ist und auf den Boden vor dem Fahrzeug 10 gerichtet ist, gemäß der Offenbarung. Die Kamera 11 steht mit dem Steuermodul 5 in Kommunikation, das eine Logik enthält, um Eingänge von der Kamera 11 zu verarbeiten. Das Fahrzeug 10 kann auch mit einem Radarbilderfassungssystem 13 ausgestattet sein, das, wenn es vorhanden ist, auch mit dem Steuermodul 5 in Kommunikation steht. Fachleute werden erkennen, dass das Fahrzeug 10 zusätzlich zu der Verwendung der Kamera 11 und des Radarbilderfassungssystems 13, oder alternativ dazu, eine Anzahl von Verfahren zum Identifizieren von Straßenbedingungen verwenden könnte, die eine GPS-Information, eine Information von anderen Fahrzeugen, die mit dem Fahrzeug 10 in Kommunikation stehen, Verlaufsdaten hinsichtlich der bestimmten Fahrbahn, eine biometrische Information, wie beispielsweise Systeme, die den Blickpunkt des Fahrers lesen, ein Radarbilderfassungssystem oder andere ähnliche Systeme umfassen. Die Offenbarung hierin kann auf verschiedene Einrichtungsanordnungen angewandt werden und ist daher nicht dadurch beschränkt.Referring now to the drawings, in which the drawings are merely for the purpose of explaining certain example embodiments and not for the purpose of limiting the same, FIG 1 an exemplary arrangement of a camera 11 standing at the front of a vehicle 10 is arranged and on the ground in front of the vehicle 10 directed, according to the disclosure. The camera 11 stands with the control module 5 in communication that contains logic to inputs from the camera 11 to process. The vehicle 10 can also use a radar imaging system 13 equipped, which, if it is present, also with the control module 5 is in communication. Professionals will recognize that the vehicle 10 in addition to using the camera 11 and the radar imaging system 13 , or alternatively, could use a number of methods of identifying road conditions that include GPS information, information from other vehicles associated with the vehicle 10 are in communication, historical data regarding the particular lane, biometric information, such as systems that read the driver's point of view, a radar imaging system, or other similar systems. The disclosure herein can be applied to various device arrangements and is therefore not limited thereby.

Die Kamera 11 ist eine Einrichtung, die in der Technik weithin bekannt ist und visuelle Eingänge in Form von Licht, Infrarot- oder einer anderen elektromagnetischen Strahlung (EM-Strahlung) in ein Datenformat übersetzen kann, das leicht analysiert werden kann, z. B. ein digitales Pixel-Bild. Bei einer Ausführungsform verwendet die Kamera 11 einen Sensor einer ladungsgekoppelten Einrichtung (CCD-Sensor) zum Erzeugen von Bildern, die ein Sichtfeld angeben. Vorzugsweise ist die Kamera 11 für eine kontinuierliche Bilderzeugung, z. B. 30 erzeugte Bilder pro Sekunde, ausgestaltet. Durch die Kamera 11 erzeugte Bilder können in einem Speicher in der Kamera 11 gespeichert werden oder für eine Speicherung und/oder Analyse an das Steuermodul 5 übertragen werden. Vorzugsweise ist jedes durch die Kamera 11 erzeugte Bild ein zweidimensionales Bild mit bekannten Pixel-Dimensionen, das mehrere identifizierbare Pixel umfasst. Die mehreren identifizierbaren Pixel können unter Verwendung eines Array gespeichert und analysiert werden. Jedes Pixel kann in dem Array als Satz von Bits oder mehrere Sätze von Bits dargestellt werden, wobei die Bits einer Farbe an einer vorbestimmten Palette oder Farbkarte entsprechen. Jedes Pixel kann als Funktion mehrerer Farbintensitätswerte, wie beispielsweise in einem Rot-Grün-Blau-Farbmodell (RGB-Farbmodell) oder einem Cyan-Magenta-Gelb-Key-Farbmodell (CMYK-Farbmodell), ausgedrückt werden. Vorzugsweise umfasst jedes Pixel mehrere Sätze von Bits, wobei jeder Satz von Bits einer Farbintensität und einem Farbintensitätswert entspricht, z. B. entspricht ein erster Satz von Bits einem Wert einer roten Farbintensität, entspricht ein zweiter Satz von Bits einem Wert einer grünen Farbintensität und entspricht ein dritter Satz von Bits einem Wert einer blauen Farbintensität an dem RGB-Farbmodell.The camera 11 is a device that is well known in the art and can translate visual inputs in the form of light, infrared or other electromagnetic radiation (EM radiation) into a data format that can be easily analyzed, e.g. B. a digital pixel image. In one embodiment, the camera uses 11 a charge coupled device (CCD) sensor for generating images indicative of a field of view. Preferably, the camera 11 for continuous imaging, e.g. B. 30 generated images per second, designed. Through the camera 11 generated images can be stored in memory in the camera 11 stored or for storage and / or analysis to the control module 5 be transmitted. Preferably, each is through the camera 11 generated image a two-dimensional Image with known pixel dimensions that includes multiple identifiable pixels. The plurality of identifiable pixels may be stored and analyzed using an array. Each pixel may be represented in the array as a set of bits or multiple sets of bits, the bits corresponding to a color on a predetermined pallet or color chart. Each pixel can be expressed as a function of multiple color intensity values, such as in a red-green-blue (RGB) color model or a cyan-magenta-yellow-key (CMYK) color model. Preferably, each pixel comprises a plurality of sets of bits, each set of bits corresponding to a color intensity and a color intensity value, e.g. For example, a first set of bits corresponds to a value of a red color intensity, a second set of bits corresponds to a value of a green color intensity, and a third set of bits corresponds to a value of a blue color intensity on the RGB color model.

Die Radarbilderfassungseinrichtung 13 ist eine in der Technik weithin bekannte Einrichtung, die einen Sender, der Funkwellen oder eine andere EM-Strahlung aussenden kann, eine Empfängereinrichtung, die die ausgesendeten Wellen erfassen kann, die von Objekten vor dem Sender zu dem Empfänger zurückreflektiert werden, und ein Mittel zum Übertragen der erfassten Wellen in ein Datenformat umfasst, das analysefähig ist und beispielsweise die Entfernung und den Winkel von den Objekten, von denen die Wellen reflektiert wurden, angibt. Alternativ kann die Radarbilderfassungseinrichtung 13 durch ein Light Detection And Ranging-System (LIDAR-System), das ausgestaltet ist, um optische Energie zu senden und zu empfangen, ersetzt oder ergänzt werden. Die empfangene optische Energie kann verwendet werden, um die geometrischen Abmessungen eines Objekts und/oder die geometrische Nähe zu dem Fahrzeug 10 zu ermitteln. Es sei angemerkt, dass die Radarbilderfassungseinrichtung 13 optional und nicht notwendig ist, um viele der hierin offenbarten Verfahren auszuführen, wobei die Verarbeitung von visuellen Bildern eine Detektion eines freien Pfads ausführen kann. Der Begriff ”freier Pfad” soll, wie er hierin verwendet wird, für einen Fachmann eine gewöhnliche und übliche Bedeutung darstellen (und ist nicht auf eine spezielle oder spezifisch angepasste Bedeutung beschränkt) und bezieht sich ohne Einschränkung auf einen Pfad, der frei von Objekten ist, die einen Schwellenwert übersteigen, z. B. einen Pfad, der frei von Objekten ist, die in der oben erwähnten zweiten und dritten Kategorie klassifiziert sind.The radar imaging device 13 is a device well-known in the art which can emit a transmitter capable of transmitting radio waves or other EM radiation, receiver means capable of detecting the transmitted waves reflected back from objects in front of the transmitter to the receiver, and means for Transmitting the detected waves into a data format that is capable of analysis and, for example, indicates the distance and angle of the objects from which the waves were reflected. Alternatively, the radar imaging device 13 by a Light Detection And Ranging (LIDAR) system designed to transmit and receive optical energy, replaced or supplemented. The received optical energy may be used to determine the geometric dimensions of an object and / or the geometric proximity to the vehicle 10 to investigate. It should be noted that the radar image detection device 13 is optional and unnecessary to perform many of the methods disclosed herein, wherein the processing of visual images may perform a clear path detection. As used herein, the term "free path" is intended to represent a common and ordinary meaning to one skilled in the art (and is not limited to any specific or specifically adapted meaning) and refers, without limitation, to a path that is free of objects exceeding a threshold, e.g. A path that is free of objects classified in the second and third categories mentioned above.

Das Steuermodul 5 ist in 1 gezeigt und hierin als diskretes Element beschrieben. Diese Darstellung dient der Vereinfachung der Beschreibung und es sei angemerkt, dass das Steuermodul 5 jede geeignete Form an nehmen kann, die verschiedene Kombinationen eines/r oder mehrerer anwendungsspezifischen/r integrierten/r Schaltkreise(s) (ASIC), elektronischen/r Schaltkreise(s), zentralen/r Verarbeitungseinheit(en) (vorzugsweise Mikroprozessor(en)) und zugeordneten/r Speicher(s) (Nur-Lese-Speicher, programmierbarer Nur-Lese-Speicher, Direktzugriffsspeicher, Festplatte etc.), die ein oder mehrere Software- oder Firmwareprogramme ausführen, Schaltkreise(s) einer kombinatorischen Logik, Eingabe/Ausgabe-Schaltkreise(s) und -Einrichtungen, geeigneten Signalkonditionierungs- und -pufferschaltung und andere geeignete Komponenten umfasst, um die beschriebene Funktionalität bereitzustellen. Das Steuermodul weist einen Satz von Steueralgorithmen auf, die residente Software-Programmanweisungen und Kalibrierungen umfassen, die in dem Speicher gespeichert sind und ausgeführt werden, um die gewünschten Funktionen bereitzustellen. Die Algorithmen werden vorzugsweise während vorab festgelegter Schleifenzyklen ausgeführt. Die Algorithmen werden beispielsweise durch eine zentrale Verarbeitungseinheit ausgeführt und dienen dazu, Eingänge von Erfassungseinrichtungen und anderen vernetzten Steuermodulen zu überwachen und Steuer- und Diagnoseroutinen zum Steuern des Betriebs der Aktoren auszuführen. Die Schleifenzyklen können in regelmäßigen Intervallen, beispielsweise alle 3,125, 6,25, 12,5, 25 und 100 Millisekunden, während des fortwährenden Maschinen- und Fahrzeugbetriebs ausgeführt werden. Alternativ können Algorithmen in Reaktion auf das Auftreten eines Ereignisses ausgeführt werden.The control module 5 is in 1 shown and described herein as a discrete element. This illustration is to simplify the description and it should be noted that the control module 5 may take any suitable form that includes various combinations of one or more application specific integrated circuit (s) (ASIC), electronic circuits (s), central processing unit (s) (preferably microprocessor (s)). ) and associated memory (s) (read-only memory, programmable read only memory, random access memory, hard disk, etc.) executing one or more software or firmware programs, combinatorial logic circuits, input / Includes output circuitry (s) and devices, appropriate signal conditioning and buffer circuitry, and other suitable components to provide the described functionality. The control module has a set of control algorithms comprising resident software program instructions and calibrations stored in the memory and executed to provide the desired functions. The algorithms are preferably executed during predetermined loop cycles. The algorithms are implemented, for example, by a central processing unit and serve to monitor inputs of detectors and other networked control modules and to execute control and diagnostic routines for controlling the operation of the actuators. The loop cycles may be performed at regular intervals, for example, every 3.125, 6.25, 12.5, 25, and 100 milliseconds during ongoing machine and vehicle operation. Alternatively, algorithms may be executed in response to the occurrence of an event.

Das Steuermodul 5 führt einen darin gespeicherten algorithmischen Code aus, um in Beziehung stehende Geräte, wie beispielsweise die Kamera 11 und das Radarbilderfassungssystem 13, zu überwachen und Befehle oder Datenübertragungen wie durch die Analyse, die in dem Verarbeitungsmodul durchgeführt wird, angegeben auszuführen. Das Steuermodul 5 kann Algorithmen und Mechanismen zum Betätigen einer autonomen Fahr steuerung durch Mittel, die in der Technik bekannt und hierin nicht beschrieben sind, umfassen, oder das Steuermodul 5 kann einfach eine Information an ein separates autonomes Fahrsystem liefern. Das Steuermodul 5 ist geeignet, um in Abhängigkeit von der genauen Ausführungsform, die in Verbindung mit dem Steuermodul verwendet wird, nach Bedarf Eingangssignale von anderen Systemen und dem Bediener zu empfangen.The control module 5 Executes an algorithmic code stored therein to related devices, such as the camera 11 and the radar imaging system 13 to monitor and execute commands or data transfers as indicated by the analysis performed in the processing module. The control module 5 may include algorithms and mechanisms for actuating autonomous driving by means known in the art and not described herein, or the control module 5 can simply provide information to a separate autonomous driving system. The control module 5 is adapted to receive input signals from other systems and the operator as needed, depending on the exact embodiment used in conjunction with the control module.

2 zeigt schematisch das beispielhafte Fahrzeug 10, das Sensoren verwendet, um eine vereinigte Verfolgung eines Objekts zu erzeugen, gemäß der vorliegenden Offenbarung. Das beispielhafte Fahrzeug umfasst einen Personenkraftwagen, der zur Verwendung auf Schnellstraßen vorgesehen ist, wobei anzumerken sei, dass die hierin beschriebene Offenbarung auf jedes Fahrzeug oder jedes andere System anwendbar ist, das die Position und Trajektorie von entfernten Fahrzeugen und anderen Objekten überwachen möchte. Das Fahrzeug umfasst ein Steuersystem, das verschiedene Algorithmen und Kalibrierungen enthält, die zu verschiedenen Zeitpunkten ausgeführt werden. Das Steuersystem ist vorzugsweise ein Teilsatz einer gesamten Fahrzeugsteuerarchitektur und stellt eine koordinierte Fahrzeugsystemsteuerung bereit. Das Steuersystem überwacht Eingänge von verschiedenen Sensoren, synthetisiert entsprechende Informationen und Eingänge und führt Algorithmen zum Steuern verschiedener Aktoren, um Steuerziele zu erreichen, aus, wobei Parameter wie beispielsweise eine Kollisionsvermeidung und ein adaptiver Tempomat umfasst sind. Die Fahrzeugsteuerarchitektur umfasst mehrere verteilte Prozessoren und Einrichtungen, die einen System-Controller umfassen, der eine Funktionalität, wie beispielsweise ein Antiblockiersystem, eine Traktionssteuerung und eine Fahrzeugstabilität, bereitstellt. 2 schematically shows the exemplary vehicle 10 using sensors to produce a unified tracking of an object, in accordance with the present disclosure. The exemplary vehicle includes a passenger car intended for use on expressways, noting Let the disclosure described herein be applicable to any vehicle or system that wishes to monitor the position and trajectory of distant vehicles and other objects. The vehicle includes a control system that includes various algorithms and calibrations that are executed at different times. The control system is preferably a subset of an overall vehicle control architecture and provides coordinated vehicle system control. The control system monitors inputs from various sensors, synthesizes corresponding information and inputs, and executes algorithms for controlling various actuators to achieve control objectives, including such parameters as collision avoidance and adaptive cruise control. The vehicle control architecture includes a plurality of distributed processors and devices that include a system controller that provides functionality such as anti-lock braking system, traction control, and vehicle stability.

Das beispielhafte Erfassungssystem umfasst vorzugsweise Objektlokalisierungssensoren, die mindestens zwei nach vorne gerichtete Entfernungserfassungseinrichtungen 14 und 16 und begleitende Subsysteme oder Prozessoren umfassen. Die Objektlokalisierungssensoren können die Radarbilderfassungseinrichtung 13 wie hierin oben beschrieben umfassen, die derart ausgestaltet ist, dass sie ein Nahbereichsradarsubsystem, ein Fernbereichsradarsubsystem und ein Vorwärtssichtsystem umfasst. Die Objektlokalisierungserfassungseinrichtungen können beliebige Entfernungssensoren wie die hierin oben beschriebenen umfassen, die FM-CW-Radare (Frequency Modulated Continuous Wave-Radare), Impuls- und FSK-Radare (Frequency Shift Keying-Radare) und LIDAR-Einrichtungen und Ultraschalleinrichtungen, die auf Effekten, wie beispielsweise Doppler-Effekt-Messungen, beruhen, um sich vorne befindende Objekte zu lokalisieren, umfassen. Die möglichen Objektlokalisierungseinrichtungen umfassen die Kamera 11, wie hierin oben beschrieben, die Verfahren einer digitalen Fotografie verwendet, um sich vorne befindende Objekte zu ”sehen”. Solche Erfassungssysteme werden zum Detektieren und Lokalisieren von Objekten in Kraftfahrzeuganwendungen eingesetzt, die mit Systemen verwendet werden können, die z. B. einen adaptiven Tempomat, eine Kollisionsvermeidung, eine Sicherheit vor dem Unfall (pre-crash) und eine Seitenobjektdetektion umfassen. Das beispielhafte Fahrzeugsystem kann auch ein globales Positionsbestimmungssystem (GPS-System) umfassen.The exemplary detection system preferably includes object location sensors that include at least two forward distance detection devices 14 and 16 and accompanying subsystems or processors. The object location sensors may be the radar imaging device 13 as described hereinabove, configured to include a near range radar subsystem, a far range radar subsystem, and a forward vision system. The object location detectors may include any distance sensors such as those described hereinabove, the FM CW (Frequency Modulated Continuous Wave) radars, Pulse and Frequency Shift Keying (FSK) radars, and LIDAR and ultrasonic devices based on effects , such as Doppler effect measurements, are based to localize forward-looking objects. The possible object locators include the camera 11 as described hereinabove, uses the methods of digital photography to "see" front objects. Such detection systems are used for detecting and locating objects in automotive applications that can be used with systems that are e.g. As an adaptive cruise control, a collision avoidance, a pre-crash and a side object detection include. The exemplary vehicle system may also include a global positioning system (GPS).

Diese Sensoren sind vorzugsweise innerhalb des Fahrzeugs 10 an relativ hindernisfreien Positionen relativ zu einer Sicht vor dem Fahrzeug positioniert. Es sei auch angemerkt, dass jeder dieser Sensoren einen Schätzwert eines tatsächlichen Orts oder einer tatsächlichen Bedingung eines Zielobjekts bereitstellt, wobei der Schätzwert eine geschätzte Position und eine Standardabweichung umfasst. Somit werden eine Sensordetektion und eine Messung von Objektorten und Bedingungen typischerweise als ”Schätzwerte” bezeichnet. Es sei ferner angemerkt, dass die Eigenschaften dieser Sensoren darin komplementär sind, dass einige beim Schätzen bestimmter Parameter zuverlässiger sind als andere. Herkömmliche Sensoren weisen verschiedene Betriebsreichweiten und Winkelabdeckungen auf und können innerhalb ihrer Betriebsreichweite verschiedene Parameter abschätzen. Beispielsweise können Radarsensoren für gewöhnlich die Entfernung, die Entfernungsänderung und den Azimutort eines Objekts schätzen, sie sind normalerweise jedoch beim Schätzen des Umfangs eines detektierten Objekts nicht stabil. Eine Kamera mit Sichtprozessor ist beim Schätzen einer Form und einer Azimutposition des Objekts stabiler, ist jedoch beim Schätzen der Entfernung und Entfernungsänderung des Objekts weniger effizient. LIDARe vom Abtasttyp arbeiten in Bezug auf das Schätzen von Entfernung und Azimutposition effizient und genau, können jedoch typischerweise die Entfernungsänderung nicht abschätzen und sind daher in Bezug auf eine Erlangung/Erkennung eines neuen Objekts nicht genau. Ultraschallsensoren können eine Entfernung abschätzen, können jedoch im Allgemeinen nicht die Entfernungsänderung und die Azimutposition schätzen oder berechnen. Ferner sei angemerkt, dass das Leistungsvermögen jeder Sensortechnologie durch unterschiedliche Umgebungsbedingungen beeinflusst wird. Somit stellen herkömmliche Sensoren parametrische Abweichungen dar, wobei die wirksame Überlappung dieser Sensoren Möglichkeiten für eine Sensorvereinigung erzeugt.These sensors are preferably inside the vehicle 10 positioned at relatively obstacle-free positions relative to a view in front of the vehicle. It should also be noted that each of these sensors provides an estimate of an actual location or condition of a target object, the estimate comprising an estimated position and a standard deviation. Thus, sensor detection and measurement of object locations and conditions are typically referred to as "estimates." It should also be noted that the characteristics of these sensors are complementary in that some are more reliable in estimating certain parameters than others. Conventional sensors have different operating ranges and angle covers and can estimate various parameters within their operating range. For example, radar sensors may usually estimate the distance, range change and azimuth location of an object, but they are usually not stable in estimating the circumference of a detected object. A vision processor camera is more stable in estimating a shape and an azimuth position of the object, but is less efficient in estimating the distance and range change of the object. Scan-type LIDARs operate efficiently and accurately with respect to estimating range and azimuth position, but typically can not estimate the range change and are therefore not accurate in terms of acquiring / recognizing a new object. Ultrasonic sensors can estimate a distance, but generally can not estimate or calculate the range change and azimuth position. It should also be noted that the performance of each sensor technology is affected by different environmental conditions. Thus, conventional sensors represent parametric variations, with the effective overlap of these sensors creating opportunities for sensor integration.

Jeder Objektlokalisierungssensor und jedes Subsystem stellt einen Ausgang bereit, der eine Entfernung R, eine zeitbasierte Entfernungsänderung R_dot und einen Winkel Θ, vorzugsweise in Bezug auf eine Langsachse des Fahrzeugs, umfasst und als Messvektor (o) geschrieben werden kann, d. h. Sensordaten. Ein beispielhaftes Nahbereichsradarsubsystem weist ein Sichtfeld (FOV) von 160 Grad und eine maximale Reichweite von dreißig Metern auf. Ein beispielhaftes Fernbereichsradarsubsystem weist ein Sichtfeld von 17 Grad und eine maximale Reichweite von 220 Metern auf. Ein beispielhaftes Vorwärtssichtsubsystem weist ein Sichtfeld von 45 Grad und eine maximale Reichweite von fünfzig (50) Metern auf. Für jedes Subsystem ist das Sichtfeld vorzugsweise um die Längsachse des Fahrzeugs 10 ausgerichtet. Das Fahrzeug ist vorzugsweise auf ein Koordinatensystem, bezeichnet als XY-Koordinatensystem 20, ausgerichtet, wobei die Längsachse des Fahrzeugs 10 die X-Achse mit einer Ortslinie an einem Punkt, der für das Fahrzeug und eine Signalverarbeitung geeignet ist, festlegt, und wobei die Y-Achse durch eine Achse festgelegt ist, die orthogonal zur Langsachse des Fahrzeugs 10 ist und in einer horizontalen Ebene liegt, die somit parallel zur Bodenfläche ist.Each object location sensor and subsystem provides an output that includes a distance R, a time-based range change R_dot, and an angle Θ, preferably with respect to a vehicle's longitudinal axis, that can be written as a measurement vector (o), ie, sensor data. An exemplary near range radar subsystem has a FOV of 160 degrees and a maximum range of thirty meters. An exemplary far-range radar subsystem has a field of view of 17 degrees and a maximum range of 220 meters. An exemplary forward vision subsystem has a 45 degree field of view and a maximum range of fifty (50) meters. For each subsystem, the field of view is preferably about the longitudinal axis of the vehicle 10 aligned. The vehicle is preferably on a coordinate system, referred to as XY coordinate system 20 , aligned with the longitudinal axis of the vehicle 10 determines the X-axis with a locus at a point suitable for the vehicle and signal processing, and wherein the Y-axis is defined by an axis orthogonal to the longitudinal axis of the vehicle 10 is and lies in a horizontal plane, which is thus parallel to the bottom surface.

Der Offenbarungsgehalt des US-Patents Nr. 7,460,951 mit dem Titel SYSTEM AND METHOD OF TARGET TRACKING USING SENSOR FUSION ist hierin durch Bezugnahme vollständig mit eingeschlossen, so dass das Verfahren und die Vorrichtung zum Vereinigen von Verfolgungsdaten von mehreren Sensoren zum genaueren Schätzen eines Orts eines Objekts hierin nicht ausführlich beschrieben werden muss.Of the The disclosure of U.S. Patent No. 7,460,951 entitled SYSTEM AND METHOD OF TARGET TRACKING USING SENSOR FUSION is hereby Reference completely included so that the method and apparatus for Combine tracking data from multiple sensors for more accurate Estimate a location of an object need not be described in detail herein.

Auf 2 Bezug nehmend ist ein Fahrzeug 10 gezeigt, das ein Paar von Erfassungssystemen 14 und 16 umfasst. Das Fahrzeug 10 kann als Koordinatensystem (X, Y) 20 bezeichnet werden, wobei die Koordinaten in Bezug auf eine Langsachse des Fahrzeugs und eine seitliche Position, beispielsweise im Vergleich zu einer Mittellinie des Fahrzeugs, definiert sind. Die Erfassungssysteme 14 und 16 können ein beliebiges der beispielhaften oben beschriebenen Systeme oder der Systeme sein, die in der Technik bekannt sind und eine Verfolgung eines erfassten Objekts zurückgeben können. Die Sensoren können ihr eigenes Koordinatensystem aufweisen. Ein beispielhaftes Koordinatensystem (u, V) 21 ist in Bezug auf das Sensorsystem 14 gezeigt. Ein Objekt 30 ist zu drei verschiedenen Zeitpunkten gezeigt. Das Sensorsystem 14, das Objekte innerhalb des FOV(A) erfasst, gibt drei Orte eines verfolgten Objekts für das Objekt 30 zurück, die mit ra1, ra2 und ra3 bezeichnet sind. Das Sensorsystem 16, das Objekte innerhalb des FOV(B) erfasst, gibt auf ähnliche Weise drei Orte eines verfolgten Objekts für das Objekt 30 zurück, die mit rb1, rb2 und rb3 bezeichnet sind. Vereinigte Positionen für das Objekt 30 können auf der Grundlage der verfügbaren Information bezüglich des Objekts 30 beschrieben werden. In der Technik sind Verfahren zum Vereinigen mehrerer Sätze von Daten zu einem vereinigten Satz bekannt. Beispielhafte Verfahren können beispielsweise Gewichte oder gemessene Abweichungen in den verschiedenen Datenpunkten anwenden, und der Beitrag jedes individuellen Punkts zu dem vereinigten Satz kann von den Gewichten oder Abweichungen abhängen. 2 zeigt einen beispielhaften Satz von vereinigten Datenpunkten, die mit rf1, rf2 und rf3 bezeichnet sind.On 2 Referring to a vehicle 10 shown that a pair of detection systems 14 and 16 includes. The vehicle 10 can be used as a coordinate system (X, Y) 20 wherein the coordinates are defined with respect to a longitudinal axis of the vehicle and a lateral position, for example, compared to a centerline of the vehicle. The detection systems 14 and 16 may be any of the exemplary systems described above or the systems known in the art and capable of returning tracking of a detected object. The sensors can have their own coordinate system. An exemplary coordinate system (u, V) 21 is in relation to the sensor system 14 shown. An object 30 is shown at three different times. The sensor system 14 , which captures objects within the FOV (A), gives three locations of a tracked object for the object 30 back, which are denoted by r a1 , r a2 and r a3 . The sensor system 16 detecting objects within the FOV (B) similarly gives three locations of a tracked object for the object 30 back, which are denoted by r b1 , r b2 and r b3 . United positions for the object 30 can be based on the information available regarding the object 30 to be discribed. Methods are known in the art for merging multiple sets of data into a unified set. For example, example methods may apply weights or measured deviations in the various data points, and the contribution of each individual point to the merged set may depend on the weights or deviations. 2 Figure 14 shows an exemplary set of merged data points labeled r f1 , r f2, and r f3 .

3 zeigt schematisch einen beispielhaften Prozess zum Überwachen von Sensoreingängen und Erzeugen einer Verfolgungsliste, die detektierten Objekten entspricht, gemäß der vorliegenden Offenbarung. Das beispielhafte Fahrzeug 10 umfasst allgemein ein Steuersystem mit einem Beobachtungsmodul 22, einem Datenzuordnungs- und Clustering-Modul (DAC-Modul) 24, das ferner ein Kalman-Filter 24A umfasst, und einem Verfolgungslebensdauerverwaltungsmodul (TLM-Modul von track life management module) 26, das eine Verfolgungsliste 26A verfolgt, die mehrere Objektverfolgungen umfasst. Genauer gesagt umfasst das Beobachtungsmodul die Sensoren 14 und 16, ihre jeweiligen Sensorprozessoren und die Verbindung zwischen den Sensoren, den Sensorprozessoren und dem DAC-Modul 24. 3 12 schematically illustrates an exemplary process for monitoring sensor inputs and generating a tracking list corresponding to detected objects, in accordance with the present disclosure. The exemplary vehicle 10 generally comprises a control system with an observation module 22 , a Data Assignment and Clustering Module (DAC Module) 24 , which is also a Kalman filter 24A and a track life management module (TLM module) 26 that has a chase list 26A track that includes multiple object pursuits. More specifically, the observation module includes the sensors 14 and 16 , their respective sensor processors and the connection between the sensors, the sensor processors and the DAC module 24 ,

Das obige beispielhafte Objektverfolgungssystem zeigt ein Verfahren, durch das ein Objekt oder mehrere Objekte verfolgt werden können. Es sei jedoch angemerkt, dass gleichermaßen eine Anzahl von verschiedenen Sensoren, die eine Information bezüglich der Umgebung um das Fahrzeug herum erfassen, verwendet werden könnte, und dass die Offenbarung nicht auf die hierin beschriebenen bestimmten Ausführungsformen beschränkt sein soll. Ferner ist das hierin oben beschriebene Datenvereinigungsverfahren ein beispielhaftes Verfahren, durch das die Details der verschiedenen Eingangssensoren zu einer einzelnen nützlichen Verfolgung eines Objekts vereinigt werden könnten. Es sind jedoch zahlreiche Datenvereinigungsverfahren in der Technik bekannt, und die Offenbarung soll nicht auf die hierin beschriebene bestimmte beispielhafte Ausführungsform beschrankt sein.The The above exemplary object tracking system shows a method by which one or more objects can be tracked. It It should be noted, however, that a number of different Sensors that provide information about the environment around the vehicle capture, could be used, and that the revelation are not limited to the particular embodiments described herein should. Further, the data pooling method described hereinabove an exemplary process through which the details of the various Input sensors for a single useful tracking of an object could be united. However, there are numerous data pooling techniques in the art and the disclosure is not intended to be as described herein certain exemplary embodiment be limited.

Hierin sind Verfahren zum Steuern des Fahrzeugbetriebs unter Verwendung eines Kollisionsvorbereitungssystems und einer Bewegung von identifizierten Objekten offenbart. Das identifizierte Objekt wird analysiert, um eine wahrscheinlich bevorstehende oder unmittelbar bevorstehende Kollision auf der Grundlage der Objektbewegung relativ zu dem Fahrzeug zu identifizieren. Das Kollisionsvorbereitungssystem ist ausgestaltet, um einen Fahrzeugbediener hinsichtlich einer bevorstehenden Kollision zu alarmieren, und ist ausgestaltet, um den Fahrzeugbetrieb beispielsweise durch automatisches Bremsen zu steuern, wenn die Kollision als unvermeidbar betrachtet wird, um die Kollisionsschwere zu reduzieren.Here in are methods of controlling vehicle operation using a collision preparation system and a movement of identified Revealed objects. The identified object is analyzed to a likely imminent or imminent one Collision based on object movement relative to the vehicle to identify. The collision preparation system is designed, to a vehicle operator regarding an imminent collision to alert, and is configured to operate the vehicle, for example by controlling automatic braking when the collision is unavoidable is considered to reduce the collision severity.

Sichtsysteme stellen eine alternative Quelle eines Sensoreingangs zur Verwendung bei Fahrzeugsteuersystemen bereit. Es ist in der Technik bekannt, dass Verfahren zum Analysieren einer visuellen Information eine Mustererkennung, eine Eckendetektion, eine Detektion vertikaler Kanten, eine Erkennung vertikaler Objekte und andere Verfahren umfassen. Es sei jedoch angemerkt, dass visuelle Darstellungen mit hoher Auflösung des Felds in der Nähe eines Fahrzeugs, die mit einer hohen Rate aktualisiert werden, die notwendig ist, um die Bewegungen in Echtzeit wahrzunehmen, einen sehr großen zu analysierenden Umfang an Informationen umfassen. Eine Echtzeitanalyse einer visuellen Information kann äußerst aufwendig sein. Es wird ein Verfahren zum Vereinigen eines Eingangs von einem Sichtsystem mit einer vereinigten Verfolgung offenbart, die durch Verfahren, wie beispielsweise das oben beschriebene beispielhafte Verfolgungsvereinigungsverfahren, erzeugt wird, um eine Sichtanalyse auf einen Teil der visuellen Information zu richten, der am wahrscheinlichsten eine Kollisionsgefahr darstellt, und wobei die fokussierte Analyse verwendet wird, um auf ein wahrscheinlich unmittelbar bevorstehendes Kollisionsereignis hinzuweisen. Ferner wird ein Verfahren beschrieben, das iterative Verfolgungszyklen zum Identifizieren eines verfolgten Objekts, beispielsweise unter Verwendung einer Information, die in einem Zyklus ermittelt wird, um eine Ermittlung einer Information in dem nächsten Zyklus zu unterstützen, einsetzt. Ferner wird ein Verfahren beschrieben, um eine Bank von Filtern auf ein verfolgtes Objekt in einem Bild anzuwenden und durch eine Anwendung eines Modells zu ermitteln, welcher Filterausgang die beste Schätzung des verfolgten Objekts ist.Vision systems provide an alternative source of sensor input for use in vehicle control systems. It is known in the art that methods for analyzing visual information include pattern recognition, corner detection, vertical edge detection, vertical object detection, and other methods. It should be noted, however, that high resolution visual representations of the field in the vicinity of a vehicle, which are updated at a high rate necessary to perceive the movements in real time, involve a very large amount of information to be analyzed. A real-time analysis of visual information can be extremely expensive. A method is disclosed for uniting an input from a vision system with a unified tracking, generated by methods such as the exemplary tracking merging method described above to direct a visual analysis to a portion of the visual information most likely to present a collision hazard, and wherein the focused analysis is used to indicate a likely imminent collision event , Further described is a method that employs iterative tracking cycles to identify a tracked object, for example, using information determined in one cycle to aid in the detection of information in the next cycle. Further, a method is described for applying a bank of filters to a tracked object in an image and using a model to determine which filter output is the best estimate of the tracked object.

4 zeigt schematisch ein beispielhaftes Steuerschema 100 für ein Kollisionsvorbereitungssystem gemäß der vorliegenden Offenbarung. Das Steuerschema ist in 4 gezeigt und hierin als diskrete Elemente umfassend beschrieben. Solch eine Darstellung dient der Vereinfachung der Beschreibung und es ist zu erkennen, dass die durch diese Elemente durchgeführten Funktionen in einer oder mehreren Einrichtungen kombiniert sein können, z. B. realisiert in Software, Hardware und/oder einer anwendungsspezifischen integrierten Schaltung. Beispielsweise kann das Steuerschema 100 in dem Steuermodul 5 realisiert sein. Das Steuersche ma 100 umfasst das Überwachen von Sensoreingangsdaten, die eine Umgebung um das Fahrzeug 10 herum beschreiben, wobei Entfernungssensoren 102, Kamerabilder 104 und fahrzeuginterne Sensoren 106 umfasst sind. Vorzugsweise überwacht das Steuerschema 100 kontinuierlich die Umgebung des Fahrzeugs unter Verwendung seiner Entfernungssensoren (z. B. Radare und LIDARe) und Kameras. 4 schematically shows an exemplary control scheme 100 for a collision preparation system according to the present disclosure. The control scheme is in 4 and described herein as comprising discrete elements. Such a representation is to simplify the description and it will be appreciated that the functions performed by these elements may be combined in one or more devices, e.g. B. realized in software, hardware and / or an application-specific integrated circuit. For example, the control scheme 100 in the control module 5 be realized. The Steuersche ma 100 includes monitoring sensor input data surrounding an environment of the vehicle 10 describe around, with distance sensors 102 , Camera images 104 and in-vehicle sensors 106 are included. Preferably, the control scheme monitors 100 continuously the environment of the vehicle using its distance sensors (such as radars and LIDARe) and cameras.

Ein Datenvereinigungsmodul 110 gibt die Sensordaten ein. Das Datenvereinigungsmodul 110 analysiert, filtert oder priorisiert die Eingänge relativ zu der Zuverlässigkeit der verschiedenen Eingänge, und die priorisierten oder gewichteten Eingänge werden summiert, um Verfolgungsschätzwerte für Objekte in der Nähe des Fahrzeugs 10 zu erzeugen. Diese Objektverfolgungen werden dann in das Kollisionsgefahrenbewertungsmodul 120 eingegeben, wobei jede Verfolgung hinsichtlich einer Wahrscheinlichkeit für eine Kollision bewertet wird. Es sei angemerkt, dass für den Einsatz der hierin beschriebenen Verfahren keine Kollision stattfinden muss, sondern dass stattdessen auf der Grundlage einer Bewertung eines dynamischen Fahrzeugereignisses (beispielsweise eines Änderns der Beziehung eines detektierten Objekts zu dem Host-Fahrzeug, was auf eine unmittelbar bevorstehende Kollision hindeutet) eine Wahrscheinlichkeit einer Kollision bewertet werden kann. Diese Wahrscheinlichkeit für eine Kollision kann beispielsweise hinsichtlich einer Schwellenwertwahrscheinlichkeit für eine Kollision bewertet werden, und wenn eine Kollision als wahrscheinlich bestimmt wird, können Kollisionsgegenmaßnahmen initiiert werden. Die Wahrscheinlichkeit für eine Kollision eines identifizierten Objekts wird durch ein Kollisionsgegenmaßnahmenmodul 150 analysiert.A data union module 110 enters the sensor data. The data union module 110 analyzes, filters or prioritizes the inputs relative to the reliability of the various inputs, and the prioritized or weighted inputs are summed to provide tracking estimates for objects in the vicinity of the vehicle 10 to create. These object traces then become the collision hazard evaluation module 120 where each track is evaluated for probability of a collision. It should be noted that for the implementation of the methods described herein, no collision needs to take place, but instead based on an evaluation of a dynamic vehicle event (eg, changing the relationship of a detected object to the host vehicle, which indicates an imminent collision ) a probability of a collision can be assessed. For example, this probability of a collision may be evaluated in terms of a threshold probability for a collision, and if a collision is determined to be likely, collision countermeasures may be initiated. The probability of a collision of an identified object is determined by a collision countermeasure module 150 analyzed.

Kollisionsgegenmaßnahmen können in der Technik viele Formen annehmen. Beispielsweise können bei einem Versuch, das Fahrzeug vor einem Aufprall zu verlangsamen, automatisch Fahrzeugbremssysteme aktiviert werden. Ähnlich kann der Motor gedrosselt werden, um die Geschwindigkeit des Fahrzeugs und die kinetische Energie des Fahrzeugs vor dem Aufprall zu reduzieren. Beispielsweise kann ein automatisiertes Lenken aktiviert werden, um das Fahrzeug vor der Kollision abzugleichen, um die Auswirkungen eines schrägen Aufpralls zu vermeiden. Ähnlich können, wenn ein Seitenaufprall als unmittelbar bevorstehend projiziert wird, ein Lenken und eine Vorwärtsbewegung des Fahrzeugs gesteuert werden, um den Aufprall von dem Fahrgastraum des Fahrzeugs weg anzupassen. Ähnlich kann, wenn ein Heckaufprall als unmittelbar bevorstehend projiziert wird, die Drosselung des Fahrzeugs erhöht werden, um den Unterschied der Geschwindigkeiten der Fahrzeuge zum Zeitpunkt des Aufpralls zu reduzieren. Ferner können andere Fahrzeugsysteme bei der Vorbereitung für einen Aufprall gesteuert werden. Beispielsweise können die Sicherheitsgurte der Insassen bei einer Vorbereitung für den Aufprall gestrafft und/oder verriegelt werden. Die Kopfstützen des Fahrzeugs können verändert werden, um den Hals und Nacken der Insassen des Fahrzeugs bestmöglich zu schützen. Einen Moment vor dem projizierten Aufprall können Air-Gags präventiv, beispielsweise mit einem verringerten Druck, entfaltet werden, um auf diese Weise die Wahrscheinlichkeit zu reduzieren, dass der Insasse durch die für gewöhnlich schnelle Entfaltung der Airbags beeinträchtigt wird. Vor dem Aufprall können automatisch die Fenster geschlossen und die Türen verriegelt werden. Die Fußpedale können in eine zurückgezogene Stellung angepasst werden, um die Wahrscheinlichkeit einer Interaktion mit dem Fahrzeugbediener während des Aufpralls zu reduzieren. Durch ein drahtloses Kommunikationsnetz kann ein anfängliches Notrufsignal übertragen werden, um Rettungskräfte zu alarmieren, wobei ein Unvermögen des Systems zu Kommunizieren, wenn der Aufprall den Betrieb des Systems beschädigt, umgangen wird. Es kann ein akustischer Alarm einer unmittelbar bevorstehenden Kollision ertönen, um die Insassen des Fahrzeugs zu alarmieren. Es wird eine Anzahl von Kollisionsgegenmaßnahmen in Betracht gezogen, und die Offenbarung soll nicht auf die hierin beschriebenen bestimmten beispielhaften Ausführungsformen beschränkt sein.Collision countermeasures can take many forms in technology. For example, at an attempt to slow the vehicle from impact, automatically vehicle braking systems are activated. Similarly The engine will be throttled to the speed of the vehicle and to reduce the kinetic energy of the vehicle before impact. For example, automated steering can be activated, to balance the vehicle before the collision to the impact a weird one Avoid impact. Similar can, if a side impact is projected as imminent, a steering and a forward movement the vehicle are controlled to the impact of the passenger compartment to adapt the vehicle away. Similar can if a rear-end impact projected as imminent will, the throttling of the vehicle will be increased to the difference the speeds of the vehicles at the time of impact to reduce. Furthermore, can other vehicle systems controlled in preparation for an impact become. For example, you can the seat belts of the occupants in preparation for the impact streamlined and / or locked. The headrests of the vehicle can be changed to best fit the neck and neck of the occupants of the vehicle protect. A moment before the projected impact, air-gags can preventively, for example, with a reduced pressure, to be deployed in this way reduce the likelihood that the inmate through the for usually rapid deployment of the airbags is impaired. Before the impact can automatically closed the windows and the doors are locked. The foot pedals can in a withdrawn Position adjusted to the likelihood of interaction with the vehicle operator during to reduce the impact. Through a wireless communication network can be an initial one Emergency call signal transmitted be to rescue workers to alarm, being an inability of the system to communicate when the impact of the operation of the Damaged system, is bypassed. It can be an audible alarm of an imminent Sound a collision, to alert the occupants of the vehicle. There will be a number of collision countermeasures considered and the disclosure is not intended to be herein be limited to certain specific exemplary embodiments described.

Bei einer Ausführungsform wird das hierin oben beschriebene beispielhafte Steuerschema 100 verwendet, um ein Fahrzeug zu steuern, das während eines dynamischen Fahrzeugereignisses betrieben wird. Das Verfahren umfasst, dass eine Entfernungssensorinformation und eine Sichtsysteminformation überwacht werden. Ein Überlagern der Entfernungssensorinformation an der Sichtsysteminformation erzeugt ein modifiziertes Bild. Unter Verwendung einer Kantendetektion, einer Eckendetektion und einer Detektion eines optischen Flusses werden hervorstechende Bildbereiche in dem modifizierten Bild identifiziert, wobei die hervorstechenden Bildbereiche, die dem Boden entsprechen, ausgeschlossen werden. Das Verfahren umfasst ferner, dass in einem ersten Zeitschritt ein erstes Objekt in einem Fahrzeugsichtfeld unter Verwendung der hervorstechenden Bildbereiche identifiziert wird und in einem nachfolgenden Zeitschritt ein zweites Objekt in dem Fahrzeugsichtfeld unter Verwendung der hervorstechenden Bildbereiche identifiziert wird. Es wird eine Position des ersten Objekts in dem nachfolgenden Zeitschritt vorhergesagt und auf der Grundlage eines Vergleichens der vorhergesagten Position des ersten Objekts mit dem identifizierten zweiten Objekt mit dem zweiten Objekt in Übereinstimmung gebracht. Es wird eine Objektverfolgung der in Übereinstimmung gebrachten Objekte ermittelt, und es wird eine Wahrscheinlichkeit für eine Kollision zwischen dem in Übereinstimmung gebrachten Objekt und dem Fahrzeug auf der Grundlage der Objektverfolgung ermittelt. Das Fahrzeug wird auf der Grundlage der Wahrscheinlichkeit für eine Kollision gesteuert.In one embodiment, the exemplary control scheme described hereinabove 100 used to control a vehicle operated during a dynamic vehicle event. The method includes monitoring distance sensor information and vision system information. Superimposing the range sensor information on the vision system information produces a modified image. Using edge detection, corner detection, and optical flow detection, prominent image areas in the modified image are identified, excluding the salient image areas corresponding to the floor. The method further comprises, in a first time step, identifying a first object in a vehicle field of view using the salient image areas, and identifying a second object in the vehicle field of view using the salient image areas in a subsequent time step. A position of the first object in the subsequent time step is predicted and matched based on comparing the predicted position of the first object with the identified second object with the second object. Object tracking of the matched objects is determined, and a probability of collision between the matched object and the vehicle is determined based on the object tracking. The vehicle is controlled based on the probability of a collision.

5 zeigt schematisch das beispielhafte Bildvereinigungsmodul 120 gemäß der vorliegenden Offenbarung. Das Vereinigungsmodul 110 integriert einen Eingang von verschiedenen Erfassungseinrichtungen, die Kameras 104 und Entfernungssensoren 102 umfassen, und erzeugt eine vereinigte Verfolgung eines Objekts in der Nähe des Fahrzeugs 10. Die Entfernungssensordaten umfassen Positionsdaten einer Liste von Objekten in einem zweidimensionalen Fahrzeugkoordinatensystem. Bei einer beispielhaften Ausführungsform werden die Objekte an den Kameradaten projiziert oder überlagert, um ein modifiziertes Bild in einem Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets zu erzeugen, wobei vorzugsweise vorbestimmte Kamerakalibrierungsparameter verwendet werden, die entsprechend dem zweidimensionalen Fahrzeugkoordinatensystem angepasst werden. Eine Entfernungsinformation, wie beispielsweise Radarrückführungen, die mit entsprechenden Gebieten des Bilds in Übereinstimmung gebracht wird, kann verwendet werden, um Orte potentieller Objekte in dem Bild zu identifizieren. Auf die Kameradaten und das modifizierte Bild kann ferner eine Beleuchtungsnormalisierung angewandt werden. Eine Normalisierung ist ein Prozess, der den Bereich von Pixel-Intensitätswerten ändert. Der Zweck der Normalisierung ist, das Bild in einen Bereich zu bringen, der für einen Maschinenprozess geeigneter ist, um die Zuverlässigkeit zu verbessern. Beispielsweise wird jeder Pixel-Wert auf einen Mittelwert von Null und eine Einheitsvarianz normalisiert, um den Bildkontrast zu verbessern, insbesondere in einer Umgebung mit schwacher Beleuchtung, oder wenn der Kontrast aufgrund einer Blendung schlecht ist. 5 schematically shows the exemplary Bildvereinigungsmodul 120 according to the present disclosure. The union module 110 Integrates an input from various capture devices, the cameras 104 and distance sensors 102 and creates a unified tracking of an object in the vicinity of the vehicle 10 , The ranging sensor data includes position data of a list of objects in a two-dimensional vehicle coordinate system. In an exemplary embodiment, the objects are projected or superimposed on the camera data to form a modified image in a module 112 for motion analysis and salient area detection, preferably using predetermined camera calibration parameters that are adjusted according to the two-dimensional vehicle coordinate system. Distance information, such as radar returns, that is matched with corresponding areas of the image may be used to identify locations of potential objects in the image. Furthermore, illumination normalization may be applied to the camera data and the modified image. Normalization is a process that changes the range of pixel intensity values. The purpose of normalization is to bring the image into a range that is more appropriate for a machine process to improve reliability. For example, each pixel value is normalized to a mean of zero and unit variance to improve image contrast, particularly in a low-light environment, or when contrast is poor due to glare.

Das Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets identifiziert Bildbereiche für eine weitere Analyse, die eine Schwellenwertkonfidenz für ein Erhalten von Objekten oder Teilen von Objekten aufweisen. Die Bildbereiche, die zuvor identifizierten Objekten entsprechen, werden unter Verwendung einer a priori-Information ermittelt, die eine Objektinformation eines vorherigen Zeitschritts umfasst, wie beispielsweise die Objektverfolgung und -position. Bei einer Ausführungsform werden die Objekte an dem modifizierten Bild unter Verwendung der Objektposition, der verstrichenen Zeit zwischen Iterationen und einer zugeordneten Objektverfolgung projiziert. Die hervorstechenden Bildbereiche können unter Verwendung von Extraktionsalgorithmen identifiziert werden, die z. B. eine skaleninvariante Merkmalstransformation (SIFT von scale-invariant feature transform), einen Algorithmus beschleunigter robuster Merkmale (SURF von speeded up robust feature) und/oder einen Algorithmus eines maximal stabilen Extremgebiets (MSER von maximally stable extreme region) umfassen. Bei einer Ausführungsform können ein Gradientenorientierungshistogramm (HOG von histogram of oriented gradients) und Eigenbildkoeffizienten verwendet werden.The module 112 motion analysis and salient area detection identifies image areas for further analysis having a threshold confidence for obtaining objects or parts of objects. The image areas corresponding to previously identified objects are determined using a priori information that includes object information of a previous time step, such as object tracking and position. In one embodiment, the objects on the modified image are projected using the object position, the elapsed time between iterations, and an associated object trace. The salient image areas can be identified using extraction algorithms, e.g. A scale-invariant feature transform (SIFT), an accelerated robust feature (SURF) algorithm, and / or a maximally stable extreme region (MSER) algorithm. In one embodiment, a gradient orientation histogram (HOG of oriented gradients) and eigen-image coefficients may be used.

Andere interessierende Gebiete des modifizierten Bilds können unter Verwendung von Kanten-, Eckendetektionsverfahren und Detektionsverfahren eines hervorstechenden Blobs identifiziert werden. Unter Verwendung einer Detektion eines optischen Flusses zwischen aufeinander folgenden modifizierten Bildern und durch Projizieren zuvor identifizierter Objekte auf das modifizierte Bild wie hierin nachstehend beschrieben können zusätzliche interessierende Gebiete identifiziert werden. Unter Verwendung eines mehrerer bekannter Verfahren kann eine Kantendetektion ausgeführt werden. Unter Verwendung eines mehrerer Algorithmen, die einen Harris-Eckendetektionsalgorithmus umfassen, können Ecken identifiziert werden.Other Regions of interest of the modified image can be found under Use of edge, corner detection and detection methods of a salient blob. Under use a detection of an optical flow between successive ones modified images and previously identified by projecting Objects on the modified image as described hereinafter may be additional areas of interest are identified. Using a According to several known methods, an edge detection can be carried out. Using one of several algorithms using a Harris corner detection algorithm may include Corners are identified.

Für die oben beschriebene Identifikation hervorstechender Blobs an dem modifizierten Bild wird ein Gauss-Operator auf das modifizierte Bild an gewandt. Im Betrieb wird ein modifiziertes Bild I(x, y), wobei x und y Zeilen- und Spaltenindizes des Bilds sind, durch einen Gauss-Kernel wie den folgenden gefaltet.For the above described identification of salient blobs on the modified Image, a Gaussian operator is applied to the modified image. In operation, a modified image I (x, y), where x and y are line and column indexes of the image are through a Gauss kernel like folded the following.

Figure 00210001
Figure 00210001

Das modifizierte Bild wird durch den Gauss-Kernel mit einer bestimmten Skalierung t gefaltet, um eine Skalenraumdarstellung, wie beispielsweise die folgende Beziehung, zu erhalten. L(x, y, t) = g(x, y, t)·f(x, y) [2] The modified image is convolved by the Gauss kernel with a particular scale t to obtain a scale space representation, such as the following relationship. L (x, y, t) = g (x, y, t) · f (x, y) [2]

Nach dem Falten des modifizierten Bilds wird ein skalennormalisierter Gauss-Differenz-Operator auf der Grundlage der Skalenraumdarstellung ermittelt. Der skalennormalisierte Gauss-Differenz-Operator (DoG-Operator von Difference of Gaussian operator) kann unter Verwendung der folgenden Beziehung ermittelt werden.To The folding of the modified image becomes a scale normalized Gaussian difference operator based on the scale space representation determined. The scale-normalized Gauss difference operator (DoG operator of Difference of Gaussian operator) can be made using the following relationship be determined.

Figure 00210002
Figure 00210002

Die hervorstechenden Blobs werden durch Hervorheben von Punkten an dem modifizierten Bild lokalisiert, die eine gleichzeitige Entsprechung mit lokalen Maxima/Minima des Gauss-Differenz-Operators in Bezug auf sowohl Raum als auch Skalierung aufweisen. Die lokalen Maxima/Minima des Gauss-Differenz-Operators können unter Verwendung der folgenden Beziehung ermittelt werden. (x ^, y ^, t ^) = arg max min( x , y , t )(DoG{I(x, y), t}) [4] The salient blobs are located by highlighting points on the modified image that have simultaneous correspondence with local maxima / minima of the Gaussian difference operator with respect to both space and scale. The local maxima / minima of the Gaussian difference operator can be determined using the following relationship. (x ^, y ^, t ^) = arg max min ( x . y . t ) (DoG {I (x, y), t}) [4]

Eines mehrerer Detektionsverfahren eines optischen Flusses kann verwendet werden, um Bildbereiche zu identifizieren, die eine Bewegung zwischen aufeinander folgenden modifizierten Bildern aufweisen. Ein Verfahren umfasst das Analysieren der aufeinanderfolgenden modifizierten Bilder It-1(x, y) und It(x, y) unter Verwendung eines Lucas-Kanade-Operators eines optischen Flusses, um interessierende Gebiete, die einer Bewegung entsprechen, zu ermitteln. Zusätzlich können eine Schwellenwertbildung und eine Komponentenverfolgung mit 4-fach verbundener Nachbarschaft (4-neighborhood connected component tracking) auf das Bild eines optischen Flusses angewandt werden, um Gebiete zu identifizieren, die eine signifikante Bewegung angeben. Das Anwenden eines Lucas-Kanade-Operators eines optischen Flusses zwischen aufeinander folgenden modifizierten Bildern liefert bei einer Ausführungsform eine Abbildung eines optischen Flusses, die Pixel umfasst, die einer Bewegung zwischen modifizierten Bildern zugeordnet sind.One of several optical flow detection methods may be used to identify image areas having motion between successive modified images. One method involves analyzing the successive modified images I t-1 (x, y) and I t (x, y) using a Lucas-Kanade optical flow operator to determine areas of interest corresponding to motion. In addition, 4-neighborhood connected component tracking thresholding and component tracking may be applied to the image of an optical flow to identify areas indicating significant motion. Applying a Lucas-Kanade optical flow operator between successive modified images, in one embodiment, provides an image of an optical flow comprising pixels associated with movement between modified images.

Durch Analysieren von Pixeln hinsichtlich visueller Eigenschaften wie beispielsweise Farbe und/oder Struktur, die einem Boden entsprechen, in dem Bereich benachbart des Fahrzeugs 10 können zusätzlich interessierende Bereiche in dem modifizierten Bild identifiziert werden. Die Pixel-Bereiche, die dem Boden entsprechen, enthalten wahrscheinlich keine Objekte, und können korrekt vernachlässigt werden. Ferner können bei einer Ausführungsform Bildbereiche, die eine Schwellenwertquantität von Boden entsprechenden Pixeln aufweisen, vernachlässigt werden. Ferner liefert eine Disassoziation mit durch die Entfernungssensordaten identifizierten Objekten eine Information bezüglich einer Pixel-Entsprechung mit dem Boden. Die Pixel-Klassifizierungen von Pixeln in segmentierten Bildbereichen oder Stücken des modifizierten Bilds werden analysiert. Bildbereiche, die eine vorbestimmte Anzahl von einer Bodenklassifizierung zugeordneten Pixeln enthalten, enthalten weniger wahrscheinlich ein Objekt.By analyzing pixels for visual characteristics, such as color and / or texture, that correspond to a ground in the area adjacent to the vehicle 10 In addition, regions of interest may be identified in the modified image. The pixel areas that correspond to the floor probably contain no objects and can be neglected correctly. Further, in one embodiment, image areas having a threshold quantity of pixels corresponding to ground may be neglected. Further, disassociation with objects identified by the range sensor data provides information regarding pixel correspondence with the ground. The pixel classifications of pixels in segmented image areas or pieces of the modified image are analyzed. Image areas containing a predetermined number of pixels assigned to a floor classification are less likely to contain an object.

Nach dem Analysieren des modifizierten Bilds hinsichtlich hervorstechender Gebiete und Bildbereiche, die einer Bewegung und Merkmalen zugeordnet sind, identifiziert das Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets Bildbereiche, die einem Konfidenzniveau zugeordnet sind, das größer als eine vorbestimmte Schwellenwertentsprechung mit einem Objekt und Ausgängen der identifizierten Bildbereiche ist. Bei einer Ausführungsform werden Gewichte, die eine Konfidenzentsprechung mit einem Objektvorhandensein angeben, bestimmten identifizierten Merkmalen zugeordnet und auf der Grundlage einer Merkmalsneigung in dem Bildbereich quantitativ angewandt. Gleichermaßen können Gewichte auf hervorstechende Gebiete, einer Bewegung zugeordnete Bildbereiche und Bildbereiche, die zuvor identifizierte Objekte enthalten, angewandt werden. Die den Bildbereichen zugeordneten Gewichte können summiert werden, wobei die Bildbereiche, die einem Schwellenwertgewicht entsprechen, von dem Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets ausgegeben werden. Bei einer Ausführungsform werden jedes extrahierte Merkmal, die einer Bewegung zugeordneten Bildbereiche, die in einem vorherigen Zeitschritt identifizierten Objekte und die nicht als Boden klassifizierten Bildbereiche miteinander vereinigt. Die einem Schwellenwert vereinigter Pixel zugeordneten Bildbereiche werden von dem Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets ausgegeben.After analyzing the modified image for salient areas and image areas associated with movement and features, the module identifies 112 for motion analysis and salient area detection, image areas associated with a confidence level greater than a predetermined threshold correspondence with an object and outputs of the identified image areas. In one embodiment, weights that indicate a confidence match with an object existence are assigned to certain identified features and applied quantitatively based on a feature slope in the image area. Likewise, weights may be applied to salient areas, image areas associated with a movement, and image areas containing previously identified objects. The weights associated with the image areas may be summed, with the image areas corresponding to a threshold weight being derived from the module 112 for a motion analysis and a salient area detection. In one embodiment, each extracted feature, the image regions associated with a motion, the objects identified in a previous time step, and the non-bottom image regions are merged together. The image areas associated with a threshold of merged pixels are derived from the module 112 for movement analysis and detection of a salient area.

6 zeigt ein beispielhaftes Steuerschema 600 zum Identifizieren von hervorstechenden Bildbereichen und Bildbereichen, die einer Bewegung zugeordnet sind, unter Verwendung von hierin oben beschriebenen Verfahren gemäß der vorliegenden Offenbarung. Das Steuerschema 600 ist in 6 gezeigt und hierin als diskrete Elemente umfassend beschrieben. Diese Darstellung dient der Vereinfachung der Beschreibung und es sei angemerkt, dass die durch diese Elemente ausgeführten Funktionen in einer oder mehreren Einrichtungen kombiniert sein können, z. B. realisiert in Software, Hardware und/oder einer anwendungsspezifischen integrierten Schaltung. Bei einer Ausführungsform ist das Steuerschema 600 in dem Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets realisiert. 6 shows an exemplary control scheme 600 for identifying salient image areas and image areas associated with movement using methods described hereinabove in accordance with the present disclosure. The control scheme 600 is in 6 and described herein as comprising discrete elements. This description is to simplify the description and it should be noted that the functions performed by these elements may be combined in one or more devices, e.g. B. realized in software, hardware and / or an application-specific integrated circuit. In one embodiment, the control scheme is 600 in the module 112 realized for a movement analysis and a detection of a salient area.

Das Steuerschema 600 gibt kontinuierlich modifizierte Bilder, die unter Verwendung der hierin oben beschriebenen Kameradaten und Entfernungssensordaten erzeugt werden, ein und überwacht diese 602. Unter Verwendung von in der Technik bekannten oder hierin beschriebenen Verfahren ermittelt das Steuerschema 600 eine Kantenabbildung 604, eine Eckenabbildung unter Verwendung des Harris-Eckendetektionsalgorithmus 606 und eine Lucas-Kanade-Abbildung eines optischen Flusses 608. Es sei angemerkt, dass die Schritte 604 bis 608 Muster in dem Bild identifizieren, die wahrscheinlich Objekte umfassen, die von dem Boden oder einer Fahrbahn unterscheidbar sind, auf dem oder der das Fahrzeug fahren kann. Durch in der Technik bekannte Verfahren, die eine Analyse von Pixel-Eigenschaften und eine Analyse von Gebieten des Bilds, die Faktoren wie beispielsweise eine Farbe und Linienmuster beschreiben, umfassen, können Gebiete des Bilds, die wahrscheinlich den Boden um fassen, identifiziert werden. Durch Vergleichen dieses Gebiets oder dieser Gebiete mit den identifizierten Gebieten mit Mustern, die Objekte beschreiben, kann eine Ermittlung vorgenommen werden, um Bereiche oder Gebiete des Bilds zu definieren, die wahrscheinlich einen Boden umfassen und keine zu verfolgenden Objekte angeben. Der Prozess 600 definiert Bereiche, die den Boden angeben 610, auf der Grundlage des eingegebenen modifizierten Bilds wie hierin oben beschrieben. Die in einer a priori-Iteration identifizierten Objekte werden wie hierin oben beschrieben an dem modifizierten Bild projiziert 612. Die Kantenabbildung, die Eckenabbildung, die Lucas-Kanade-Abbildung eines optischen Flusses, die Bildbereiche, die nicht dem Boden entsprechen, und die projizierten Objekte werden vereinigt, um Bildbereiche an dem modifizierten Bild zu identifizieren, die einem Objekt entsprechen 614.The control scheme 600 inputs and monitors continuously modified images generated using the camera data and range sensor data described hereinabove 602 , Using control techniques known in the art or described herein, the control scheme determines 600 an edge illustration 604 , a corner map using the Harris corner detection algorithm 606 and a Lucas-Kanade image of an optical flow 608 , It should be noted that the steps 604 to 608 Identify patterns in the image that are likely to include objects that are distinguishable from the ground or a lane on which the vehicle can travel. By methods known in the art, including analysis of pixel characteristics and analysis of areas of the image describing factors such as color and line patterns, areas of the image that are likely to encompass the floor may be identified. By comparing this area or areas with the identified areas with patterns describing objects, a determination can be made to define areas or areas of the image that are likely to include ground and indicate no objects to track. The process 600 defines areas that indicate the ground 610 on the basis of the input modified image as described hereinabove. The objects identified in an a priori iteration are projected on the modified image as described hereinabove 612 , The edge map, the corner map, the Lucas-Kanade optical flow map, the non-ground image areas, and the projected objects are merged to identify image areas on the modified image that correspond to an object 614 ,

Wieder auf 5 Bezug nehmend gibt das Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets nach dem Identifizieren von Bildbereichen an dem modifizierten Bild die Objektposition (P) und die identifizierten Bildbereiche, die einen definierten Bereich von Merkmalen (I) umfassen, für eine weitere Analyse an ein Merkmalsextraktionsmodul 114 aus. Das Merkmalsextraktionsmodul 114 analysiert den Bildbereich durch Anwenden bekannter Merkmalsidentifikationsalgorithmen auf das Stück. Die Merkmalsidentifikationsalgorithmen durchsuchen die verfügbare visuelle Information hinsichtlich charakteristischer Muster in dem Bildbereich, der einem Objekt zugeordnet ist, einschließlich Merkmalen, die durch eine Linienausrichtung, einen Linienort, eine Farbe, Eckeneigenschaften, andere visuelle Attribute und gelernte Attribute definiert sind. Bei einer Ausführungsform können die Merkmalsidentifikationsalgorithmen auf sequentielle Bilder angewandt werden, um Änderungen zu identifizieren, die einer Fahrzeugbewegung entsprechen, wobei die Änderungen, die nicht einer Bodenbewegung zugeordnet sind, als nicht freier Pfad identifiziert werden können. Das Merkmalsextraktionsmodul 114 überwacht die Bildbereiche des modifizierten Bilds und ermittelt einen Merkmalsdeskriptor für jeden Bildbereich. Der Merkmalsdeskriptor kann unter Verwendung von Merkmalsextraktionsalgorithmen und Transformationen, wie beispielsweise ein Histogramm vorbestimmter Unterscheidungsmerkmale, wie beispielsweise vertikale Kanten, Symmetrie, ein Gradientenorientierungshistogramm (HOG), und unter Verwendung einer Projektion auf einen linearen Subraum, z. B. eine Hauptkomponentenanalyse, ermittelt werden. Durch in der Technik bekannte Verfahren, wie beispielsweise Haar-Wavelet, Gabor-Wavelet und Leung-Malik-Filterbank, können zusätzliche Unterscheidungsmerkmale definiert werden.Back on 5 Referring to the module gives 112 for motion analysis and salient area detection, after identifying image areas on the modified image, the object position (P) and the identified image areas comprising a defined range of features (I) for further analysis to a feature extraction module 114 out. The feature extraction module 114 analyzes the image area by applying known feature identification algorithms to the piece. The feature identification algorithms search the available visual information for characteristic patterns in the image area associated with an object, including features defined by line orientation, line location, color, corner properties, other visual attributes, and learned attributes. In one embodiment, the feature identification algorithms may be applied to sequential images to identify changes corresponding to vehicle movement, wherein the changes that are not associated with ground movement may be identified as a non-free path. The feature extraction module 114 monitors the image areas of the modified image and determines a feature descriptor for each image area. The feature descriptor may be constructed using feature extraction algorithms and transformations, such as a histogram of predetermined distinguishing features, such as vertical edges, symmetry, a gradient orientation histogram (HOG), and using a linear subspace projection, e.g. B. a principal component analysis can be determined. By methods known in the art, such as Haar wavelet, Gabor wavelet and Leung-Malik filter bank, additional distinguishing features can be defined.

Das Klassifizierungsmodul 116 analysiert jeden Bildbereich und ordnet jedem identifizierten Objekt und zugeordneten Bildbereichen auf der Grundlage eines vorab trainierten Klassifizierers ein Kennzeichen (L) zu. Das Klassifizierungsmodul 116 nimmt die extrahierten Merkmale und die vorherigen identifizierten Objekte (a priori) und die zugeordneten Daten, die eine Position, einen Bildbereich und ein Klassifizierungskennzeichen umfassen, welche für den momentanen Zeitschritt in einem Vorhersageprozessmodul 117 aktualisiert werden, als Eingang, und führt sie einem Klassifizierer zu, um zu ermitteln, ob ein Bildbereich ein Objekt umgibt. Die Klassifizierung ermittelt das Kennzeichen jedes identifizierten Objekts gemäß einer beliebigen Anzahl von Klassifizierern. Beispielhafte Klassifizierungen umfassen z. B. ein sich schnell bewegendes Objekt, wie beispielsweise ein Fahrzeug in Bewegung, ein sich langsam bewegendes Objekt, wie beispielsweise ein Fußgänger, und ein stationäres Objekt, wie beispielsweise ein Verkehrsschild. Das Klassifizierungsmodul 116 verwendet statistische Klassifiziererverfahren mit Trainings-Klassifizierung für eine Entsprechung mit Merkmalen oder Attributen in dem Bildbereich unter Verwendung einer signifikanten Anzahl von Objekt- und Nicht-Objekt-Bildabtastwerten. Die Entsprechung gelernter Attribute mit Merkmalen in dem Bildbereich kann durch Maschinenlernalgorithmen in dem Fahrzeug gelernt werden, wird jedoch zumeist offline programmiert und kann experimentell, empirisch, prädiktiv, durch eine Modellerstellung oder andere Techniken entwickelt werden, die geeignet sind, um Unterscheidungsattribute genau zu trainieren. Diese Attribute ermöglichen dem Steuerschema, eine Konfidenz zwischen Null und Eins zu entwickeln, dass die in dem Bildbereich identifizierten Merkmale einem vorbestimmten klassifizierten Objekt entsprechen. Es kann eine Schwellenwertkonfidenz festgelegt werden, die die Konfidenz definiert, die erforderlich ist, um einen bestimmten Bildbereich als ein Objekt angebend zu identifizieren.The classification module 116 analyzes each image area and assigns a tag (L) to each identified object and associated image areas based on a pre-trained classifier. The classification module 116 takes the extracted features and the previously identified objects (a priori) and the associated data comprising a position, an image area, and a classification flag, which for the current time step in a prediction process module 117 to be updated as an input, and passes it to a classifier to determine if an image area is surrounding an object. The classification determines the tag of each identified object according to any number of classifiers. Exemplary classifications include e.g. A moving object, such as a moving vehicle, a slow moving object, such as a pedestrian, and a stationary object, such as a traffic sign. The classification module 116 uses statistical classifier methods with training classification for correspondence with features or attributes in the image area using a significant number of object and non-object image samples. The correspondence of learned attributes with features in the image area may be described by Ma however, for the most part, it is programmed offline and can be developed experimentally, empirically, predictively, through modeling, or other techniques suitable for accurately training distinguishing attributes. These attributes allow the control scheme to develop a confidence between zero and one that the features identified in the image area correspond to a predetermined classified object. A threshold confidence can be set that defines the confidence required to identify a particular image area as an object.

Eines mehrerer Verfahren kann verwendet werden, um trainierte Klassifizierer auf die von den Bildbereichen extrahierten Merkmale anzuwenden. Ein erstes Verfahren analysiert die Merkmale unter Verwendung eines Trainingssatzes von Bildern. Eine Information von den trainierten Klassifizierern wird verwendet, um das Merkmal als ein bestimmtes Objekt angebend zu klassifizieren oder zu gewichten, wobei die bestimmte Klassifizierung von der Stärke von Vergleichen mit den trainierten Daten abhängt. Eine Klassifizierung des Merkmals, wenn das Merkmal das einzige Merkmal in dem Bildbereich ist, kann direkt auf den Bildbereich angewandt werden. Eine Klassifizierung eines Bildbereichs mit mehreren identifizierten Merkmalen kann viele Formen annehmen, die den Bildbereich, der durch das umfasste Merkmal definiert wird, das den Bildbereich, der einem bestimmten Objekt entspricht, am stärksten angibt, oder den Bildbereich, der durch eine gewichtete Summe aller darin umfassten Merkmale definiert ist, umfassen.One Several methods can be used to train classifiers apply to the features extracted from the image areas. A first method analyzes the features using a Training set of pictures. An information from the trained Classifiers are used to identify the characteristic as a particular Specifying or weighting object specifying the particular Classification of the strength depends on comparisons with the trained data. A classification of the Feature, if the feature is the only feature in the image area is, can be applied directly to the image area. A classification An image area with multiple identified features can have many Take shapes that represent the image area covered by the feature defines the image area of a given object corresponds, the strongest indicates, or the image area, by a weighted sum of all Characteristics defined therein include.

Ein zusätzliches Verfahren, das zum Anwenden trainierter Klassifizierer auf die von den Bildbereichen extrahierten Merkmale zum Identifizieren und Klassifizieren eines Objekts in den Bildbereichen verwendet wird, umfasst das Verwenden einer Stützvektormaschine (SVM von support vector machine) und eines neuronalen Netzes. Wie ein Fachmann erkennen wird, sind künstliche neuronale Netze oder neuronale Netze Computersysteme, die für eine komplexe und adaptierbare Entscheidungsfindung erzeugt werden. Während herkömmliche Rechenmittel auf einer sequentiellen Verarbeitung von Daten durch einen Algorithmus, der vorhersagbare Ergebnisse liefert, basieren, ist bekannt, dass neuronale Netze Daten in aufeinander folgenden Schichten und parallelen Pfaden innerhalb jeder Schicht durch wechselnde Knoten verarbeiten. Das neuronale Netz wird anfänglich mit Daten trainiert, die einen bekannten Satz von Ergebnissen liefern. Als Ergebnis dieses Trainings werden Gewichte zwischen den Schichten und unter den Knoten angewandt, wobei sich das Netz automatisch an die Trainingsdaten anpasst und die Gewichte einstellt, um ein näheres Modell für die Daten zu erstellen. Bei einer späteren Verwendung kann das neuronale Netz die Trainingsanpassungen beibehalten und sie über die Lebensdauer des Netzes anwenden, oder das Netz kann verschiedene bekannte Verfahren zum Lernen von laufenden Datenmustern einsetzen. Durch Trainieren und Abstimmen eines neuronalen Netzes können Eingangsdaten, die mehrere identifizierte Merkmale umfassen, analysiert werden, um Objekte in den Bildbereichen zu identifizieren und zu klassifizieren.One additional Method of applying trained classifiers to those of features extracted from the image areas for identification and classification of an object in the image areas includes using a support vector machine (SVM of support vector machine) and a neural network. As A person skilled in the art will recognize artificial neural networks or neural networks computer systems designed for a complex and adaptable Decision making are generated. While conventional computing means on a sequential processing of data by an algorithm that provides predictable results, it is known that neural Networks data in consecutive layers and parallel paths process within each layer by changing nodes. The neural network is initial trains with data that provides a known set of results. As a result of this training will be weights between the layers and applied under the nodes, with the network automatically adapts to the training data and adjusts the weights to a closer Model for to create the data. For later use, the neural Retain the training adjustments and use them over the To apply the life of the network, or the network can be different Use known methods for learning current data patterns. By training and tuning a neural network, input data, which include several identified characteristics, be analyzed, to identify and classify objects in the image areas.

Nach dem Ermitteln des Kennzeichens in dem Klassifizierungsmodul 116 kann ein Objekt in einem Eingangsbild entsprechend P, I und L gemäß den oben beschriebenen Verfahren beschrieben werden. Ein Datenzuordnungsmodul 118 analysiert die momentane Objektliste mit P, I und L, wobei die vorherigen Objekte (a priori) und die zugeordneten Daten, die eine Position, Bildbereichsmerkmale und ein Klassifizierungskennzeichen umfassen, für den momentanen Zeitschritt in dem Vorhersageprozessmodul 117 unter Verwendung eines Objektdynamikmodells aktualisiert werden. Das Datenzuordnungsmodul 118 bringt die momentanen identifizierten Objekte mit den vorherigen identifizierten Objekten in Übereinstimmung und gibt eine Liste von in Übereinstimmung gebrachten Objektmessungspaaren aus. Die vorherigen identifizierten Objekte werden unter Verwendung des Vorhersageprozessmoduls 117 wie hierin nachstehend beschrieben mit dem momentanen Zeitschritt aktualisiert.After determining the tag in the classification module 116 For example, an object in an input image corresponding to P, I and L may be described according to the methods described above. A data mapping module 118 analyzes the current object list with P, I and L, the previous objects (a priori) and the associated data comprising a position, picture area features and a classification flag for the current time step in the prediction process module 117 be updated using an object dynamics model. The data mapping module 118 matches the current identified objects with the previous identified objects and outputs a list of matched object measurement pairs. The previous identified objects are using the prediction process module 117 as described below with the current time step.

Durch Vergleichen eines Objekts (P, I und L) in einem zweiten Verfolgungszyklus, der ein zweites Eingangsbild analysiert, mit einem anderen Objekt (P, I und L) in einem ersten Verfolgungszyklus, der ein erstes Eingangsbild analysiert, kann ermittelt werden, ob sich die beiden Objekte wahrscheinlich auf das gleiche verfolgte Objekt in der Nähe des Fahrzeugs beziehen. Bei einem beispielhaften Verfahren kann die momentane Objektliste mit der vorhergesagten Objektliste unter Verwendung eines Unterschiedlichkeitsmaßes zwischen den Deskriptoren eines Objekts P, I und L in Übereinstimmung gebracht werden. Die Unterschiedlichkeit D(ôβ, xα) zwischen den beiden Objekten α und β ist wie folgt definiert: D(ôβ, xα) = wPd(P ^β, Pα) + wId(Îβ, Iα) + wLd(L ^β, Lα) [5]wobei d(P ^β, Pα) die Positionsdistanz zwischen den Objekten α und β, die verglichen werden, ist, d(Îβ, Iα) die Unterschiedlichkeit zwischen den beiden Objekten ist, berechnet als Distanz zwischen zwei entsprechenden Merkmalsdeskriptorvektoren, und

Figure 00290001
einen binären Faktor beschreibt, der die Kennzeichen der beiden Objekte vergleicht. wP, wI und wL sind Gewichte, die experimentell ermittelt und kalibriert werden. Durch Vergleichen der Position der verfolgten Objekte, der Bildmerkmale in der Nähe der verfolgten Objekte und der Kennzeichen der verfolgten Objekte kann geschätzt werden, ob die beiden Objekte das gleiche verfolgte Objekt in der Nähe des Fahrzeugs darstellen.By comparing one object (P, I and L) in a second tracking cycle analyzing a second input image with another object (P, I and L) in a first tracking cycle analyzing a first input image, it can be determined whether the two objects probably relate to the same tracked object near the vehicle. In an example method, the current object list may be matched with the predicted object list using a measure of difference between the descriptors of an object P, I, and L. The difference D (ô β , x α ) between the two objects α and β is defined as follows: Do β , x α ) = w P d (P ^ β , P α ) + w I d (I β , I α ) + w L d (L ^ β , L α ) [5] where d (P ^ β, P α) the position distance between the objects α and β, which are compared is, (β, i α) d is the difference between the two objects, calculated as the distance between two corresponding Merkmalsdeskriptorvektoren, and
Figure 00290001
describes a binary factor that compares the characteristics of the two objects. w P , w I and w L are weights that are experimentally determined and calibrated. By comparing the position of the tracked objects, the image features in the vicinity of the tracked objects, and the characteristics of the tracked objects, it can be estimated whether the two objects represent the same tracked object in the vicinity of the vehicle.

Im Betrieb wird ein α-tes vorhergesagtes Objekt von der vorhergesagten Objektliste (a priori) mit xα = (Iα, Pα, Lα) bezeichnet, wobei Iα ein Merkmalsdeskriptor des entsprechenden Bildstücks ist, Pα die Position des Objekts ist und Lα das Klassifizierungskennzeichen ist (z. B. Fahrzeug, Fußgänger, Motorrad, Fahrrad, Reh). Ein β-tes detektiertes momentanes Objekt wird mit ôβ = (Îβ, P ^β, L ^β) bezeichnet. Wenn die Unterschiedlichkeit D(ôβ, xα) kleiner als ein Schwellenwert ist, wird das beobachtete Objekt ôβ dem vorhergesagten Objekt xα zugeordnet.In operation, an α-th predicted object from the predicted object list (a priori) with x α = (I α, P α, L α), where I is α a feature descriptor of the corresponding image patch, P α is the position of the object and L α is the classification mark (eg vehicle, pedestrian, motorcycle, bicycle, deer). A β-th detected instantaneous object i, p ^ β, L ^ β) with β = ô designated. If the difference D (ô β , x α ) is less than a threshold, the observed object ô β is assigned to the predicted object x α .

Ein Objektverfolgermodul 119 überwacht den Ausgang des Datenzuordnungsmoduls 118, um aktualisierte Positionen und Geschwindigkeitsattribute der Objekte unter Verwendung einer Bank von Kalman-Filtern zu ermitteln. 7 zeigt schematisch das Objektverfolgermodul 119, das eine beispielhafte Bank von Kalman-Filtern 206 zeigt, die ausgestaltet sind, um die Position und Geschwindigkeit einer Gruppe von Objekten zu schätzen, gemäß der vorliegenden Offenbarung. Es werden verschiedene Filter für Objekte verwendet, die verschiedenen dynamischen Eigenschaften zugeordnet sind, wie beispielsweise Objekte, die mit konstanter Geschwindigkeit fahren, Objekte mit Manövern mit starker Längsrichtung, Objekte mit Manövern mit starker Querrichtung und stationäre Objekte. Es wird ein Markov-Entscheidungsprozess-Modell (MDP-Modell von Markov decision process model) 208 verwendet, um das Kalman-Filter mit dem größten gewichteten Wert auszuwählen, das für eine Entsprechung mit genauen Positionen und einer Geschwindigkeitsschätzung für das Objekt verwendet wird. Ein Auswählen eines Kalman-Filters unter Verwendung des Markov-Entscheidungsprozesses reduziert die Verfolgungslatenzzeit, was eine größere Kollisionsvorbereitungssystemfunktionalität ermöglicht. Das ausgewählte Kalman-Filter wird durch das Aktualisierungsobjektmodul 210 zum Aktualisieren der Objektdaten, die Position und Geschwindigkeit umfassen, verwendet.An object tracker module 119 monitors the output of the data mapping module 118 to determine updated positions and velocity attributes of the objects using a bank of Kalman filters. 7 schematically shows the tracker module 119 , which is an exemplary bank of Kalman filters 206 1, which are configured to estimate the position and velocity of a group of objects, according to the present disclosure. Different filters are used for objects associated with different dynamic properties, such as objects traveling at constant speed, objects with high-length maneuvers, objects with high-transverse maneuvers, and stationary objects. It becomes a Markov decision process model (MDP model by Markov decision process model) 208 is used to select the Kalman filter with the largest weighted value used for correspondence with exact positions and a speed estimate for the object. Selecting a Kalman filter using the Markov decision process reduces tracking latency, allowing greater collision preparation system functionality. The selected Kalman filter is passed through the update object module 210 to update the object data, which includes position and velocity.

Hierin ist ein beispielhafter Markov-Entscheidungsprozess in Bezug auf 7 und das Objektverfolgermodul 119 beschrieben. Der Markov-Entscheidungsprozess 208 wird verwendet, um ein Kalman-Filter aus der Bank von Kalman-Filtern 206 auszuwählen, um eine Position und Geschwindigkeit eines Objekts zu aktualisieren. Unter Verwendung eines ausgewählten i-ten Kaiman-Filters einer Bank von Kalman-Filtern 206 mit einer beliebigen Anzahl n wird zu einem momentanen Zeitschritt tk ein Objektzustand

Figure 00310001
in Bezug auf einen Merkmalsdeskriptor
Figure 00310002
, eine Position und Geschwindigkeit des Objekts
Figure 00310003
und ein Klassifizierungskennzeichen
Figure 00310004
ermittelt. Das ausgewählte i-te Kalman-Filter zeigte eine größte Wahrscheinlichkeit aller i-ten Kalman-Filter, den Objektzustand
Figure 00310005
genau zu ermitteln. Eine Markov-Übergangsmatrix T kann verwendet werden, um eine Wahrscheinlichkeit zu beschreiben, dass ein anderes Kalman-Filter den Objektzustand
Figure 00310006
zu einem zukünftigen Zeitschritt tk+1 genauer ermittelt. Daher stellt Tij eine Wahrscheinlichkeit dar, dass sich der Objektzustand
Figure 00310007
von einem i-ten Kalman-Filter zu einem j-ten Kalman-Filter zu einem Zeitschritt tk+1 ändert.Here is an exemplary Markov decision process with respect to 7 and the tracker module 119 described. The Markov Decision Process 208 is used to filter out a Kalman filter from the bank of Kalman filters 206 to update a position and speed of an object. Using a selected i th Kalman filter of a bank of Kalman filters 206 with an arbitrary number n, an object state becomes at a current time step t k
Figure 00310001
with respect to a feature descriptor
Figure 00310002
, a position and speed of the object
Figure 00310003
and a classification mark
Figure 00310004
determined. The selected i-th Kalman filter showed a greatest probability of all i-th Kalman filters, the object state
Figure 00310005
to determine exactly. A Markov transition matrix T can be used to describe a probability that another Kalman filter will be the object state
Figure 00310006
to a future time step t k + 1 determined more accurately. Therefore, T ij represents a probability that the object state
Figure 00310007
from an i-th Kalman filter to a j-th Kalman filter at a time step t k + 1 changes.

Die Wahrscheinlichkeiten werden durch einen Datenauswertungsprozess (data mining process), der an einer öffentlichen Straße gesammelte Verkehrsdaten verwendet, oder einfach durch heuristische Regeln vorbestimmt. Mit über eine im Wesentlichen lange Sequenz aufgezeichneten Fahrzeugdaten mehrerer Fahrzeuge wird jedes Fahrzeug

Figure 00320001
zu einem Zeitpunkt tk mit einem bestimmten Modell auf der Grundlage von Bodenwirklichkeitsdaten gekennzeichnet (gesammelt durch ein anderes Messverfahren, z. B. GPS-Daten). Dann kann die Übergangswahrscheinlichkeit Tij durch die folgende Beziehung ermittelt werden:
Figure 00320002
wobei
Figure 00320003
die Häufigkeit bezeichnet, dass ein Fahrzeugzustand zu einem Zeitschritt tk+1 zu einem Modell j gehört, und
Figure 00320004
die Häufigkeit bezeichnet, dass ein Fahrzeugzustand zu Zeitschritten tk bzw. tk+1 zu einem Modell i bzw. einem Modell j gehört.The probabilities are predetermined by a data mining process that uses traffic data collected on a public road, or simply by heuristic rules. With vehicle data of multiple vehicles recorded over a substantially long sequence, each vehicle becomes
Figure 00320001
at a time t k with a particular model based on ground reality data (collected by another measurement technique, eg GPS data). Then, the transition probability T ij can be determined by the following relationship:
Figure 00320002
in which
Figure 00320003
the frequency denotes that a vehicle state belongs to a model j at a time step t k + 1 , and
Figure 00320004
the frequency denotes that a vehicle state at time steps t k or t k + 1 belongs to a model i or a model j.

Hierin ist in Bezug auf 7 und das Objektverfolgermodul 119 ein beispielhafter Markov-Entscheidungsprozess beschrieben. Der Markov-Entscheidungsprozess 208 wird verwendet, um ein Kalman-Filter von der Bank von Kalman-Filtern 206 auszuwählen, um eine Position und Geschwindigkeit eines Objekts zu aktualisieren. Zu einem momentanen Zeitschritt tk wird ein Objektzustand

Figure 00320005
in Bezug auf einen Merkmalsdeskriptor
Figure 00320006
, eine Position und Geschwindigkeit des Objekts
Figure 00320007
und ein Klassifizierungskennzeichen
Figure 00320008
unter Verwendung eines ausgewählten i-ten Kaiman-Filters einer Bank von Kalman-Filtern 206 mit einer beliebi gen Anzahl n ermittelt. Das ausgewählte i-te Kalman-Filter zeigte eine größte Wahrscheinlichkeit aller i-ten Kalman-Filter, um den Objektzustand xk genau zu ermitteln.Here's in terms of 7 and the tracker module 119 an exemplary Markov decision process described. The Markov Decision Process 208 is used to filter a Kalman filter from the bank of Kalman filters 206 to update a position and speed of an object. At an instantaneous time step t k becomes an object state
Figure 00320005
in terms of a feature descriptor gate
Figure 00320006
, a position and speed of the object
Figure 00320007
and a classification mark
Figure 00320008
using a selected i th Kalman filter of a bank of Kalman filters 206 determined with any number n. The selected i-th Kalman filter showed a largest probability of all ith Kalman filters to accurately determine the object state x k .

Jedes Kalman-Filter ist ausgestaltet, um einen Objektzustand

Figure 00330001
zu einem momentanen Zeitschritt k in Bezug auf einen Merkmalsdeskriptor
Figure 00330002
, eine Position und Geschwindigkeit des Objekts
Figure 00330003
und ein Klassifizierungskennzeichen
Figure 00330004
auf der Grundlage des Ausgangs des Datenzuordnungsmoduls 118 und der Fahrzeugkinematikdaten, die Fahrzeuggeschwindigkeit und Gierrate von den Fahrzeugsensoren 204 umfassen, zu aktualisieren. Ferner ist jedes Kalman-Filter ausgestaltet, um eine Positionsmessung
Figure 00330005
auf der Grundlage von Messungen von den Entfernungserfassungseinrichtungen 14 und 16 und der Kamera 11 zu aktualisieren. Jedes i-te Kalman-Filter der unabhängigen Bank von n Kalman-Filtern 206 kann dargestellt werden mit:
Figure 00330006
wobei Ai und Bi Systemmatrizen des i-ten Kaiman-Filters sind,
Figure 00330007
einen Fahrzeugbedienereingang und Fahrzeugkinematikdaten, die z. B. eine Brems- und eine Gaspedalstellung, einen Lenkradwinkel und eine Fahrzeuggierrate umfassen, zu einem Zeitschritt tk darstellt, νi einen Modellerstellungsfehler für das i-te Modell bezeichnet, verteilt als Gauss-Wahrscheinlichkeitsverteilungsfunktion (WVF), d. h. νi = N(O, Qi), wobei Qi eine Kovarianzmatrix ist, Hi die Messmatrix für ein i-tes Kalman-Filter ist und ωi den Messfehler für das i-te Kalman-Filter bezeichnet, verteilt als Gauss-WVF, d. h. ωi = N(O, Ri), wobei Ri die Kovarianzmatrix des Messfehlers des i-ten Kalman-Filters ist.Each Kalman filter is designed to be an object state
Figure 00330001
at a current time step k with respect to a feature descriptor
Figure 00330002
, a position and speed of the object
Figure 00330003
and a classification mark
Figure 00330004
based on the output of the data mapping module 118 and the vehicle kinematics data, vehicle speed, and yaw rate from the vehicle sensors 204 include, update. Further, each Kalman filter is configured to take a position measurement
Figure 00330005
based on measurements from the rangefinders 14 and 16 and the camera 11 to update. Every i-th Kalman filter of the independent bank of n Kalman filters 206 can be displayed with:
Figure 00330006
where A i and B i are system matrices of the i th Kalman filter,
Figure 00330007
a vehicle operator input and vehicle kinematic data, e.g. At a time step t k , ν i denotes a model creation error for the ith model, distributed as a Gaussian Probability Distribution Function (WVF), ie, ν i = N (eg, a brake and an accelerator pedal position, a steering wheel angle and a vehicle yaw rate . O, Q i ), where Q i is a covariance matrix, H i is the measurement matrix for an ith Kalman filter, and ω i denotes the measurement error for the i-th Kalman filter, distributed as Gauss-WVF, ie, ω i = N (O, R i ), where R i is the covariance matrix of the measurement error of the ith Kalman filter.

Der Markov-Entscheidungsprozess 208 wählt ein Kalman-Filter aus, um den Objektzustand

Figure 00340001
und die Positionsmessung
Figure 00340002
zu aktualisieren, die im Vergleich zu den Gewichten aller Kalman-Filter einem größten Gewicht wi eines i-ten Kalman-Filters zugeordnet ist. Das Gewicht wi beschreibt eine Wahrscheinlichkeit, dass ein bestimmtes Kalman-Filter i den Objektzustand x genau ermittelt. Im Betrieb initiiert der Markov-Entscheidungsprozess 208 jedes Kalman-Filter für die Bank von Kalman-Filtern 206 mit gemischten Variablen, die das Gewicht w i / 0, den Mittelwert x ^ i / 0 und die Kovarianz P i / 0 umfassen. Die Kalman-Filter werden nach dem Empfangen einer neuen Messung zu einem Zeitpunkt k aktualisiert, wobei vorherige Schätzwerte verwendet werden, die zu einem vorherigen Zeitschritt tk-1 ermittelt werden und ein Gewicht
Figure 00340003
einen Mittelwert
Figure 00340004
und eine Kovarianzmatrix
Figure 00340005
für das i-te Kalman-Filter umfassen.The Markov Decision Process 208 selects a Kalman filter to set the object state
Figure 00340001
and the position measurement
Figure 00340002
which is associated with a largest weight w i of an i-th Kalman filter compared to the weights of all Kalman filters. The weight w i describes a probability that a specific Kalman filter i exactly determines the object state x. In operation, the Markov decision-making process initiates 208 every Kalman filter for the bank of Kalman filters 206 with mixed variables comprising the weight wi / 0, the mean x ^ i / 0 and the covariance P i / 0. The Kalman filters are updated after receiving a new measurement at a time k, using previous estimates obtained at a previous time step t k-1 and a weight
Figure 00340003
an average
Figure 00340004
and a covariance matrix
Figure 00340005
for the ith Kalman filter.

Unter Verwendung einer Übergangswahrscheinlichkeitsmatrix T, die wie hierin oben beschrieben ermittelt wird und auf der Grundlage der verglichenen Kalman-Filter ausgewählt wird, werden gemischte Variablen iterativ ermittelt. Die gemischten Variablen werden in die Bank von Kalman-Filtern 206 eingegeben. Für jedes Kalman-Filter i kann ein gemischter gewichteter Wert, der einen Zeitschritt k beschreibt, unter Verwendung der folgenden Beziehung ermittelt werden:

Figure 00350001
wobei Tij die Wahrscheinlichkeit darstellt, dass ein Objekt von einer bestimmten vorhergesagten Klassifizierung i, z. B. einer Klassifizierung eines stationären Objekts, in eine andere bestimmte Klassifizierung j, z. B. ein Fahren mit konstanter Geschwindigkeit, wechselt.Using a transition probability matrix T determined as described hereinabove and selected based on the compared Kalman filters, mixed variables are iteratively determined. The mixed variables will be in the bank of Kalman filters 206 entered. For each Kalman filter i, a mixed weighted value describing a time step k can be obtained using the following relationship:
Figure 00350001
where T ij represents the probability that an object will depend on a particular predicted classification i, e.g. B. a classification of a stationary object, in another specific classification j, z. B. driving at a constant speed, changes.

Für jedes Kalman-Filter kann unter Verwendung der folgenden Beziehung ein gemischter Mittelwert ermittelt werden.For each Kalman filter can use the following relationship mixed average.

Figure 00350002
Figure 00350002

Für jedes Kalman-Filter wird unter Verwendung einer Rückkopplung, die einen geschätzten Modellbedingungszustand und eine geschätzte Fehlerkovarianz umfasst, die unter Verwendung der hierin unten beschriebenen Beziehungen [19] und [20] bereitgestellt werden, iterativ ein gemischter Kovarianzwert ermittelt. Der gemischte Kovarianzwert kann unter Verwendung der folgenden Beziehung ermittelt werden.For each Kalman filter is using a feedback that has an estimated model condition and an estimated Includes error covariance using the methods described hereinbelow Relationships [19] and [20] are provided, iteratively a mixed one Covariance value determined. The mixed covariance value can be below Using the following relationship can be determined.

Figure 00350003
Figure 00350003

Nach dem Ermitteln der gemischten Variablen ermittelt die Bank von Kalman-Filtern die folgenden Beziehungen:

Figure 00360001
wobei Ai und Bi Systemmatrizen des i-ten Kalman-Filters sind;
Figure 00360002
einen Fahrzeugbedienereingang und Fahrzeugkinematikdaten, die z. B. eine Brems- und eine Gaspedalstellung, einen Lenkradwinkel und eine Fahrzeuggierrate umfassen, zu einem Zeitindex tk darstellt; Qi eine Kovarianzmatrix bezeichnet, die einen Modellvorhersagefehler für das i-te Kalman-Filter darstellt; Hi die Messmatrix für das i-te Kalman-Filter ist; I eine Identitätsmatrix darstellt;
Figure 00360003
eine Kalman-Verstärkung für das i-te Kalman-Filter zu einem Zeitschritt tk darstellt;
Figure 00360004
und
Figure 00360005
den geschätzten Mittelwert und die entsprechende Kovarianzmatrix für das Objekt zum Zeitschritt tk bezeichnen; und Ri eine Kovarianzmatrix bezeichnet, die einen Messfehler für das i-te Kalman-Filter darstellt.After determining the mixed variable, the bank of Kalman filters determines the following relationships:
Figure 00360001
where A i and B i are system matrices of the i-th Kalman filter;
Figure 00360002
a vehicle operator input and vehicle kinematic data, e.g. B. a brake and an accelerator pedal position, a steering wheel angle and a Fahrzeuggierrate include, represents a time index t k ; Q i denotes a covariance matrix representing a model prediction error for the ith Kalman filter; H i is the measurement matrix for the ith Kalman filter; I represents an identity matrix;
Figure 00360003
represents a Kalman gain for the i-th Kalman filter at a time step t k ;
Figure 00360004
and
Figure 00360005
denote the estimated mean and covariance matrix for the object at time step t k ; and R i denotes a covariance matrix representing a measurement error for the ith Kalman filter.

Es wird eine Wahrscheinlichkeitsanalyse verwendet, um eine Wahrscheinlichkeit zu ermitteln, dass ein i-tes Kalman-Filter mit momentanen Mess beobachtungen übereinstimmt. Die Wahrscheinlichkeitsanalyse wird unter Verwendung der folgenden Beziehung ausgeführt:

Figure 00370001
wobei γi ein Normalisierungskoeffizient ist, der verwendet wird, um die WVF auf 1 zu integrieren,
Figure 00370002
und
Figure 00370003
den geschätzten Mittelwert und die entsprechende Kovarianzmatrix bezeichnen, die hierin oben unter Verwendung der Beziehungen [12] und [13] ermittelt werden, und
Figure 00370004
A probability analysis is used to determine a probability that an i-th Kalman filter matches current measurement observations. The probability analysis is performed using the following relationship:
Figure 00370001
where γ i is a normalization coefficient used to integrate the WVF to 1,
Figure 00370002
and
Figure 00370003
denote the estimated mean and covariance matrix determined hereinabove using relationships [12] and [13], and
Figure 00370004

Nach dem Ausführen der Wahrscheinlichkeitsanalyse wird ein gewichteter Wert für die vorhergesagte Klassifizierung gemäß der folgenden Beziehung aktualisiert.

Figure 00370005
wobei
Figure 00370006
und Li in den Beziehungen [9] bzw. [17] berechnet werden.After performing the probability analysis, a weighted value for the predicted classification is updated according to the following relationship.
Figure 00370005
in which
Figure 00370006
and L i in relations [9] and [17], respectively.

Nach dem Aktualisieren des gewichteten Werts werden der geschätzte Modellbedingungszustand und die geschätzte Fehlerkovarianz unter Verwendung der folgenden Beziehungen ermittelt:

Figure 00380001
wobei
Figure 00380002
After updating the weighted value, the estimated model condition state and the estimated error covariance are determined using the following relationships:
Figure 00380001
in which
Figure 00380002

Die Beziehungen [19] und [20] sind der Schätzungsausgang einer Objektposition und -geschwindigkeit des Objektverfolgermoduls 119. Der Merkmalsdeskriptor und das Klassifizierungskennzeichnen, die den Objekten zugeordnet werden, bleiben von dem Datenzuordnungsmodul 118 unverändert. Die Ausgänge sind Eingänge in eine Objektverfolgungsdatenbank 113, die ausgestaltet ist, um eine Objektinformation zu speichern, die Objektverfolgungsdateien und entsprechende Bildbereiche und Klassifizierungskennzeichen umfasst. Die Objektinformation wird für einen iterativen Vergleich mit neuen Daten und für eine Vorhersage einer relativen Bewegung des Fahrzeugs, die auf ein wahrscheinliches oder unmittelbar bevorstehendes Kollisionsereignis hindeutet, gespeichert. Ferner können ein interessierendes Gebiet oder interessierende Gebiete, die zuvor ausgewählte Bildbereiche reflektieren, an das Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets, das die Bildbereichsidentifikation durchführt, weitergeleitet werden, um eine Kontinuität der Analyse von iterativen Sichtdaten bereitzustellen. Auf diese Weise werden Entfernungsdaten oder eine Entfernungsverfolgungsinformation der Bildebene überlagert, um die Schätzung zu verbessern.The relationships [19] and [20] are the estimation output of an object position and velocity of the object tracker module 119 , The feature descriptor and the classification tag associated with the objects remain of the data mapping module 118 unchanged. The outputs are inputs to an object tracking database 113 adapted to store object information comprising object tracking files and corresponding image areas and classification marks. The object information is stored for iterative comparison with new data and for predicting relative movement of the vehicle indicative of a likely or imminent collision event. Further, a region of interest or regions of interest reflecting previously selected image regions may be applied to the module 112 for motion analysis and salient area detection that performs image area identification, to provide continuity of analysis of iterative view data. In this way, distance data or distance tracking information is superimposed on the image plane to improve the estimation.

Nachdem das Datenvereinigungsmodul 110 Verfolgungsschätzwerte für Objekte in der Nähe des Fahrzeugs 10 erzeugt hat, werden die Objektverfolgungen dann in das Kollisionsgefahrenbewertungsmodul 120 eingegeben, wobei jede Verfolgung für eine Wahrscheinlichkeit für eine Kollision bewertet wird. Jede Objektverfolgung umfasst eine Mischung aus einer Gauss-Verteilung mit

Figure 00390001
wobei x ^i und Pi hierin in den Beziehungen [15] bzw. [16] beschrieben sind und wobei die Zeitindextiefstellung tk ignoriert wird. Diese Verteilung kann zufällig abgetastet werden, um einen Satz von Partikeln zu erhalten, der eine Wahrscheinlichkeitsverteilung des Objekts darstellt.After the data merging module 110 Pursuit estimates for objects near the vehicle 10 then the object traces will become the collision hazard evaluation module 120 where each track is evaluated for a probability of a collision. Each object tracking involves a mixture of a Gaussian distribution
Figure 00390001
where x ^ i and P i are described herein in relationships [15] and [16], respectively, and ignoring the time texture depression t k . This distribution can be sampled randomly to obtain a set of particles representing a probability distribution of the object.

Beispielsweise stellt für ein n-tes Objekt ein entsprechender Partikelsatz s = {x (ϛ) / n|ϛ = 1,..., M}, wobei M die Anzahl von Partikeln bezeichnet, die Wahrscheinlichkeitsverteilung war. Der ϛ-te Partikel x (ϛ) / n =(x (ϛ) / n, y (ϛ) / n, vx (ϛ) / n, vy (ϛ) / n), wobei die Längsverschiebung des n-ten Objekts ist, y (ϛ) / n die Querverschiebung ist, vx (ϛ) / n und vy (ϛ) / n die Längs- bzw. Quergeschwindigkeit des Objekts sind. Wenn sich das Objekt x auf dem Kollisionspfad befindet und die Zeitdauer bis zur Kollision (TTC) TTC(ϛ) = –x (ϛ) / n/vx (ϛ) / n kleiner als ein Schwellenwert ist (z. B. 2 Sekunden), wird der Partikel als Gefahr bezeichnet. Das Kollisionsgefahrenbewertungsmodul 120 ermittelt die Wahrscheinlichkeit für eine Kollision auf der Grundlage eines Prozentsatzes einer Anzahl von Gefahren pro einem Objekt zugeordneten Gesamtpartikeln. Die Wahrscheinlichkeit für eine Kollision wird an das Kollisionsgegenmaßnahmenmodul 150 ausgegeben.For example, for an nth object, a corresponding set of particles s = {x (ς) / n | ς = 1, ..., M}, where M denotes the number of particles that was probability distribution. The ς-th particle x (ς) / n = (x (ς) / n, y (ς) / n, vx (ς) / n, vy (ς) / n), where the longitudinal displacement of the nth object is, y (ς) / n is the lateral displacement, vx (ς) / n and vy (ς) / n are the longitudinal or lateral velocity of the object. If the object x is on the collision path and the time to collision (TTC) TTC (ς) = -x (ς) / n / vx (ς) / n is less than a threshold (eg 2 seconds) , the particle is called a danger. The collision hazard assessment module 120 determines the probability of a collision based on a percentage of a number of hazards per total particles associated with an object. The probability of a collision is sent to the collision countermeasure module 150 output.

Die Wahrscheinlichkeit für eine Kollision eines identifizierten Objekts wird durch ein Kollisionsgegenmaßnahmenmodul 150 analysiert. Diese Wahrscheinlichkeit für eine Kollision kann beispielsweise hinsichtlich einer Schwellenwertwahrscheinlichkeit für eine Kollision bewertet werden, und wenn eine Kollision als wahrscheinlich ermittelt wird, können Kollisionsgegenmaßnahmen initiiert werden. Wenn beispielsweise die Wahrscheinlichkeit für eine Kollision größer als ein Schwellenwert ist (z. B. 90%), stellt das Objekt eine unmittelbare Gefahr für das Host-Fahrzeug bereit und werden geeignete Kollisionsgegenmaßnahmen ausgeführt. Die Kollisionsgegenmaßnahmen können eine Sicherheitsgurtstraffung, einen Drosselleerlauf, ein automatisches Bremsen, eine Airbag-Vorbereitung, ein Anpassen der Kopfstützen, eine Hupen- und Scheinwerferaktivierung, eine Anpassung der Pedale oder der Lenksäule, Anpassungen auf der Grundlage einer geschätzten relativen Aufprallgeschwindigkeit, Anpassungen der Aufhängungssteuerung und Anpassungen von Stabilitätssteuersystemen umfassen. Eine Reaktion auf wahrscheinliche Kollisionsereignisse kann auf der Grundlage einer erhöhten Wahrscheinlichkeit skaliert werden. Beispielsweise kann ein leichtes automatisches Bremsen in dem Fall verwendet werden, dass eine geringe Schwellenwertwahrscheinlichkeit ermittelt wird, und können drastischere Maßnahmen in Ansprechen auf die Ermittlung einer hohen Schwellenwertwahrscheinlichkeit ergriffen werden.The probability of a collision of an identified object is determined by a collision countermeasure module 150 analyzed. For example, this probability of a collision may be evaluated in terms of a threshold probability for a collision, and if a collision is determined to be likely, collision countermeasures may be initiated. For example, if the probability of a collision is greater than a threshold (eg 90%), the object provides an immediate threat to the host vehicle and appropriate collision countermeasures are performed. The collision countermeasures may include seat belt tightening, throttle aging, automatic braking, air bag preparation, head restraint adjustment, horn and headlight activation, pedals or steering column adjustment, estimated relative impact velocity adjustments, suspension control adjustments, and the like Adjustments to stability control systems include. A response to likely collision events may be scaled based on an increased probability. For example, a slight automatic braking may be used in the event that a low threshold probability is determined, and more drastic measures may be taken in response to the determination of a high threshold probability.

Ferner sei angemerkt, dass eine verbesserte Genauigkeit des Beurteilens einer Wahrscheinlichkeit durch ein iteratives Trainieren der Alarmmodelle erreicht werden kann. Wenn beispielsweise ein Alarm ausgegeben wird, kann dem Fahrer durch eine Sprachaufforderung und eine Anfrage an einem Bildschirm oder durch ein beliebiges anderes Eingabeverfahren eine Überprüfungsoption bereitgestellt werden, die anfordert, dass der Fahrer bestätigt, ob der Alarm einer unmittelbar bevorstehenden Kollision angemessen war. Es ist eine Anzahl von Verfahren in der Technik bekannt, um korrekte Alarme, falsche Alarme oder verpasste Alarme anzupassen. Beispielsweise sind Maschinenlernalgorithmen in der Technik bekannt und können sie verwendet werden, um adaptiv eine Programmierung zu verwenden, die Gewichte und Gewichtungen alternativen Berechnungen in Abhängigkeit von der Natur der Rückmeldung zuordnet. Ferner kann eine Fuzzy-Logik verwendet werden, um Eingänge in ein System gemäß skalierbaren Faktoren auf der Grundlage einer Rückmeldung zu konditionieren. Auf diese Weise kann eine Genauigkeit des Systems über der Zeit und basierend auf den bestimmten Fahrgewohnheiten eines Bedieners verbessert werden.Further It should be noted that improved accuracy of judgment a probability by iteratively training the alarm models can be achieved. For example, if an alarm is issued, can contact the driver through a voice prompt and a request a screen or by any other input method a review option be provided, which requests that the driver confirms whether the alarm of imminent collision appropriate was. There are a number of methods known in the art correct alarms, false alarms or missed alarms. For example, machine learning algorithms are known in the art and can they are used to adaptively use a programming the weights and weights are dependent on alternative calculations from the nature of the feedback assigns. Furthermore, fuzzy logic can be used to input in System according to scalable Condition factors based on feedback. In this way, the accuracy of the system over the Time and based on the specific driving habits of an operator be improved.

8 zeigt beispielhafte einer entsprechenden Bildebene überlagerte Entfernungsdaten gemäß der vorliegenden Offenbarung. Die schraffierten Balken sind die Radarverfolgungen, die dem Bild einer nach vorn gerichteten Kamera überlagert sind. Wie hierin oben beschrieben extrahiert das Modul 112 für eine Bewegungsanalyse und eine Detektion eines hervorstechenden Gebiets die Bildbereiche, die die Entfernungssensorverfolgungen umgeben. Das Merkmalsextraktionsmodul 114 berechnet den Merkmalsdeskriptor der Bildbereiche. Das Klassifizierungsmodul 116 nimmt die extrahierten Merkmale als Eingang her und führt sie einem Klassifizierer zu, um zu ermitteln, ob ein Bildbereich ein Objekt umgibt. Die Klassifizierung ermittelt das Kennzeichen jedes Bildbereichs. Beispielsweise werden in 8 die Kasten A und B als Fahrzeuge identifiziert, während der nicht bezeichnete Kasten als Objekt am Straßenrand identifiziert wird. Das Vorhersageprozessmodul 117 verwendet eine Information des Objekts aus der Vergangenheit (d. h. Position, Bildstück und Kennzeichen eines vorherigen Zyklus) und sagt die momentanen Werte vorher. Das Datenzuordnungsmodul 118 verbindet die momentanen Messungen mit den vorhergehenden Objekten oder ermittelt, ob die Quelle einer Messung (d. h. Position, Bildstück und Kennzeichen) von einem spezifischen Objekt stammt. Das Objektverfolgermodul 119 erzeugt aktualisierte Positionen für die Objekte für eine Speicherung in der Objektverfolgungsdatenbank 113. 8th FIG. 12 shows exemplary range data superimposed on a corresponding image plane in accordance with the present disclosure. FIG. The hatched bars are the radar tracks superimposed on the image of a front-facing camera. As described hereinabove, the module extracts 112 for motion analysis and salient area detection, the image areas surrounding the range sensor tracks. The feature extraction module 114 calculates the feature descriptor of the image areas. The classification module 116 takes the extracted features as input and passes them to a classifier to determine if an image area is surrounding an object. The classification determines the indicator of each screen area. For example, in 8th the boxes A and B are identified as vehicles, while the unmarked box is identified as an object on the roadside. The prediction process module 117 uses information of the object from the past (ie position, image piece and flag of a previous cycle) and predicts the current values. The data mapping module 118 connects the current measurements to the previous objects or determines if the source of a measurement (ie, position, image piece, and label) is from a specific object. The object tracker module 119 creates updated locations for the objects for storage in the object tracking database 113 ,

Die Offenbarung beschrieb bestimmte bevorzugte Ausführungsformen und Abwandlungen dieser. Weitere Abwandlungen und Änderungen können für Dritte beim Lesen und Verstehen der Beschreibung ersichtlich werden. Daher soll die Offenbarung nicht auf die bestimmte(n) Ausführungsform(en) beschrankt sein, die als die beste Ausführungsart offenbart ist/sind, die zur Ausführung dieser Offenbarung in Betracht gezogen wird, sondern die Offenbarung soll alle Ausführungsformen umfassen, die in den Schutzumfang der beigefügten Ansprüche fallen.The Revelation has described certain preferred embodiments and modifications this. Other modifications and changes may be made for others to read and understand the description will be apparent. Therefore, the revelation not to the specific embodiment (s) which is / are the best embodiment, to the execution This revelation is considered, but the revelation should all embodiments include, which fall within the scope of the appended claims.

Claims (19)

Verfahren zum Steuern eines Fahrzeugbetriebs während eines dynamischen Fahrzeugereignisses, wobei das Verfahren umfasst, dass ein erstes Eingangsbild überwacht wird; ein erstes verfolgtes Objekt in dem ersten Eingangsbild in einem ersten Verfolgungszyklus überwacht wird; ein zweites Eingangsbild überwacht wird; ein zweites verfolgtes Objekt in dem zweiten Eingangsbild in einem zweiten Verfolgungszyklus überwacht wird; ein Unterschiedlichkeitsmaß ermittelt wird, das das erste verfolgte Objekt mit dem zweiten verfolgten Objekt vergleicht, wobei das Unterschiedlichkeitsmaß abschätzt, ob das erste verfolgte Objekt und das zweite verfolgte Objekt ein einzelnes verfolgtes Objekt in der Nähe des Fahrzeugs darstellen; das erste verfolgte Objekt und das zweite verfolgte Objekt auf der Grundlage des Unterschiedlichkeitsmaßes zugeordnet werden; und die zugeordneten Objekte in einem Kollisionsvorbereitungssystem verwendet werden, um den Betrieb des Fahrzeugs zu steuern.Method for controlling a vehicle operation while a dynamic vehicle event, the method comprising that a first input image is monitored; a first monitored tracked object in the first input image in a first tracking cycle becomes; a second input image is monitored; a second one tracked object in the second input image monitored in a second tracking cycle becomes; a difference measure is determined, which is the first compares the tracked object with the second tracked object, where the degree of difference estimates whether the first tracked object and the second tracked object a single tracked object nearby represent the vehicle; the first tracked object and the second tracked object assigned based on the difference measure become; and the associated objects in a collision preparation system used to control the operation of the vehicle. Verfahren nach Anspruch 1, das ferner umfasst, dass in dem ersten Eingangsbild das erste verfolgte Objekt ermittelt wird; eine Position in dem ersten Eingangsbild des ersten verfolgten Objekts ermittelt wird; Merkmale in dem ersten Eingangsbild in der Nähe des ersten verfolgten Objekts definiert werden; ein erstes Kennzeichen ermittelt wird, das eine wahrscheinliche Klassifizierung des ersten verfolgten Objekts beschreibt; in dem zweiten Eingangsbild das zweite verfolgte Objekt ermittelt wird; eine Position in dem zweiten Eingangsbild des zweiten verfolgten Objekts ermittelt wird; Merkmale in dem zweiten Eingangsbild in der Nähe des zweiten verfolgten Objekts definiert werden; ein zweites Kennzeichen ermittelt wird, das eine wahrscheinliche Klassifizierung des zweiten verfolgten Objekts beschreibt; und wobei das Ermitteln des Unterschiedlichkeitsmaßes, das das erste verfolgte Objekt mit dem zweiten verfolgten Objekt vergleicht, umfasst, dass die Positionen jedes der verfolgten Objekte, die Merkmale in der Nähe jedes der verfolgten Objekte und die Kennzeichen verglichen werden.The method of claim 1, further comprising determining, in the first input image, the first tracked object; determining a position in the first input image of the first tracked object; Defining features in the first input image near the first tracked object; determining a first tag that describes a likely classification of the first tracked object; in the second input image, the second tracked object is detected; determining a position in the second input image of the second tracked object; Defining features in the second input image in the vicinity of the second tracked object; determining a second tag describing a likely classification of the second tracked object; and wherein determining the measure of difference comparing the first tracked object with the second tracked object comprises comparing the positions of each of the tracked objects, the features proximate each of the tracked objects, and the tags. Verfahren nach Anspruch 2, wobei die Wahrscheinlichkeitsklassifizierungen ein sich schnell bewegendes Objekt, ein sich langsam bewegendes Objekt und ein stationäres Objekt umfassen.The method of claim 2, wherein the probability classifications a fast-moving object, a slowly moving one Object and a stationary Object include. Verfahren nach Anspruch 2, das ferner umfasst, dass Entfernungssensordaten, die jedem der Eingangsbilder entsprechen, überwacht werden; und wobei das Ermitteln der verfolgten Objekte in den Eingangsbildern auf den Entfernungssensordaten basiert, die jedem der Eingangsbilder entsprechen.The method of claim 2, further comprising Range sensor data, which correspond to each of the input images; and in which determining the tracked objects in the input images the range sensor data based on each of the input images correspond. Verfahren nach Anspruch 2, wobei das zweite Kennzeichen auf dem ersten Kennzeichen basiert.The method of claim 2, wherein the second identifier based on the first license plate. Verfahren nach Anspruch 2, wobei das Ermitteln der verfolgten Objekte in den Eingangsbildern umfasst, dass hervorstechende Bildbereiche und einer Bewegung zugeordnete Bereiche in jedem der Bilder identifiziert werden.The method of claim 2, wherein determining the tracked objects in the input images includes that salient Image areas and areas associated with a movement in each of the Pictures are identified. Verfahren nach Anspruch 6, wobei das Identifizieren von hervorstechenden Bildbereichen und einer Bewegung zugeordneten Bereichen in jedem der Bilder umfasst, dass eine Kantenabbildung ermittelt wird; eine Eckenabbildung ermittelt wird; eine Lucan-Kanade-Abbildung eines optischen Flusses ermittelt wird; ein Bereich des Eingangsbilds, der einen Boden angibt, ermittelt wird; und die hervorstechenden Bildbereiche und die einer Bewegung zugeordneten Bereiche, die auf der Kantenabbildung, der Eckenabbildung, der Lucan-Kanade-Abbildung eines optischen Flusses und dem Bereich des Eingangsbilds, der einen Boden angibt, basieren, identifiziert werden.The method of claim 6, wherein the identifying associated with salient picture areas and a movement Areas in each of the pictures includes that an edge illustration is determined; a corner image is detected; a Lucan-Kanade image of an optical flow is detected; one Range of the input image indicating a ground is determined; and the salient image areas and those of a movement associated areas that are on the edge map, the corner image, Lucan-Kanade picture of an optical river and area of the input image indicating a ground are identified become. Verfahren nach Anspruch 7, wobei das Identifizieren von hervorstechenden Bildbereichen und einer Bewegung zugeordneten Bereichen ferner umfasst, dass eine Objektinformation von einem vorherigen Eingangsbild an dem Eingangsbild projiziert wird; und wobei das Identifizieren der hervorstechenden Bildbereiche und der einer Bewegung zugeordneten Bereiche ferner auf dem Pro jizieren der Objektinformation von dem vorherigen Eingangsbild basiert.The method of claim 7, wherein identifying associated with salient picture areas and a movement Areas further comprises that an object information of a the previous input image is projected on the input image; and wherein identifying the salient image areas and the areas associated with movement further on the pro ject the object information is based on the previous input image. Verfahren nach Anspruch 1, wobei das erste Objekt a priori für einen Vergleich mit dem zweiten Objekt ausgewählt wird.The method of claim 1, wherein the first object a priori for a comparison with the second object is selected. Verfahren nach Anspruch 1, das ferner umfasst, dass die zugeordneten verfolgten Objekte mit einer Bank von Kalman-Filtern analysiert werden; und wobei das Verwenden der zugeordneten verfolgten Objekte in dem Kollisionsvorbereitungssystem umfasst, dass die analysierten zugeordneten verfolgten Objekte verwendet werden.The method of claim 1, further comprising the associated tracked objects with a bank of Kalman filters to be analyzed; and wherein using the associated tracked objects in the collision preparation system comprises the analyzed associated tracked objects are used. Verfahren nach Anspruch 10, wobei das Analysieren der zugeordneten Objekte mit einer Bank von Kalman-Filtern umfasst, dass eine Geschwindigkeit und eine Gierrate des Fahrzeugs überwacht werden; die Bank von Kalman-Filtern auf die zugeordneten Objekte und die Geschwindigkeit und Gierrate des Fahrzeugs angewandt wird; und ein Markov-Entscheidungsprozess an dem Ausgang von der Bank von Kalman-Filtern verwendet wird, um die analysierten zugeordneten Objekte zu erzeugen.The method of claim 10, wherein analyzing comprising associated objects with a bank of Kalman filters, that monitors a speed and a yaw rate of the vehicle become; the bank of Kalman filters on the assigned objects and the speed and yaw rate of the vehicle is applied; and a Markov decision process on the output from the Bank of Kalman filters used is assigned to the analyzed To create objects. Verfahren zum Steuern eines Fahrzeugs, das während eines dynamischen Fahrzeugereignisses betrieben wird, wobei das Verfahren umfasst, dass eine Entfernungssensorinformation und eine Sichtsysteminformation überwacht werden; die Entfernungssensorinformation der Sichtsysteminformation überlagert wird, um ein modifiziertes Bild zu erzeugen; hervorstechende Bildbereiche in dem modifizierten Bild unter Verwendung einer Kantendetektion, einer Eckendetektion und einer Detektion eines optischen Flusses identifiziert werden; die hervorstechenden Bildbereiche, die dem Boden entsprechen, ausgeschlossen werden; iterativ Objekte in einem Fahrzeugsichtfeld unter Verwendung der hervorstechenden Bildbereiche identifiziert werden, was umfasst, dass ein erstes Objekt in dem Fahrzeugsichtfeld unter Verwendung der hervorstechenden Bildbereiche in einem ersten Zeitschritt identifiziert wird und ein zweites Objekt in dem Fahrzeugsichtfeld unter Verwendung der hervorstechenden Bildbereiche in einem nachfolgenden Zeitschritt identifiziert wird; eine Position des ersten Objekts in dem nachfolgenden Zeitschritt vorhergesagt wird; das erste Objekt mit dem zweiten Objekt auf der Grundlage eines Vergleichens der vorhergesagten Position des ersten Objekts und des identifizierten zweiten Objekts in Übereinstimmung gebracht wird; Objektverfolgungen der in Übereinstimmung gebrachten Objekte ermittelt werden; eine Wahrscheinlichkeit für eine Kollision zwischen jedem der in Übereinstimmung gebrachten Objekte und dem Fahrzeug auf der Grundlage der Objektverfolgungen ermittelt wird; und das Fahrzeug auf der Grundlage der Wahrscheinlichkeit für eine Kollision gesteuert wird.A method of controlling a vehicle operating during a dynamic vehicle event, the method comprising monitoring range sensor information and vision system information; superimposing the range sensor information of the vision system information to produce a modified image; salient image areas in the modified image are identified using edge detection, corner detection, and optical flow detection; the prominent image areas corresponding to the floor are excluded; iteratively identifying objects in a vehicle field of view using the salient image areas, comprising identifying a first object in the vehicle field of view using the salient image areas in a first time step and a second object in the vehicle field of view using the salient image areas in a subsequent time step is identified; a position of the first object is predicted in the subsequent time step; matching the first object with the second object based on comparing the predicted position of the first object and the identified second object; Object tracking of the matched objects are determined; determining a probability of a collision between each of the matched objects and the vehicle based on the object pursuits; and the vehicle is controlled based on the probability of a collision. System zum Betreiben eines Kollisionsvorbereitungssystems in einem Fahrzeug, wobei das System umfasst: ein Sichtsystem; ein Entfernungssensorsystem; und ein Steuermodul, das Daten von dem Entfernungssensor und Bilder von dem Sichtsystem überwacht; iterativ Objekte in einem Fahrzeugsichtfeld auf der Grundlage der Entfernungssensordaten und der Bilder identifiziert, was umfasst, dass ein erstes Objekt in dem Fahrzeugsichtfeld unter Verwendung der Entfernungssensordaten und der Bilder in einem ersten Zeitschritt identifiziert wird und ein zweites Objekt in dem Fahrzeugsichtfeld unter Verwendung der Entfernungssensordaten und der Bilder in einem nachfolgenden Zeitschritt identifiziert wird, eine Position des ersten Objekts in dem nachfolgenden Zeitschritt vorhersagt, das erste Objekt und das zweite Objekt auf der Grundlage der vorhergesagten Position des ersten Objekts zuordnet, eine Objektverfolgung der zugeordneten Objekte ermittelt, eine Wahrscheinlichkeit für eine Kollision zwischen den zugeordneten Objekten und dem Fahrzeug auf der Grundlage der Objektverfolgung ermittelt, und das Fahrzeug auf der Grundlage der Wahrscheinlichkeit für eine Kollision steuert.System for operating a collision preparation system in a vehicle, the system comprising: a vision system; one Distance sensor system; and a control module that dates monitored by the distance sensor and images from the vision system; iterative Objects in a vehicle field of view based on the range sensor data and the images identify what includes that first object in the vehicle field of view using the range sensor data and the images are identified in a first time step, and a second object in the vehicle field of view using the Distance sensor data and images in a subsequent time step is identified a position of the first object in the subsequent time step predicts the first object and the second object based on the predicted position assigns to the first object, an object tracking the associated Determines objects, a probability of a collision based on the assigned objects and the vehicle determines the object tracking, and the vehicle on the basis the probability of controls a collision. System nach Anspruch 13, wobei das Ermitteln der Objektverfolgung der zugeordneten Objekte umfasst, dass die zugeordneten Objekte mit mehreren Kalman-Filtern verarbeitet werden; und die Objektverfolgung auf der Grundlage einer Auswahl eines Ausgangs der mehreren Kalman-Filter unter Verwendung eines Markov-Entscheidungsprozesses ermittelt wird.The system of claim 13, wherein determining the Object tracking of the mapped objects includes that the associated objects are processed with multiple Kalman filters; and object tracking based on a selection of a Output of the multiple Kalman filters using a Markov decision process is determined. System nach Anspruch 13, wobei das Identifizieren von Objekten in dem Fahrzeugsichtfeld umfasst, dass die Entfernungssensordaten einem der Bilder überlagert werden, um ein modifiziertes Bild zu erzeugen; Bildbereiche an dem modifizierten Bild, die der Entfernungssensorinformation zugeordnet sind, extrahiert werden; ein Merkmalsdeskriptor der Bildbereiche ermittelt wird; und Objekte in den Bildbereichen auf der Grundlage des Merkmalsdeskriptors identifiziert werden.The system of claim 13, wherein the identifying of objects in the vehicle field of view includes the distance sensor data superimposed on one of the pictures to create a modified image; image areas on the modified image, the distance sensor information are assigned to be extracted; a feature descriptor the image areas is determined; and Objects in the image areas identified on the basis of the feature descriptor. System nach Anspruch 15, wobei der Merkmalsdeskriptor unter Verwendung eines Histogramms vorbestimmter Merkmale und/oder eines Gradientenorientierungshistogramms und/oder einer Hauptkomponentenanalyse ermittelt wird.The system of claim 15, wherein the feature descriptor using a histogram of predetermined features and / or a gradient orientation histogram and / or a principal component analysis is determined. System nach Anspruch 16, wobei die vorbestimmten Merkmale unter Verwendung eines Haar-Wavelet und/oder eines Gabor-Wavelet und/oder einer Leung-Malik-Filterbank ermittelt werden.The system of claim 16, wherein the predetermined ones Features using a Haar wavelet and / or a Gabor wavelet and / or a Leung-Malik filter bank. System nach Anspruch 13, wobei das Zuordnen des ersten Objekts und des zweiten Objekts auf der Grundlage der vorhergesagten Position des ersten Objekts umfasst, dass ein Unterschiedlichkeitsmaß zwischen dem ersten und zweiten Objekt ermittelt wird; und das erste und zweite Objekt in Übereinstimmung gebracht werden, wenn die Unterschiedlichkeit kleiner als ein vorbestimmter Schwellenwert ist.The system of claim 13, wherein associating the first object and the second object based on the predicted Position of the first object includes that a measure of difference between the first and second object is determined; and the first and second object in accordance be brought if the difference is less than a predetermined Threshold is. System nach Anspruch 13, wobei das Ermitteln der Wahrscheinlichkeit für eine Kollision zwischen den zugeordneten Objekten und dem Fahrzeug auf der Grundlage der Objektverfolgung umfasst: Ermitteln einer Gauss-Verteilung für die Objektverfolgung; zufälliges Abtasten der Gauss-Verteilung, um einen Satz von Partikeln zu erhalten; Ermitteln einer Längs- und Querverschiebung jedes Partikels; Ermitteln, ob sich jeder Partikel auf einem Kollisionspfad mit dem Fahrzeug befindet; Ermitteln einer Zeitdauer bis zur Kollision für jeden Partikel auf einem Kollisionspfad; Bezeichnen jedes Partikels auf einem Kollisionspfad als Gefahr, wenn die Zeitdauer bis zur Kollision für den jeweiligen Partikel kleiner als eine Schwellenwertzeitdauer ist; und Ermitteln, dass eine Kollision unmittelbar bevorsteht, wenn ein vorbestimmter Prozentsatz des Satzes von Partikeln, die als Gefahr bezeichnet sind, größer als ein Schwellenwertprozentsatz ist.The system of claim 13, wherein determining the probability of a collision between the associated objects and the vehicle based on the object tracking comprises: determining a Gaussian distribution for object tracking; randomly sampling the Gaussian distribution to obtain a set of particles; Determining a longitudinal and transverse displacement of each particle; Determining if each particle is on a collision path with the vehicle; Determining a time to collision for each particle on a collision path; Designating each particle on a collision path as a hazard if the time to collision for the respective particle is less than a threshold time period; and determining that a collision is imminent when a predetermined percentage of the set of particulates designated as a hazard is greater than a threshold percentage.
DE102010005290A 2009-01-26 2010-01-21 Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle Withdrawn DE102010005290A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US14717509P 2009-01-26 2009-01-26
US61/147,175 2009-01-26
US12/689,279 2010-01-19
US12/689,279 US8812226B2 (en) 2009-01-26 2010-01-19 Multiobject fusion module for collision preparation system

Publications (1)

Publication Number Publication Date
DE102010005290A1 true DE102010005290A1 (en) 2010-08-19

Family

ID=42338928

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010005290A Withdrawn DE102010005290A1 (en) 2009-01-26 2010-01-21 Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle

Country Status (1)

Country Link
DE (1) DE102010005290A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016114168A1 (en) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Method for detecting an object in a surrounding area of a motor vehicle with prediction of the movement of the object, camera system and motor vehicle
DE102017117211B3 (en) 2017-07-31 2018-09-06 Dr. Ing. H.C. F. Porsche Aktiengesellschaft A method of trajectory-based feature mapping in an image captured by an image capture unit of a vehicle
DE102018100667A1 (en) * 2018-01-12 2019-07-18 Connaught Electronics Ltd. Computer vision pre-fusion and spatiotemporal tracking
DE102018203684A1 (en) * 2018-03-12 2019-09-12 Zf Friedrichshafen Ag Identification of objects using radar data
DE102017108254B4 (en) 2016-04-19 2019-10-02 GM Global Technology Operations LLC All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system
CN111339808A (en) * 2018-12-19 2020-06-26 北京嘀嘀无限科技发展有限公司 Vehicle collision probability prediction method and device, electronic equipment and storage medium
CN111368611A (en) * 2019-02-28 2020-07-03 杭州海康威视系统技术有限公司 Vehicle tracking method, device and system and server
CN113015664A (en) * 2018-11-13 2021-06-22 祖克斯有限公司 Perception anticollision
CN113126612A (en) * 2019-12-27 2021-07-16 动态Ad有限责任公司 Object tracking to support autonomous vehicle navigation
US11731620B2 (en) 2018-12-12 2023-08-22 Zoox, Inc. Collision avoidance system with trajectory validation
DE102015105206B4 (en) 2014-04-15 2024-02-01 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Method and system for detecting, tracking and estimating stationary roadside objects

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015105206B4 (en) 2014-04-15 2024-02-01 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Method and system for detecting, tracking and estimating stationary roadside objects
DE102017108254B4 (en) 2016-04-19 2019-10-02 GM Global Technology Operations LLC All-round camera system for object recognition and tracking and method for equipping a vehicle with a panoramic camera system
US11170232B2 (en) 2016-08-01 2021-11-09 Connaught Electronics Ltd. Method for capturing an object in an environmental region of a motor vehicle with prediction of the movement of the object, camera system as well as motor vehicle
DE102016114168A1 (en) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Method for detecting an object in a surrounding area of a motor vehicle with prediction of the movement of the object, camera system and motor vehicle
DE102017117211B3 (en) 2017-07-31 2018-09-06 Dr. Ing. H.C. F. Porsche Aktiengesellschaft A method of trajectory-based feature mapping in an image captured by an image capture unit of a vehicle
DE102018100667A1 (en) * 2018-01-12 2019-07-18 Connaught Electronics Ltd. Computer vision pre-fusion and spatiotemporal tracking
DE102018203684A1 (en) * 2018-03-12 2019-09-12 Zf Friedrichshafen Ag Identification of objects using radar data
US11789113B2 (en) 2018-03-12 2023-10-17 Zf Friedrichshafen Ag Object identification using radar data
CN113015664B (en) * 2018-11-13 2023-11-17 祖克斯有限公司 Perceived crashproof
CN113015664A (en) * 2018-11-13 2021-06-22 祖克斯有限公司 Perception anticollision
US11731620B2 (en) 2018-12-12 2023-08-22 Zoox, Inc. Collision avoidance system with trajectory validation
CN111339808A (en) * 2018-12-19 2020-06-26 北京嘀嘀无限科技发展有限公司 Vehicle collision probability prediction method and device, electronic equipment and storage medium
CN111339808B (en) * 2018-12-19 2024-04-23 北京嘀嘀无限科技发展有限公司 Vehicle collision probability prediction method, device, electronic equipment and storage medium
CN111368611A (en) * 2019-02-28 2020-07-03 杭州海康威视系统技术有限公司 Vehicle tracking method, device and system and server
CN111368611B (en) * 2019-02-28 2024-04-05 杭州海康威视系统技术有限公司 Vehicle tracking method, device, system and server
CN113126612A (en) * 2019-12-27 2021-07-16 动态Ad有限责任公司 Object tracking to support autonomous vehicle navigation
US11967106B2 (en) 2019-12-27 2024-04-23 Motional Ad Llc Object tracking supporting autonomous vehicle navigation

Similar Documents

Publication Publication Date Title
DE102010005290A1 (en) Vehicle controlling method for vehicle operator i.e. driver, involves associating tracked objects based on dissimilarity measure, and utilizing associated objects in collision preparation system to control operation of vehicle
US8812226B2 (en) Multiobject fusion module for collision preparation system
US11488392B2 (en) Vehicle system and method for detecting objects and object distance
DE102015109270B4 (en) Method for determining a road surface condition for a vehicle
DE102014223363B4 (en) Method and device for localizing a motor vehicle in a fixed reference map
DE102011117585B4 (en) Systems and methods for tracking objects
DE102009050503A1 (en) Method for detecting clear path of travel for host vehicle e.g. car, involves analyzing sensor data describing object to determine impact of object to clear path
US20200218908A1 (en) Real-time simultaneous detection of lane marker and raised pavement marker for optimal estimation of multiple lane boundaries
DE102019102216A1 (en) Fusion of front-end vehicle sensor data to detect and determine the distance from preceding objects
DE102013113619A1 (en) Probabilistic target selection and hazard assessment procedures and application to an intersection collision warning system
DE102011119767A1 (en) APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS
DE102009050505A1 (en) Clear path detecting method for vehicle i.e. motor vehicle such as car, involves modifying clear path based upon analysis of road geometry data, and utilizing clear path in navigation of vehicle
CN107886043B (en) Vision-aware anti-collision early warning system and method for forward-looking vehicles and pedestrians of automobile
DE102017102506B4 (en) METHOD FOR DETECTING OTHER VEHICLES RELATIVE TO A CARRIER VEHICLE USING WHEEL DETECTION
DE102009048892A1 (en) Clear traveling path detecting method for vehicle e.g. car, involves generating three-dimensional map of features in view based upon preferential set of matched pairs, and determining clear traveling path based upon features
DE102009048699A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
CN102792314A (en) Cross traffic collision alert system
DE102017218366A1 (en) METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE
CN109919074A (en) A kind of the vehicle cognitive method and device of view-based access control model cognition technology
DE102019108610A1 (en) IMPROVING VEHICLE BEHAVIOR USING INFORMATION FROM OTHER VEHICLE LIGHTS
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
DE112021006101T5 (en) Systems and methods for object detection with LiDAR decorrelation
WO2022247994A1 (en) System for sensor data fusion for environmental perception
DE102022130540A1 (en) SYSTEMS AND METHODS TO PREVENT FALSE DETECTION OF TRACKED OBJECTS IN THE SURROUNDING AREA OF A VEHICLE
DE102020200876B4 (en) Method for processing sensor data from a sensor system in a vehicle

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US

R081 Change of applicant/patentee

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, INC., DETROIT, MICH., US

Effective date: 20110323

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee