DE112010004163B4 - Querverkehrkollisions-Warnsystem - Google Patents

Querverkehrkollisions-Warnsystem Download PDF

Info

Publication number
DE112010004163B4
DE112010004163B4 DE112010004163.6T DE112010004163T DE112010004163B4 DE 112010004163 B4 DE112010004163 B4 DE 112010004163B4 DE 112010004163 T DE112010004163 T DE 112010004163T DE 112010004163 B4 DE112010004163 B4 DE 112010004163B4
Authority
DE
Germany
Prior art keywords
module
detected
area
image
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112010004163.6T
Other languages
English (en)
Other versions
DE112010004163T5 (de
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE112010004163T5 publication Critical patent/DE112010004163T5/de
Application granted granted Critical
Publication of DE112010004163B4 publication Critical patent/DE112010004163B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Querverkehrkollisions-Warnsystem, das umfasst:eine bildgestützte Detektierungsvorrichtung zum Erfassen von Bewegungsdaten von Objekten in einem Gebiet (15) einer Fahrtrichtung eines gefahrenen Fahrzeugs (12);ein Bewegungsanalysemodul (22) zum Überwachen der erfassten Bewegungsdaten, wobei das Bewegungsanalysemodul (22) potentiell sich bewegende Objekte in den erfassten Bewegungsdaten identifiziert;ein Modul (24) für die Detektierung wesentlicher Gebiete zum Identifizieren interessierender Gebiete innerhalb der erfassten Bewegungsdaten, das wenigstens Abschnitte potentiell sich bewegender Objekte angibt, wobei das Modul (24) wesentlicher Gebiete innerhalb der erfassten Bewegungsdaten Gebiete detektiert, die veränderliche Eigenschaften aufweisen;ein voraussagendes Objektdetektierungsmodul (26), das auf die Ausgaben des Bewegungsanalysemoduls (22) und des Moduls (24) für die Detektierung wesentlicher Gebiete anspricht, um auf der Grundlage potentiell sich bewegender Objekte, die durch das Bewegungsanalysemodul (22) und durch das Modul (24) für die Detektierung wesentlicher Gebiete identifiziert werden, wenigstens einen Objektkandidaten zu erzeugen;nicht abbildende Objektdetektierungssensoren (16) zum Detektieren des wenigstens einen Objektkandidaten in einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17);ein Objektnachführungsmodul (28) zum Nachführen des wenigstens einen durch das voraussagende Objektdetektierungsmodul (26) und durch die nicht abbildenden Objektdetektierungssensoren (16) detektierten Objektkandidaten, wobei das Objektnachführungsmodul (28) den wenigstens einen Objektkandidaten, der zwischen dem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17) und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet (15) übergeht, vereinigt, wobei das Objektnachführungsmodul (28) eine Position und eine Geschwindigkeit des wenigstens einen Objektkandidaten in Bezug auf das gefahrene Fahrzeug (12) nachführt, wobei das Vereinigen des wenigstens einen Objektkandidaten, der zwischen den Gebieten (15, 17) übergeht, das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit potentiellen Objekten in dem Gebiet (17), die durch die nicht abbildenden Objektdetektierungssensoren (16) erfasst wurden, enthält; undein Gefahrbeurteilungsmodul (30) zum Bestimmen einer Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objektkandidaten und dem gefahrenen Fahrzeug (12), wobei das Gefahrbeurteilungsmodul (30) bestimmt, ob in Ansprechen auf die Gefahrbeurteilung eine Warnung ausgegeben werden soll.

Description

  • HINTERGRUND DER ERFINDUNG
  • Eine Ausführungsform bezieht sich allgemein auf das Bestimmen einer Kollisionsgefahr für Querverkehrskollisionen.
  • Im Gebiet sind verschiedene Arten von Sicherheitssystemen bekannt, um die Insassen eines Fahrzeugs im Fall einer Kollision zu schützen. Einige dieser Systeme versuchen, die Kollision zu verhindern, bevor sie auftritt, indem sie den Fahrzeugbetreiber vor einer potentiellen Kollisionssituation warnen. Zum Beispiel kann ein Vorwärtskollisions-Warnsystem (FCW) eine nach vorn blickende Laser- oder Radarvorrichtung nutzen, die den Fahrzeugfahrer vor einer potentiellen Kollisionsgefahr warnt. Die Warnungen können eine visuelle Angabe auf dem Armaturenbrett des Fahrzeugs oder auf einer Headup-Anzeige (HUD) sein und/oder können eine Audio-Warnung oder eine Vibrationsvorrichtung wie etwa ein HAPTIC-Sitz sein. Andere Systeme versuchen eine Kollision dadurch zu verhindern, dass sie direkt eine Bremsaktion anwenden, falls der Fahrer nicht auf rechtzeitige Weise auf eine Warnung anspricht.
  • DE 10 2008 026 396 A1 offenbart ein Verfahren und eine Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr. Im Fall einer Kollisionsgefahr durch den Querverkehr wird beispielsweise ein Fahreralarm oder ein automatisches Bremsen bereitgestellt. Zum Detektieren von Objekten in dem Querverkehr weist das System Objektsensoren, beispielsweise Ultrabreitband-Radar- und/oder ein Kamerasystem auf.
  • US 2007/0168128 A1 beschreibt ein Fahrunterstützungssystem für ein Fahrzeug, das das Fahren eines Fahrzeugs unter Verwendung eines Radar- und Bilderkennungsmittels als Hinderniserfassungsmittel unterstützt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Vorteil einer Ausführungsform ist die Detektierung von Querverkehr durch Nachführen und Vereinigen von durch kurzreichweitige Radarsensoren und bilderkennungsgestützte Vorrichtungen erfassten Daten. Wenn die Objekte detektiert worden sind, werden die Position und die Geschwindigkeit der Objekte nachgeführt, um eine potentielle Interaktion mit dem gefahrenen Fahrzeug zu bestimmen.
  • Eine Ausführungsform betrachtet ein Querverkehrkollisions-Warnsystem für ein gefahrenes Fahrzeug. Ein Querverkehrkollisions-Warnsystem enthält eine bildgestützte Detektierungsvorrichtung zum Erfassen von Bewegungsdaten von Objekten in einem Gebiet einer Fahrtrichtung eines gefahrenen Fahrzeugs. Ein Bewegungsanalysemodul überwacht die erfassten Bewegungsdaten. Das Bewegungsanalysemodul identifiziert potentielle bewegte Objekte in den erfassten Bewegungsdaten. Ein Modul für die Detektierung wesentlicher Gebiete identifiziert innerhalb der erfassten Bewegungsdaten interessierende Gebiete, die wenigstens Abschnitte potentiell bewegter Objekte angeben. Das Modul für wesentliche Gebiete detektiert Gebiete, die innerhalb der erfassten Bewegungsdaten veränderliche Eigenschaften aufweisen. Ein voraussagendes Objektdetektierungsmodul, das auf die Ausgaben des Bewegungsanalysemoduls und des Moduls für die Detektierung wesentlicher Gebiete anspricht, erzeugt auf der Grundlage der durch das Bewegungsanalysemodul und durch das Modul für die Detektierung wesentlicher Gebiete identifizierten potentiellen bewegten Objekte wenigstens einen Objektkandidaten. Nicht abbildende Objektdetektierungssensoren detektieren den wenigstens einen Objektkandidaten in einem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet. Ein Objektnachführungsmodul führt den wenigstens einen durch das voraussagende Objektdetektierungsmodul und durch die nicht abbildenden Objektdetektierungssensoren detektierten Objektkandidaten nach. Das Objektnachführungsmodul vereinigt den wenigstens einen Objektkandidaten, der zwischen dem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet und dem durch die abbildungsgestützte Erfassungsvorrichtung erfassten Gebiet übergeht. Das Objektnachführungsmodul führt eine Position und eine Geschwindigkeit des wenigstens einen Objektkandidaten in Bezug auf das gefahrene Fahrzeug nach. Der wenigstens eine Objektkandidat, der zwischen den Gebieten übergeht, wird vereinigt, was das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit Sätzen von Partikeln, die potentielle Objekte in dem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet repräsentieren, enthält. Ein Gefahrbeurteilungsmodul bestimmt eine Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objektkandidaten und dem gefahrenen Fahrzeug. Das Gefahrbeurteilungsmodul bestimmt, ob in Ansprechen auf die Gefahrbeurteilung eine Warnung gegeben werden sollte.
  • Es wird ein Verfahren zum Detektieren einer potentiellen Kollision zwischen einem gefahrenen Fahrzeug und einem Objekt, das einen Weg des gefahrenen Fahrzeugs kreuzt, geschaffen. Ein potentielles bewegtes Objekt wird unter Verwendung von nicht abbildenden Objektdetektierungssensoren in einem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet detektiert. Bewegungsdaten von Objekten in einem Gebiet einer Fahrtrichtung des gefahrenen Fahrzeugs werden durch eine bildgestützte Detektierungsvorrichtung erfasst. Es werden potentielle bewegte Objekte aus den erfassten Bewegungsdaten in dem durch die bildgestützte Detektierungsvorrichtung erfassten Gebiet detektiert. Innerhalb der erfassten Bilddaten, die potentielle bewegte Objekte enthalten, werden interessierende Gebiete identifiziert. Es wird eine voraussagende Objektdetektierungsanalyse angewendet, die auf das identifizierte potentielle bewegte Objekt und auf die identifizierten interessierenden Gebiete innerhalb der erfassten Bewegungsdaten anspricht, um bei dem identifizierten potentiellen bewegten Objekt, das potentiell auf einem Kollisionsweg mit dem gefahrenen Fahrzeug ist, nachzuführen. Die potentiellen bewegten Objekte, die zwischen einem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet übergehen, werden vereinigt. Das Objektnachführungsmodul führt eine Position und eine Geschwindigkeit der potentiellen bewegten Objekte in Bezug auf das gefahrene Fahrzeug nach. Es wird eine Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objekt und dem gefahrenen Fahrzeug bestimmt. In Ansprechen auf die Gefahrbeurteilung wird eine Warnung vor einer potentiellen Kollision zwischen einem Objekt und dem gefahrenen Fahrzeug ausgegeben.
  • Figurenliste
    • 1 ist eine Darstellung eines mit einem Querverkehr-Detektierungssystem ausgestatteten Fahrzeugs.
    • 2 ist eine Draufsicht eines Fahrzeugs in einem Fahrzeugkoordinatensystem.
    • 3 ist ein Blockschaltplan eines Querverkehr-Detektierungsprozesses.
    • 4 ist ein Ablaufplan für die Bewegungsanalyse.
    • 5 ist ein Ablaufplan zum Identifizieren interessierender wesentlicher Gebiete.
    • 6 ist eine beispielhafte Darstellung einer Kantendetektierungskarte.
    • 7 ist eine beispielhafte Darstellung einer Eckendetektierungskarte.
    • 8 ist eine beispielhafte Darstellung einer Blob-Detektierungskarte.
    • 9 ist eine beispielhafte Darstellung einer Karte zur Detektierung interessierender wesentlicher Gebiete.
    • 10 ist ein Blockschaltplan eines voraussagenden Objektdetektierungsmoduls.
    • 11 ist ein Fahrzeugdynamikmodul zweier interagierender Fahrzeuge.
    • 12 ist ein Ablaufplan für einen Gefahrbeurteilungsprozess.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In 1 ist allgemein bei 10 eine Darstellung eines Fahrzeugs 12 gezeigt, das mit einem Querverkehrsobjekt-Detektierungssystem zum Überwachen eines erfassten Gebiets auf potentielle Kollisionen mit Querverkehr ausgestattet ist. Das Fahrzeug 12, wie es gezeigt ist, dient zu Beispielzwecken, und es ist festzustellen, dass das Fahrzeug irgendeinem Fahrzeugtyp wie etwa einen PKW, einen LKW, ein SUV oder ein Motorrad enthalten kann. Das Fahrzeug ist mit einer Videoabbildungsvorrichtung 14 zum Erfassen von Bildern in einem Gebiet 15 und mit nicht abbildenden Objektdetektierungssensoren 16 (z. B. kurzreichweitigen Radarsensoren), die auf jeder Seite des Fahrzeugs eingebaut sind, um Objekte in einem Gebiet 17 (d. h. auf beiden Seiten des Fahrzeugs) zu detektieren, ausgestattet. Die in 1 gezeigte Videoabbildungsvorrichtung 14 ist der Rückseite des Fahrzeugs 12 zugewandt eingebaut, um Bilder in einer Rückansichtsposition zu erfassen. Die nicht abbildenden Objektdetektierungssensoren 16 sind an den rückwärtigen Seiten des Fahrzeugs eingebaut, um zusammenwirkend mit der Videoabbildungsvorrichtung 14 Objekte entlang eines Querfahrwegs des sich rückwärts bewegenden Fahrzeugs 12 zu detektieren. Im Ergebnis enthalten die jeweiligen Detektierungsgebiete sowohl der Videoabbildungsvorrichtung 14 als auch der nicht abbildenden Objektdetektierungssensoren 16 nicht überlappende Gebiete. Überlappende Gebiete wie etwa jene bei 18 Gezeigten können durch eine Überlappung des Gebiets 15 und des Gebiets 17 gebildet werden. Das hintere Querverkehrsobjekt-Detektierungssystem vermeidet eine potentielle Kollision zwischen dem Fahrzeug 12, das sich aus einem Stellplatz herausbewegt, und einem Fahrzeug 19, das den Weg des Fahrzeugs 12 wie in 2 dargestellt kreuzt. Obgleich sich die hier beschriebene Ausführungsform auf ein rückwärts gefahrenes Fahrzeug bezieht, ist festzustellen, dass das System, für ein vorwärts gefahrenes Fahrzeug genutzt werden kann, bei dem die Sensoren und die Videoabbildungsvorrichtung an anderer Stelle eingebaut sein können, um vorderen Querverkehr zu detektieren.
  • 3 veranschaulicht einen Blockschaltplan des Querverkehrsobjekt-Detektierungsprozesses. Es wird hier eine Zusammenfassung des Systems beschrieben. Ein Videodatenstrom 20, der durch die Videoabbildungsvorrichtung erfasst wird, wird an ein Bewegungsanalysemodul 22 und an ein Modul 24 für die Detektierung wesentlicher Gebiete angelegt.
  • Das Bewegungsanalysemodul 22 überwacht den erfassten Eingangsvideodatenstrom und hebt Bewegungs-Blobs in dem Bild hervor. Der Begriff Blob, wie er hier verwendet ist, repräsentiert etwas, das in dem Bild vorhanden ist, im Moment aber nicht gut definiert ist, um zu bestimmen, ob das Bild ein Fahrzeug, ein sich bewegendes Objekt, ein feststehendes Objekt oder eine andere Entität ist.
  • Das Modul 24 für die Detektierung wesentlicher Gebiete überwacht jedes Einzelbild des erfassten Videoeingangsdatenstroms und liefert interessierende Gebiete, die die Anwesenheit von Objekten oder Teilen von Objekten in einer jeweiligen Bildebene angeben könnten. Die Ausgaben von dem Bewegungsanalysemodul 22 und von dem Modul 24 für die Detektierung wesentlicher Gebiete werden an ein voraussagendes Objektdetektierungsmodul 26 geliefert.
  • Das voraussagende Objektdetektierungsmodul 26 überwacht die Ausgaben des Bewegungsanalysemoduls 22 und des Moduls 24 für die Detektierung wesentlicher Gebiete, um für jedes hervorgehobene Objekt mehrere Bildkandidaten zu erzeugen. Die Ausgabe des voraussagenden Objektdetektierungsmoduls 26 wird durch ein Objektnachführungsmodul 28 analysiert. An das Objektnachführungsmodul 28 werden Ausgaben von den nicht abbildenden Objektdetektierungssensoren 16 geliefert.
  • Das Objektnachführungsmodul 28 vereinigt die Objekte auf der Grundlage der von dem voraussagenden Objektdetektierungsmodul 26 und von den nicht abbildenden Objektdetektierungssensoren 16 zugeführten Daten und identifiziert jeweilige Attribute wie etwa die Position und die Geschwindigkeit eines jeweiligen Objekts. Die vereinigten Daten von dem Objektnachführungsmodul 28 werden an ein Gefahrbeurteilungsmodul 30 geliefert, das die Gefahr eines kreuzenden Objekts bestimmt und das außerdem bestimmt, ob eine Warnmeldung über eine HMI 31 oder ähnlich an den Fahrer des Fahrzeugs zu betätigen ist.
  • 4 veranschaulicht einen Blockschaltplan eines Bewegungsanalysemoduls 22. Das Bewegungsanalysemodul 22 segmentiert Bewegungsmerkmale von dem Bild als Ganzes. Die Bewegungsmerkmale werden aus zwei aufeinanderfolgenden Eingangseinzelbildern 32 und 34 abgeleitet. Die Eingangseinzelbilder 32 und 34 werden zu jeweiligen Einzelbildern 36 und 38 normalisiert. Auf die normalisierten Einzelbilder 36 und 38 wird ein Lichtflussoperator angewendet, um ein Bewegungsmerkmalbild 40 zu erzeugen. Aus dem Bewegungsmerkmalbild 40 werden segmentierte Objekte 42 abgeleitet. Die segmentierten Objekte 42 werden durch Ermitteln eines Blobs eines lokalen Maximums in dem Bewegungsmerkmalbild 40 bestimmt.
  • Für ein jeweiliges Bild, auf das das Bild-Einzelbild angewendet wird, sei It(x, y) das Bild-Einzelbild zum Zeitpunkt t, wobei x und y die Zeilen bzw. Spalten der Pixel repräsentieren. Die normalisierten Einzelbilder 36 und 38 werden durch die Formel wie folgt repräsentiert: N ( x , y ) = I ( x , y ) μ { I ( x , y ) } σ { I ( x , y ) } σ ' + μ ' ,
    Figure DE112010004163B4_0001
    wobei der Operator µ{} den Mittelwert repräsentiert und der Operator σ{} die Standardabweichung einer Intensität der Pixel im Bild-Einzelbild I(x, y) repräsentiert und µ' und σ' vorgegebene Parameter sind.
  • Auf zwei aufeinanderfolgende Bild-Einzelbilder It-1(x, y) und It(x, y) wird ein Lichtflussoperator wie etwa Lucas-Kanada angewendet. Der Zeitpunkt t repräsentiert ein Einzelbild zum gegenwärtigen Zeitpunkt für das erfasste Bild, während der Zeitpunkt t-1 ein Einzelbild zum vorhergehenden Zeitpunkt des erfassten Bilds repräsentiert. Im Ergebnis kann auf der Grundlage der Bewegung des Objekts zwischen dem Einzelbild t zum gegenwärtigen Zeitpunkt und dem Einzelbild t-1 zum vorhergehenden Zeitpunkt, was als Lichtflussbild bekannt ist, ein bewegtes Objekt detektiert werden. Auf das Lichtflussbild wird eine Nachführung eines Schwellenwerts und verbundener Komponenten angewendet, um in dem Ausgangsbild Gebiete von Kandidaten zu identifizieren, wo erhebliche Bewegung detektiert wird.
  • Das wie in 1 beschriebene Modul 24 für wesentliche Gebiete detektiert Gebiete in dem Bild, die im Vergleich zu anderen Objekten in dem Bild erheblich veränderliche Eigenschaften (z. B. hellere oder dunklere Eigenschaften) aufweisen oder die mehr Kanten und Ecken als die umgebenden Objekte in dem Bild aufweisen. Diese jeweiligen Gebiete schließen üblicherweise Objekte oder Teile von Objekten ein, sodass es vorteilhaft ist, solche jeweiligen Gebiete zur weiteren Bewertung zu identifizieren.
  • 5 veranschaulicht den Prozess zum Identifizieren wesentlicher interessierender Gebiete. In Schritt 50 wird die Routine zum Identifizieren der wesentlichen interessierenden Gebiete initiiert. In Schritt 51 wird der Eingangsvideodatenstrom erfasst und analysiert.
  • In Schritt 52 werden aus dem Eingangsvideodatenstrom Kanten bestimmt. In 6 ist eine Kantenkarte gezeigt, die die Kanten identifiziert.
  • In Schritt 53 werden aus dem Eingangsvideodatenstrom Ecken bestimmt. In 7 ist eine Eckenkarte gezeigt, die Ecken identifiziert.
  • In Schritt 54 werden aus dem Eingangsvideodatenstrom Blobs bestimmt. In 8 ist eine Karte wesentlicher Blobs gezeigt, die Blobs identifiziert.
  • In Schritt 55 werden die detektierten Kanten, Ecken und wesentlichen Blobs kombiniert, um wesentliche interessierende Gebiete zu identifizieren. In 9 ist eine Karte wesentlicher interessierender Gebiete, die interessierende Gebiete identifiziert, gezeigt.
  • In Bezug auf den Prozess zum Detektieren wesentlicher Blobs aus 54 wird auf das Bild ein Gauß'scher Operator angewendet. Für das Eingangsbild I(x, y) wird das Bild mit einem Gaußschen Kern gefaltet, der durch die folgende Formel repräsentiert wird: g ( x , y , t ) = 1 2 π t e ( x 2 + y ) 2 t                                         ,
    Figure DE112010004163B4_0002
    die in einer bestimmte Skale t gegeben ist, um eine Skalenraumdarstellung zu liefern. Diese ist durch die folgende Formel repräsentiert: L ( x , y , t ) = g ( x , y , t ) f ( x , y )                                           .
    Figure DE112010004163B4_0003
  • Es wird ein skalennormalisierter Operator der Differenz Gauß'scher Operatoren (DoG-Operator) berechnet. Der DoG-Operator wird durch die folgende Formel repräsentiert: D o G { I ( x , y ) ; t } = 1 2 Δ t ( L ( x , y ; t + Δ t ) L ( x , y ) ; t Δ t )                                                                                .
    Figure DE112010004163B4_0004
  • Um die wesentlichen Blobs zu ermitteln, werden Punkte identifiziert, die gleichzeitig lokale Maxima/ Minima der DoG-Operation sowohl in Bezug auf den Raum als auch in Bezug auf die Skale sind. Dies kann durch die folgende Formel repräsentiert werden: ( x ^ , y ^ , t ^ ) = arg max min ( x , y , t ) ( D o G { I ( x , y ) , t } )
    Figure DE112010004163B4_0005
  • 10 veranschaulicht einen Blockschaltplan eines voraussagenden Objektdetektierungsmoduls 26. Das voraussagende Objektdetektierungsmodul 26 überwacht Ausgaben von dem Bewegungsanalysemodul und von dem Modul zum Detektieren wesentlicher Blobs. Außerdem empfängt das voraussagende Objektdetektierungsmodul 26 von dem Objektnachführungsmodul Ausgaben zu einem früheren Zeitpunkt. Die an das voraussagende Objektdetektierungsmodul 26 gelieferten wesentlichen interessierenden Gebiete können als Positionen und Größen in dem Bild-Einzelbild repräsentiert werden. Ein Bildausschnitt-Extraktionsmodul 61 extrahiert ein Teilbild Sk, das ein Objekt einschließen kann, durch Angabe des Orts und der Größe der Eingangsbildausschnitte oder der vorhergehenden Position und Größe eines Objekts. Ein Merkmalsextraktionsmodell 62 berechnet eine Verteilung der Kanten, der Ecken oder ein Erscheinen des ausgewählten Teilbildausschnitts Sk. Die berechnete Verteilung wird auf einen Merkmalsdeskriptorvektor fk abgebildet. Daraufhin klassifiziert das Objektdetektormodul 63, ob der Merkmalsdeskriptorvektor ein Objekt repräsentiert. Ein Vektor pk = (u, v) repräsentiert einen Ort eines unteren Abschnitts des Teilbilds Sk, wobei u der Zeilen- und v der Spaltenindex des Orts ist.
  • In der Merkmalsextraktion werden zahlreiche Merkmalsdeskriptoren [engl.: „featured descriptors“], einschließlich, aber nicht beschränkt auf, skaleninvarianter Merkmalstransformation (SIFT), beschleunigter robuster Merkmale (SURF), maximal stabiler Extremgebiete (MSER), Histogramm orientierter Gradienten (HOG) und Eigenbildkoeffizienten, verwendet. Ein Kernteil des Objektdetektormoduls enthält einen statistischen Klassierer, der unter Verwendung einer erheblichen Anzahl von Objekt- und Nicht-Objekt-Bildproben trainiert wird. Solche Klassierer können eine Unterstützungsvektormaschine (SVM) und ein neuronales Netzwerk (NN) enthalten, sind darauf aber nicht beschränkt.
  • Das Objektnachführungsmodul 28 überwacht Ausgaben des voraussagenden Detektierungsmoduls 26 und der kurzreichweitigen Radarerfassungsvorrichtungen (SRR-Erfassungsvorrichtungen) und vereinigt Objektinformationen, die von diesen jeweiligen Sensoren erhalten werden. Das Objektnachführungsmodul 28 erzeugt vereinigte Objektdaten wie etwa Position und Geschwindigkeit in einem Trägerfahrzeug-Koordinatensystem. Von dem Objektnachführungsmodul kann eine Partikelfilterung verwendet werden.
  • Die durch die SRR-Erfassungsvorrichtungen erhaltenen SRR-Entfernungsdaten können repräsentiert werden durch: { q k = ( r n , r ˙ n , θ n ) | n = 1,...., M | } ,
    Figure DE112010004163B4_0006
    wobei r die Entfernung, ̇̇r die Entfernungsrate und θ den Azimutwinkel des n-ten Radarobjekts repräsentiert.
  • Unter der Annahme, dass das Objektdetektormodul N Objektkandidaten liefert, die durch die Orte {p1k | k = 1, ..., N} in der Bildebene repräsentiert werden, kann das k-te Objekt in der homogenen Darstellung wie folgt geschrieben werden: q k = ( u k , v k ,1 ) τ | k = 1,...., N |
    Figure DE112010004163B4_0007
  • Falls angenommen wird, dass die Bodenoberfläche durch eine flache Ebene angenähert werden kann, gibt es zwischen der Bodenebene und der Bildebene der Kamera eine homographische Transformation H, sodass q = H X
    Figure DE112010004163B4_0008
    gilt, wobei q die homogene Darstellung des Bildorts repräsentiert und die folgende Formel die homogene Darstellung der Objektposition in der Bodenebene repräsentiert: X = ( x ' , y ' ,1 ) τ                      .
    Figure DE112010004163B4_0009
    H kann durch die intrinsischen Parameter (z. B. Brennweite, optische Mitte und Verzerrung) und durch die extrinsischen Parameter (z. B. den Ort und die Orientierung der Videoerfassungsvorrichtung in dem Trägerfahrzeugsystem) der Videoerfassungsvorrichtung bestimmt werden, die durch einen Kalibrierungsprozess der Videoerfassungsvorrichtung erhalten werden können.
  • Ferner wird angenommen, dass der Ort pk des k-ten Objekts der Projektion des Objekts auf die Bodenebene entspricht. Somit können die Zielpositionen in dem Fahrzeugsystem als homogene Koordinaten {Xk = H-1qk | k = 1, ..., N} geschrieben werden. Somit kann für das k-te Objekt Xk = {x'ok, y'ok, ck}, die x-y-Koordinate in dem Fahrzeugsystem geschrieben werden als: x o k = x ' o k c k y o k = y ' o k c k                                    .
    Figure DE112010004163B4_0010
  • 11 veranschaulicht ein Anlagenmodell einer dynamischen Bewegung zwischen dem rückwärts gefahrenen Fahrzeug und dem Zielfahrzeug zur Bestimmung eines geplanten Wegs des rückwärts gefahrenen Fahrzeugs. Die Attribute des Fahrzeugs für das Objektnachführungsmodul enthalten x = (x, y, Φ, ω, v), wobei in dieser Reihenfolge x, y die x-y-Position repräsentiert, Φ die Stellung repräsentiert, ω die Winkelgeschwindigkeit (z. B. die Änderungsrate der Stellung) repräsentiert und v die Geschwindigkeit des Objekts repräsentiert.
  • Die dynamischen Entwicklungen des Objekts können wie folgt repräsentiert werden: x ' = x + ( v  cos θ + y ω H v x H ) Δ T + Δ T  cos  ϕ O 2 ;
    Figure DE112010004163B4_0011
    y ' = y + ( v  cos θ + x ω H v x H ) Δ T + Δ T  sin  ϕ O 2 ;
    Figure DE112010004163B4_0012
    ϕ ' = ϕ + ( ω ω H ) Δ T + Δ T ' o 1 ;
    Figure DE112010004163B4_0013
    ω ' = ω + ' o 1
    Figure DE112010004163B4_0014
    und v ' = ω + ' o 2
    Figure DE112010004163B4_0015
    wobei x' = (x', y', Φ', ω', v') den Objektzustand zum nächsten Zeitpunkt repräsentiert; vxH und vyH die Längsgeschwindigkeit bzw. die Quergeschwindigkeit des Trägerfahrzeugs repräsentieren und ωH die Gierrate des Trägerfahrzeugs repräsentiert.
  • Die Messwerte des Objekts in dem Fahrzeugsystem können einen Videoschätzwert (x1ok, y1ok), einen Radarschätzwert (rn, ṙn, θn) oder beide enthalten. Im Ergebnis können die Messwertgleichungen wie folgt geschrieben werden: x o k = x + v 1  ;
    Figure DE112010004163B4_0016
    y o k = y + v 2  ;
    Figure DE112010004163B4_0017
    r k = x 2 + y 2 + v 3  ;
    Figure DE112010004163B4_0018
    r ˙ k = x v  cos ϕ + y v  sin ϕ r k + v 4  ;
    Figure DE112010004163B4_0019
    θ k = tan 1 ( y x ) + v 5                                             ,
    Figure DE112010004163B4_0020
    wobei v einen Messwert mit dem Mittelwert 0 für weißes Gaußsches Rauschen für jede Frage repräsentiert.
  • Das Bedrohungsbeurteilungsmodul beurteilt alle nachgeführten Objekte und bestimmt, ob ein Objekt eine unmittelbare Bedrohung ist oder nicht.
  • Die Ausgabe des Objektnachführungsmoduls kann als Satz von Partikeln angesehen werden, wobei jeder Satz von Partikeln mögliche Zustandsvektoren eines nachgeführten Objekts repräsentiert. Für ein k-tes Objekt wird der folgende Partikelsatz durch die folgende Gleichung repräsentiert: s = { x k ( i ) | i = 1,...., K }                                 ,
    Figure DE112010004163B4_0021
    wo K eine maximale Anzahl von Partikeln für jedes Objekt repräsentiert. Zur Bestimmung, ob das Fahrzeug auf einem geplanten Weg des Trägerfahrzeugs liegt, kann ein ähnliches Zielauswahlverfahren wie das in der gleichzeitig anhängigen Anmeldung mit der laufenden Nummer 11/758,187, eingereicht am 5. Juni 2007, die hier durch Bezugnahme mit aufgenommen ist, beschriebene verwendet werden. Außerdem kann die Bedrohungsbeurteilungswarnung durch Bestimmen der Merker in dem Zielauswahlverfahren verwendet werden. Der Prozentsatz der Merker wird zum Aktivieren einer Warnung für alle Partikel im Satz (s) des k-ten Objekts eingestellt. Falls der Prozentsatz höher als ein Schwellenwert (z. B. 90 %) ist, stellen die Objekte für das Trägerfahrzeug eine unmittelbare Bedrohung dar und ist eine geeignete Kollisionsgegenmaßnahme auszulösen.
  • 12 veranschaulicht einen Ablaufplan der Bedrohungsbeurteilungsprozedur. In Schritt 70 werden alle nachgeführten Objekte von der Ausgabe des Objektnachführungsmoduls gesammelt.
  • In Schritt 71 wird eine Bestimmung vorgenommen, ob alle nachgeführten Objekte gesehen worden sind. Falls eine Bestimmung erfolgt, dass alle nachgeführten Objekte gesehen worden sind, wird die Routine in Schritt 72 abgeschlossen. Falls die Bestimmung erfolgt, dass nicht alle nachgeführten Objekte gesehen worden sind, geht die Routine zu Schritt 73 über, um ein ungesehenes Objekt von dem nachgeführten Objekt auszuwählen.
  • In Schritt 74 wird ein Prozentsatz der Partikel des Objekts bestimmt, um die Merker auszulösen, die eine Warnung oder automatische Bremsung aktivieren.
  • In Schritt 75 wird eine Bestimmung vorgenommen, ob der Prozentsatz höher als ein Schwellenwert ist. Falls der Prozentsatz nicht höher als der Schwellenwert ist, kehrt die Routine zu Schritt 71 zurück. Falls der Prozentsatz höher als der Schwellenwert ist, geht die Routine zu Schritt 76 über.
  • In Schritt 76 wird in Ansprechen darauf, dass der Prozentsatz höher als der Schwellenwert ist, ein Aktivierungssignal an eine Fahrzeug-Mensch-Maschine-Schnittstelle ausgegeben. Daraufhin kehrt die Routine zu Schritt 71 zurück.
  • Obwohl bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben worden sind, erkennt der Fachmann auf dem Gebiet, auf das sich diese Erfindung bezieht, verschiedene alternative Entwürfe und Ausführungsformen, um die wie durch die folgenden Ansprüche definierte Erfindung zu verwirklichen.

Claims (23)

  1. Querverkehrkollisions-Warnsystem, das umfasst: eine bildgestützte Detektierungsvorrichtung zum Erfassen von Bewegungsdaten von Objekten in einem Gebiet (15) einer Fahrtrichtung eines gefahrenen Fahrzeugs (12); ein Bewegungsanalysemodul (22) zum Überwachen der erfassten Bewegungsdaten, wobei das Bewegungsanalysemodul (22) potentiell sich bewegende Objekte in den erfassten Bewegungsdaten identifiziert; ein Modul (24) für die Detektierung wesentlicher Gebiete zum Identifizieren interessierender Gebiete innerhalb der erfassten Bewegungsdaten, das wenigstens Abschnitte potentiell sich bewegender Objekte angibt, wobei das Modul (24) wesentlicher Gebiete innerhalb der erfassten Bewegungsdaten Gebiete detektiert, die veränderliche Eigenschaften aufweisen; ein voraussagendes Objektdetektierungsmodul (26), das auf die Ausgaben des Bewegungsanalysemoduls (22) und des Moduls (24) für die Detektierung wesentlicher Gebiete anspricht, um auf der Grundlage potentiell sich bewegender Objekte, die durch das Bewegungsanalysemodul (22) und durch das Modul (24) für die Detektierung wesentlicher Gebiete identifiziert werden, wenigstens einen Objektkandidaten zu erzeugen; nicht abbildende Objektdetektierungssensoren (16) zum Detektieren des wenigstens einen Objektkandidaten in einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17); ein Objektnachführungsmodul (28) zum Nachführen des wenigstens einen durch das voraussagende Objektdetektierungsmodul (26) und durch die nicht abbildenden Objektdetektierungssensoren (16) detektierten Objektkandidaten, wobei das Objektnachführungsmodul (28) den wenigstens einen Objektkandidaten, der zwischen dem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17) und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet (15) übergeht, vereinigt, wobei das Objektnachführungsmodul (28) eine Position und eine Geschwindigkeit des wenigstens einen Objektkandidaten in Bezug auf das gefahrene Fahrzeug (12) nachführt, wobei das Vereinigen des wenigstens einen Objektkandidaten, der zwischen den Gebieten (15, 17) übergeht, das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit potentiellen Objekten in dem Gebiet (17), die durch die nicht abbildenden Objektdetektierungssensoren (16) erfasst wurden, enthält; und ein Gefahrbeurteilungsmodul (30) zum Bestimmen einer Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objektkandidaten und dem gefahrenen Fahrzeug (12), wobei das Gefahrbeurteilungsmodul (30) bestimmt, ob in Ansprechen auf die Gefahrbeurteilung eine Warnung ausgegeben werden soll.
  2. System nach Anspruch 1, das ferner fahrzeuginterne Sensoren zum Erfassen der Lenkung und der Bewegung des gefahrenen Fahrzeugs (12) umfasst, wobei das Objektnachführungsmodul (28) in Ansprechen auf erfasste Eingangssignale von den fahrzeuginternen Sensoren einen Fahrtweg des gefahrenen Fahrzeugs (12) voraussagt, wobei das Objektnachführungsmodul (28) eine Rückkopplung des geplanten Wegs des gefahrenen Fahrzeugs (12) an das voraussagende Objektdetektierungsmodul (26) zum Vergleich zwischen einem Einzelbild (34) zum gegenwärtigen Zeitpunkt und einem Einzelbild (32) zum vorhergehenden Zeitpunkt des potentiell sich bewegenden Objekts liefert, um zu beurteilen, ob der wenigstens eine Objektkandidat potentiell auf einem Kollisionsweg mit dem gefahrenen Fahrzeug (12) liegt.
  3. System nach Anspruch 1, wobei zum Bestimmen des geplanten Wegs des gefahrenen Fahrzeugs (12) ein Anlagenmodell verwendet wird.
  4. System nach Anspruch 1, wobei das Objektnachführungsmodul (28) vereinigte Objektdaten erzeugt, die Positions- und Geschwindigkeitsdaten enthalten.
  5. System nach Anspruch 1, wobei das voraussagende Objektdetektierungsmodul (26) Bewegungsanalyse und Szeneanalyse zum Identifizieren wesentlicher interessierender Gebiete verwendet.
  6. System nach Anspruch 5, das ferner ein Bildausschnitt-Extraktionsmodul (61) zum Extrahieren von Bildausschnitten, das potentielle Objekte identifiziert, umfasst.
  7. System nach Anspruch 6, das ferner ein Merkmalsextraktionsmodul (62) zum Bestimmen einer Verteilung von Kanten und Ecken eines Bildausschnitts umfasst, wobei die bestimmte Verteilung auf einen Merkmalsbeschreibungsvektor abgebildet wird.
  8. System nach Anspruch 7, das ferner ein Objektdetektormodul (63) umfasst, um zu klassifizieren, ob der Merkmalsdeskriptorvektor ein Objekt repräsentiert.
  9. System nach Anspruch 1, wobei die Objektdetektierungssensoren (16) kurzreichweitige Radarsensoren enthalten.
  10. System nach Anspruch 1, wobei die Objektdetektierungssensoren (16) Seiten-Blindzonen-Warnsensoren enthalten.
  11. System nach Anspruch 1, wobei die Bilderfassungsvorrichtung eine Videokamera (14) enthält.
  12. System nach Anspruch 1, wobei das Objektnachführungsmodul (28) ein Partikelfilter zum Vereinigen von Kandidatenobjekten verwendet.
  13. System nach Anspruch 1, wobei das durch die nicht abbildenden Detektierungssensoren (16) erfasste Gebiet (17) und das durch die bildgestützte Erfassungsvorrichtung erfasste Gebiet (15) nicht überlappende Gebiete (18) sind.
  14. System nach Anspruch 1, wobei das durch die nicht abbildenden Erfassungssensoren erfasste Gebiet (17) und das durch die bildgestützte Detektierungsvorrichtung erfasste Gebiet (15) ein überlappendes Gebiet (18) enthalten, wobei das Objektnachführungsmodul (28) das wenigstens eine Kandidatenobjekt durch gemeinsame Verwendung der nicht abbildenden Detektierungssensoren (16) und der bildgestützten Detektierungsvorrichtung nachführt, während das wenigstens eine Kandidatenobjekt in dem überlappenden Gebiet (18) ist.
  15. Verfahren zum Detektieren einer potentiellen Kollision zwischen einem gefahrenen Fahrzeug (12) und einem Objekt, das einen Weg des gefahrenen Fahrzeugs (12) kreuzt, wobei das Verfahren die folgenden Schritte umfasst: Detektieren eines potentiell sich bewegenden Objekts unter Verwendung nicht abbildender Objektdetektierungssensoren (16) in einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17); Erfassen von Bewegungsdaten von Objekten in einem Gebiet (15) einer Fahrtrichtung des gefahrenen Fahrzeugs (12) durch eine bildgestützte Detektierungsvorrichtung; Identifizieren eines potentiell sich bewegenden Objekts aus den erfassten Bewegungsdaten in dem durch die bildgestützte Detektierungsvorrichtung erfassten Gebiet (15); Identifizieren interessierender Gebiete innerhalb der erfassten Bilddaten, die potentiell sich bewegende Objekte enthalten; Anwenden einer voraussagenden Objektdetektierungsanalyse, die auf das identifizierte potentiell sich bewegende Objekt und auf die identifizierten interessierenden Gebiete innerhalb der erfassten Bewegungsdaten anspricht, um das identifizierte potentiell sich bewegende Objekt potentiell auf einem Kollisionsweg mit dem gefahrenen Fahrzeug (12) nachzuführen; Vereinigen der potentiell sich bewegenden Objekte, die zwischen einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17) und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet (15) übergehen, wobei das Vereinigen des wenigstens einen Objektkandidaten, der zwischen den interessierenden Gebieten übergeht, das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit potentiellen Objekten in dem Gebiet (17), die durch die nicht abbildenden Objektdetektierungssensoren (16) erfasst werden, enthält, wobei eine Position und eine Geschwindigkeit der potentiell sich bewegenden Objekte in Bezug auf das gefahrene Fahrzeug (12) nachgeführt werden; Bestimmen einer Bedrohungsbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objekt und dem gefahrenen Fahrzeug (12); und Ausgeben einer Warnung einer potentiellen Kollision zwischen einem Objekt und dem gefahrenen Fahrzeug (12) in Ansprechen auf die Gefahrbeurteilung.
  16. Verfahren nach Anspruch 15, wobei zuvor gemeinsam nachgeführte Daten für die Objekte auf die Voraussageobjekt-Detektierungsanalyse angewendet werden.
  17. Verfahren nach Anspruch 15, wobei das Anwenden der voraussagenden Objektdetektierungsanalyse eine Bewegungsanalyse und eine Szeneanalyse zum Identifizieren wesentlicher interessierender Gebiete verwendet.
  18. Verfahren nach Anspruch 17, wobei das Anwenden der voraussagenden Objektdetektierungsanalyse das Extrahieren von Bildausschnitten zum Identifizieren potentieller Objekte enthält.
  19. Verfahren nach Anspruch 18, wobei das Anwenden der voraussagenden Objektdetektierungsanalyse das Bestimmen einer Verteilung von Kanten und Ecken in dem Bildausschnitt enthält.
  20. Verfahren nach Anspruch 19, wobei die bestimmte Verteilung auf einen Merkmalsbeschreibungsvektor abgebildet wird.
  21. Verfahren nach Anspruch 20, wobei das Anwenden der voraussagenden Objektdetektierungsanalyse das Klassifizieren, ob der Merkmalsdeskriptor ein Objekt repräsentiert, enthält.
  22. Verfahren nach Anspruch 15, wobei das durch die nicht abbildenden Detektierungssensoren (16) erfasste Gebiet (17) und das durch die bildgestützte Detektierungsvorrichtung erfasste Gebiet (15) nicht überlappend sind, wobei das Objektnachführungsmodul (28) die potentiell sich bewegenden Objekte vereinigt, während es zwischen den nicht überlappenden Gebieten übergeht.
  23. Verfahren nach Anspruch 15, wobei das durch die nicht abbildenden Detektierungssensoren (16) erfasste Gebiet (17) und das durch die bildgestützte Detektierungsvorrichtung erfasste Gebiet (15) ein überlappendes Gebiet (18) sind, wobei das Objektnachführungsmodul (28) die potentiell sich bewegenden Objekte durch gemeinsame Verwendung der nicht abbildenden Detektierungssensoren (16) und der bildgestützten Detektierungsvorrichtung, während die potentiell sich bewegenden Objekte in dem überlappenden Gebiet (18) sind, nachführt.
DE112010004163.6T 2009-12-03 2010-10-13 Querverkehrkollisions-Warnsystem Active DE112010004163B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/629,962 US8232872B2 (en) 2009-12-03 2009-12-03 Cross traffic collision alert system
US12/629,962 2009-12-03
PCT/US2010/052419 WO2011068593A2 (en) 2009-12-03 2010-10-13 Cross traffic collision alert system

Publications (2)

Publication Number Publication Date
DE112010004163T5 DE112010004163T5 (de) 2012-09-06
DE112010004163B4 true DE112010004163B4 (de) 2021-12-16

Family

ID=44081473

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010004163.6T Active DE112010004163B4 (de) 2009-12-03 2010-10-13 Querverkehrkollisions-Warnsystem

Country Status (4)

Country Link
US (1) US8232872B2 (de)
CN (1) CN102792314B (de)
DE (1) DE112010004163B4 (de)
WO (1) WO2011068593A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018121008B4 (de) 2017-08-30 2024-03-07 GM Global Technology Operations LLC System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3117768B1 (de) 2006-05-19 2019-11-06 The Queen's Medical Center Bewegungsverfolgungssystem und -verfahren für adaptive echtzeitabbildung und -spektroskopie
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
EP2544161B1 (de) * 2010-03-03 2014-12-24 Honda Motor Co., Ltd. Vorrichtung zur überwachung des umgebungsbereichs eines fahrzeugs
EP2747641A4 (de) 2011-08-26 2015-04-01 Kineticor Inc Verfahren, systeme und vorrichtungen zur scan-internen bewegungskorrektur
US9014421B2 (en) * 2011-09-28 2015-04-21 Qualcomm Incorporated Framework for reference-free drift-corrected planar tracking using Lucas-Kanade optical flow
EP2814018A4 (de) * 2012-02-10 2015-08-12 Toyota Motor Co Ltd Warnvorrichtung
KR101382873B1 (ko) * 2012-06-29 2014-04-08 엘지이노텍 주식회사 전방차량 충돌 경고 시스템 및 전방차량 충돌 경고 방법
US9047675B2 (en) 2012-08-13 2015-06-02 The Boeing Company Strike detection using video images
KR101384332B1 (ko) * 2012-09-06 2014-04-10 현대모비스 주식회사 차량 영상처리 장치 및 방법과 이를 이용한 차량 영상처리 시스템
US9613533B2 (en) * 2012-12-12 2017-04-04 Honda Motor Co., Ltd. Parking space detector
JP6084026B2 (ja) * 2012-12-17 2017-02-22 オリンパス株式会社 撮像装置、告知方法、告知プログラム、及び記録媒体
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
DE102013206707A1 (de) * 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
US20150042799A1 (en) * 2013-08-07 2015-02-12 GM Global Technology Operations LLC Object highlighting and sensing in vehicle image display systems
JP6032195B2 (ja) * 2013-12-26 2016-11-24 トヨタ自動車株式会社 センサ異常検出装置
CN109884618B (zh) * 2014-02-20 2023-05-26 御眼视觉技术有限公司 车辆的导航系统、包括导航系统的车辆和导航车辆的方法
WO2015148391A1 (en) 2014-03-24 2015-10-01 Thomas Michael Ernst Systems, methods, and devices for removing prospective motion correction from medical imaging scans
JP6253467B2 (ja) * 2014-03-24 2017-12-27 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置および画像処理プログラム
US10572744B2 (en) * 2014-06-03 2020-02-25 Mobileye Vision Technologies Ltd. Systems and methods for detecting an object
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
JP6462308B2 (ja) 2014-10-22 2019-01-30 株式会社デンソー 物体検知装置
JP2016080641A (ja) 2014-10-22 2016-05-16 株式会社デンソー 物体検知装置
JP6442225B2 (ja) 2014-10-22 2018-12-19 株式会社デンソー 物体検知装置
JP6404679B2 (ja) 2014-10-22 2018-10-10 株式会社デンソー 物体検知装置
JP6474228B2 (ja) 2014-10-22 2019-02-27 株式会社デンソー 物体検知装置
JP6430778B2 (ja) 2014-10-22 2018-11-28 株式会社デンソー 物体検知装置
JP6484000B2 (ja) 2014-10-22 2019-03-13 株式会社デンソー 物体検知装置
JP6430777B2 (ja) 2014-10-22 2018-11-28 株式会社デンソー 物体検知装置
JP6336886B2 (ja) * 2014-10-22 2018-06-06 株式会社デンソー 物体検知装置
KR101655587B1 (ko) * 2014-12-01 2016-09-07 현대자동차주식회사 사각지역 검출 시스템(bsds) 및 차선 유지 보조 시스템(lkas)을 통합적으로 제어하는 시스템 및 방법
US9599706B2 (en) 2015-04-06 2017-03-21 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
US9784829B2 (en) 2015-04-06 2017-10-10 GM Global Technology Operations LLC Wheel detection and its application in object tracking and sensor registration
US9934437B1 (en) * 2015-04-06 2018-04-03 Hrl Laboratories, Llc System and method for real-time collision detection
JP6430907B2 (ja) * 2015-07-17 2018-11-28 株式会社Soken 運転支援システム
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US9650026B2 (en) * 2015-08-31 2017-05-16 GM Global Technology Operations LLC Method and apparatus for rear cross traffic avoidance
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10565468B2 (en) * 2016-01-19 2020-02-18 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
US9964642B2 (en) 2016-02-04 2018-05-08 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle with system for detecting arrival at cross road and automatically displaying side-front camera image
US9812008B2 (en) * 2016-02-19 2017-11-07 GM Global Technology Operations LLC Vehicle detection and tracking based on wheels using radar and vision
US10055652B2 (en) * 2016-03-21 2018-08-21 Ford Global Technologies, Llc Pedestrian detection and motion prediction with rear-facing camera
US9760806B1 (en) * 2016-05-11 2017-09-12 TCL Research America Inc. Method and system for vision-centric deep-learning-based road situation analysis
IT201600094858A1 (it) 2016-09-21 2018-03-21 St Microelectronics Srl Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
DE102016218852A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera
EP3319343A1 (de) * 2016-11-08 2018-05-09 Harman Becker Automotive Systems GmbH Tonverarbeitungssystem für fahrzeuge
WO2018182737A1 (en) 2017-03-31 2018-10-04 Airbus Group Hq, Inc. Systems and methods for calibrating vehicular sensors
US11987272B2 (en) 2017-07-05 2024-05-21 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US11981352B2 (en) 2017-07-05 2024-05-14 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US10402687B2 (en) * 2017-07-05 2019-09-03 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
GB2568098A (en) * 2017-11-06 2019-05-08 Jaguar Land Rover Ltd Controller and method
KR102206527B1 (ko) * 2017-11-07 2021-01-22 재단법인대구경북과학기술원 시맨틱 분할 맵을 이용한 영상 데이터 처리 장치 및 제어 방법
WO2019176028A1 (ja) * 2018-03-14 2019-09-19 本田技研工業株式会社 鞍乗り型車両の情報報知装置、鞍乗り型車両、および情報報知方法
EP4250269A3 (de) * 2018-06-13 2023-10-18 Ride Vision Ltd. Fahrerassistenzsystem und -verfahren
DE102018209388A1 (de) * 2018-06-13 2019-12-19 Robert Bosch Gmbh Erkennung fahrtrelevanter Situationen auf größere Entfernung
CA3051525A1 (en) * 2018-08-08 2020-02-08 Sohail Zangenehpour Apparatus and method for detecting, classifying and tracking road users on frames of video data
US10699137B2 (en) * 2018-08-14 2020-06-30 Verizon Connect Ireland Limited Automatic collection and classification of harsh driving events in dashcam videos
US20200189459A1 (en) * 2018-12-13 2020-06-18 GM Global Technology Operations LLC Method and system for assessing errant threat detection
JP2020140457A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 衝突判定サーバ、プログラム及び記録媒体
DE102019214198A1 (de) * 2019-09-18 2021-03-18 Robert Bosch Gmbh Ereignisbasierte Erkennung und Verfolgung von Objekten
CN110606084B (zh) * 2019-09-19 2020-12-18 中国第一汽车股份有限公司 巡航控制方法、装置、车辆及存储介质
CN111986232B (zh) * 2020-08-13 2021-09-14 上海高仙自动化科技发展有限公司 目标物体的检测方法、装置、机器人及存储介质
CN114379574B (zh) * 2020-10-20 2023-10-31 沃尔沃汽车公司 用于车辆的对象提醒设备、系统和方法
CN113370977B (zh) * 2021-05-06 2022-11-18 上海大学 一种基于视觉的智能车辆前向碰撞预警方法及系统
CN113792598B (zh) * 2021-08-10 2023-04-14 西安电子科技大学广州研究院 基于车载摄像头的汽车碰撞预测系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070168128A1 (en) 2004-01-28 2007-07-19 Setsuo Tokoro Running support system for vehicle
DE102008026396A1 (de) 2007-06-05 2008-12-24 GM Global Technology Operations, Inc., Detroit Verfahren und Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3302849B2 (ja) * 1994-11-28 2002-07-15 本田技研工業株式会社 車載用レーダーモジュール
US5767793A (en) * 1995-04-21 1998-06-16 Trw Inc. Compact vehicle based rear and side obstacle detection system including multiple antennae
US5979586A (en) * 1997-02-05 1999-11-09 Automotive Systems Laboratory, Inc. Vehicle collision warning system
JP3658519B2 (ja) * 1999-06-28 2005-06-08 株式会社日立製作所 自動車の制御システムおよび自動車の制御装置
US7386376B2 (en) * 2002-01-25 2008-06-10 Intelligent Mechatronic Systems, Inc. Vehicle visual and non-visual data recording system
US7124027B1 (en) * 2002-07-11 2006-10-17 Yazaki North America, Inc. Vehicular collision avoidance system
US6871145B2 (en) * 2002-11-26 2005-03-22 General Motors Corporation Method and system for vehicle impact assessment using driver braking estimation
US6847873B1 (en) * 2003-07-08 2005-01-25 Shih-Hsiung Li Driver information feedback and display system
DE10352800A1 (de) * 2003-11-12 2005-06-23 Robert Bosch Gmbh Vorrichtung zur Detektion von bewegten Objekten
CN1914060B (zh) * 2004-01-28 2013-05-29 丰田自动车株式会社 车辆行驶支持系统
DE102007048848A1 (de) * 2007-10-11 2009-04-16 Robert Bosch Gmbh Raumauflösendes Fahrerassistenzsystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070168128A1 (en) 2004-01-28 2007-07-19 Setsuo Tokoro Running support system for vehicle
DE102008026396A1 (de) 2007-06-05 2008-12-24 GM Global Technology Operations, Inc., Detroit Verfahren und Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018121008B4 (de) 2017-08-30 2024-03-07 GM Global Technology Operations LLC System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs

Also Published As

Publication number Publication date
CN102792314A (zh) 2012-11-21
DE112010004163T5 (de) 2012-09-06
WO2011068593A2 (en) 2011-06-09
US8232872B2 (en) 2012-07-31
WO2011068593A3 (en) 2011-08-18
CN102792314B (zh) 2015-04-22
US20110133917A1 (en) 2011-06-09

Similar Documents

Publication Publication Date Title
DE112010004163B4 (de) Querverkehrkollisions-Warnsystem
DE102011086512B4 (de) Nebeldetektion
DE602005003856T2 (de) Überwachung der Umgebung eines mobilen Körpers
DE102017105903A1 (de) Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE112014007249T5 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102013113619A1 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102011078615B4 (de) Objekterfassungsvorrichtung und objekterfassungsprogramm
DE112013001424T5 (de) Objekterkennungsvorrichtung
EP1567888B1 (de) Verfahren zur erfassung der vorausliegenden umgebung eines strassenfahrzeugs mittels eines umgebungserfassungssystems
DE102016122489A1 (de) Sichtgestützte erfassung von nassen fahrbahnzuständen mittels reifenspuren
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
DE112009001727T5 (de) Bildverarbeitungsvorrichtung
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
DE102017106535A1 (de) Strassenoberflächenzustand-Erkennung mit Multi-Scale Fusion
DE102010005290A1 (de) Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem
DE102008020007A1 (de) Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung
CN105549013A (zh) 用于汽车雷达成像的物体边界检测
DE102019103368A1 (de) Erkennung durch fusion mehrerer sensoren
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102016218853A1 (de) Detektion und Validierung von Objekten aus Bildern einer Kamera
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20120601

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final