DE112010004163B4 - Querverkehrkollisions-Warnsystem - Google Patents
Querverkehrkollisions-Warnsystem Download PDFInfo
- Publication number
- DE112010004163B4 DE112010004163B4 DE112010004163.6T DE112010004163T DE112010004163B4 DE 112010004163 B4 DE112010004163 B4 DE 112010004163B4 DE 112010004163 T DE112010004163 T DE 112010004163T DE 112010004163 B4 DE112010004163 B4 DE 112010004163B4
- Authority
- DE
- Germany
- Prior art keywords
- module
- detected
- area
- image
- areas
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/029—Steering assistants using warnings or proposing actions to the driver without influencing the steering system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Querverkehrkollisions-Warnsystem, das umfasst:eine bildgestützte Detektierungsvorrichtung zum Erfassen von Bewegungsdaten von Objekten in einem Gebiet (15) einer Fahrtrichtung eines gefahrenen Fahrzeugs (12);ein Bewegungsanalysemodul (22) zum Überwachen der erfassten Bewegungsdaten, wobei das Bewegungsanalysemodul (22) potentiell sich bewegende Objekte in den erfassten Bewegungsdaten identifiziert;ein Modul (24) für die Detektierung wesentlicher Gebiete zum Identifizieren interessierender Gebiete innerhalb der erfassten Bewegungsdaten, das wenigstens Abschnitte potentiell sich bewegender Objekte angibt, wobei das Modul (24) wesentlicher Gebiete innerhalb der erfassten Bewegungsdaten Gebiete detektiert, die veränderliche Eigenschaften aufweisen;ein voraussagendes Objektdetektierungsmodul (26), das auf die Ausgaben des Bewegungsanalysemoduls (22) und des Moduls (24) für die Detektierung wesentlicher Gebiete anspricht, um auf der Grundlage potentiell sich bewegender Objekte, die durch das Bewegungsanalysemodul (22) und durch das Modul (24) für die Detektierung wesentlicher Gebiete identifiziert werden, wenigstens einen Objektkandidaten zu erzeugen;nicht abbildende Objektdetektierungssensoren (16) zum Detektieren des wenigstens einen Objektkandidaten in einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17);ein Objektnachführungsmodul (28) zum Nachführen des wenigstens einen durch das voraussagende Objektdetektierungsmodul (26) und durch die nicht abbildenden Objektdetektierungssensoren (16) detektierten Objektkandidaten, wobei das Objektnachführungsmodul (28) den wenigstens einen Objektkandidaten, der zwischen dem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17) und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet (15) übergeht, vereinigt, wobei das Objektnachführungsmodul (28) eine Position und eine Geschwindigkeit des wenigstens einen Objektkandidaten in Bezug auf das gefahrene Fahrzeug (12) nachführt, wobei das Vereinigen des wenigstens einen Objektkandidaten, der zwischen den Gebieten (15, 17) übergeht, das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit potentiellen Objekten in dem Gebiet (17), die durch die nicht abbildenden Objektdetektierungssensoren (16) erfasst wurden, enthält; undein Gefahrbeurteilungsmodul (30) zum Bestimmen einer Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objektkandidaten und dem gefahrenen Fahrzeug (12), wobei das Gefahrbeurteilungsmodul (30) bestimmt, ob in Ansprechen auf die Gefahrbeurteilung eine Warnung ausgegeben werden soll.
Description
- HINTERGRUND DER ERFINDUNG
- Eine Ausführungsform bezieht sich allgemein auf das Bestimmen einer Kollisionsgefahr für Querverkehrskollisionen.
- Im Gebiet sind verschiedene Arten von Sicherheitssystemen bekannt, um die Insassen eines Fahrzeugs im Fall einer Kollision zu schützen. Einige dieser Systeme versuchen, die Kollision zu verhindern, bevor sie auftritt, indem sie den Fahrzeugbetreiber vor einer potentiellen Kollisionssituation warnen. Zum Beispiel kann ein Vorwärtskollisions-Warnsystem (FCW) eine nach vorn blickende Laser- oder Radarvorrichtung nutzen, die den Fahrzeugfahrer vor einer potentiellen Kollisionsgefahr warnt. Die Warnungen können eine visuelle Angabe auf dem Armaturenbrett des Fahrzeugs oder auf einer Headup-Anzeige (HUD) sein und/oder können eine Audio-Warnung oder eine Vibrationsvorrichtung wie etwa ein HAPTIC-Sitz sein. Andere Systeme versuchen eine Kollision dadurch zu verhindern, dass sie direkt eine Bremsaktion anwenden, falls der Fahrer nicht auf rechtzeitige Weise auf eine Warnung anspricht.
-
DE 10 2008 026 396 A1 offenbart ein Verfahren und eine Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr. Im Fall einer Kollisionsgefahr durch den Querverkehr wird beispielsweise ein Fahreralarm oder ein automatisches Bremsen bereitgestellt. Zum Detektieren von Objekten in dem Querverkehr weist das System Objektsensoren, beispielsweise Ultrabreitband-Radar- und/oder ein Kamerasystem auf. -
US 2007/0168128 A1 - ZUSAMMENFASSUNG DER ERFINDUNG
- Ein Vorteil einer Ausführungsform ist die Detektierung von Querverkehr durch Nachführen und Vereinigen von durch kurzreichweitige Radarsensoren und bilderkennungsgestützte Vorrichtungen erfassten Daten. Wenn die Objekte detektiert worden sind, werden die Position und die Geschwindigkeit der Objekte nachgeführt, um eine potentielle Interaktion mit dem gefahrenen Fahrzeug zu bestimmen.
- Eine Ausführungsform betrachtet ein Querverkehrkollisions-Warnsystem für ein gefahrenes Fahrzeug. Ein Querverkehrkollisions-Warnsystem enthält eine bildgestützte Detektierungsvorrichtung zum Erfassen von Bewegungsdaten von Objekten in einem Gebiet einer Fahrtrichtung eines gefahrenen Fahrzeugs. Ein Bewegungsanalysemodul überwacht die erfassten Bewegungsdaten. Das Bewegungsanalysemodul identifiziert potentielle bewegte Objekte in den erfassten Bewegungsdaten. Ein Modul für die Detektierung wesentlicher Gebiete identifiziert innerhalb der erfassten Bewegungsdaten interessierende Gebiete, die wenigstens Abschnitte potentiell bewegter Objekte angeben. Das Modul für wesentliche Gebiete detektiert Gebiete, die innerhalb der erfassten Bewegungsdaten veränderliche Eigenschaften aufweisen. Ein voraussagendes Objektdetektierungsmodul, das auf die Ausgaben des Bewegungsanalysemoduls und des Moduls für die Detektierung wesentlicher Gebiete anspricht, erzeugt auf der Grundlage der durch das Bewegungsanalysemodul und durch das Modul für die Detektierung wesentlicher Gebiete identifizierten potentiellen bewegten Objekte wenigstens einen Objektkandidaten. Nicht abbildende Objektdetektierungssensoren detektieren den wenigstens einen Objektkandidaten in einem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet. Ein Objektnachführungsmodul führt den wenigstens einen durch das voraussagende Objektdetektierungsmodul und durch die nicht abbildenden Objektdetektierungssensoren detektierten Objektkandidaten nach. Das Objektnachführungsmodul vereinigt den wenigstens einen Objektkandidaten, der zwischen dem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet und dem durch die abbildungsgestützte Erfassungsvorrichtung erfassten Gebiet übergeht. Das Objektnachführungsmodul führt eine Position und eine Geschwindigkeit des wenigstens einen Objektkandidaten in Bezug auf das gefahrene Fahrzeug nach. Der wenigstens eine Objektkandidat, der zwischen den Gebieten übergeht, wird vereinigt, was das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit Sätzen von Partikeln, die potentielle Objekte in dem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet repräsentieren, enthält. Ein Gefahrbeurteilungsmodul bestimmt eine Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objektkandidaten und dem gefahrenen Fahrzeug. Das Gefahrbeurteilungsmodul bestimmt, ob in Ansprechen auf die Gefahrbeurteilung eine Warnung gegeben werden sollte.
- Es wird ein Verfahren zum Detektieren einer potentiellen Kollision zwischen einem gefahrenen Fahrzeug und einem Objekt, das einen Weg des gefahrenen Fahrzeugs kreuzt, geschaffen. Ein potentielles bewegtes Objekt wird unter Verwendung von nicht abbildenden Objektdetektierungssensoren in einem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet detektiert. Bewegungsdaten von Objekten in einem Gebiet einer Fahrtrichtung des gefahrenen Fahrzeugs werden durch eine bildgestützte Detektierungsvorrichtung erfasst. Es werden potentielle bewegte Objekte aus den erfassten Bewegungsdaten in dem durch die bildgestützte Detektierungsvorrichtung erfassten Gebiet detektiert. Innerhalb der erfassten Bilddaten, die potentielle bewegte Objekte enthalten, werden interessierende Gebiete identifiziert. Es wird eine voraussagende Objektdetektierungsanalyse angewendet, die auf das identifizierte potentielle bewegte Objekt und auf die identifizierten interessierenden Gebiete innerhalb der erfassten Bewegungsdaten anspricht, um bei dem identifizierten potentiellen bewegten Objekt, das potentiell auf einem Kollisionsweg mit dem gefahrenen Fahrzeug ist, nachzuführen. Die potentiellen bewegten Objekte, die zwischen einem durch die nicht abbildenden Objektdetektierungssensoren erfassten Gebiet und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet übergehen, werden vereinigt. Das Objektnachführungsmodul führt eine Position und eine Geschwindigkeit der potentiellen bewegten Objekte in Bezug auf das gefahrene Fahrzeug nach. Es wird eine Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objekt und dem gefahrenen Fahrzeug bestimmt. In Ansprechen auf die Gefahrbeurteilung wird eine Warnung vor einer potentiellen Kollision zwischen einem Objekt und dem gefahrenen Fahrzeug ausgegeben.
- Figurenliste
-
-
1 ist eine Darstellung eines mit einem Querverkehr-Detektierungssystem ausgestatteten Fahrzeugs. -
2 ist eine Draufsicht eines Fahrzeugs in einem Fahrzeugkoordinatensystem. -
3 ist ein Blockschaltplan eines Querverkehr-Detektierungsprozesses. -
4 ist ein Ablaufplan für die Bewegungsanalyse. -
5 ist ein Ablaufplan zum Identifizieren interessierender wesentlicher Gebiete. -
6 ist eine beispielhafte Darstellung einer Kantendetektierungskarte. -
7 ist eine beispielhafte Darstellung einer Eckendetektierungskarte. -
8 ist eine beispielhafte Darstellung einer Blob-Detektierungskarte. -
9 ist eine beispielhafte Darstellung einer Karte zur Detektierung interessierender wesentlicher Gebiete. -
10 ist ein Blockschaltplan eines voraussagenden Objektdetektierungsmoduls. -
11 ist ein Fahrzeugdynamikmodul zweier interagierender Fahrzeuge. -
12 ist ein Ablaufplan für einen Gefahrbeurteilungsprozess. - AUSFÜHRLICHE BESCHREIBUNG
- In
1 ist allgemein bei 10 eine Darstellung eines Fahrzeugs12 gezeigt, das mit einem Querverkehrsobjekt-Detektierungssystem zum Überwachen eines erfassten Gebiets auf potentielle Kollisionen mit Querverkehr ausgestattet ist. Das Fahrzeug12 , wie es gezeigt ist, dient zu Beispielzwecken, und es ist festzustellen, dass das Fahrzeug irgendeinem Fahrzeugtyp wie etwa einen PKW, einen LKW, ein SUV oder ein Motorrad enthalten kann. Das Fahrzeug ist mit einer Videoabbildungsvorrichtung14 zum Erfassen von Bildern in einem Gebiet15 und mit nicht abbildenden Objektdetektierungssensoren16 (z. B. kurzreichweitigen Radarsensoren), die auf jeder Seite des Fahrzeugs eingebaut sind, um Objekte in einem Gebiet17 (d. h. auf beiden Seiten des Fahrzeugs) zu detektieren, ausgestattet. Die in1 gezeigte Videoabbildungsvorrichtung14 ist der Rückseite des Fahrzeugs12 zugewandt eingebaut, um Bilder in einer Rückansichtsposition zu erfassen. Die nicht abbildenden Objektdetektierungssensoren16 sind an den rückwärtigen Seiten des Fahrzeugs eingebaut, um zusammenwirkend mit der Videoabbildungsvorrichtung14 Objekte entlang eines Querfahrwegs des sich rückwärts bewegenden Fahrzeugs12 zu detektieren. Im Ergebnis enthalten die jeweiligen Detektierungsgebiete sowohl der Videoabbildungsvorrichtung14 als auch der nicht abbildenden Objektdetektierungssensoren16 nicht überlappende Gebiete. Überlappende Gebiete wie etwa jene bei 18 Gezeigten können durch eine Überlappung des Gebiets15 und des Gebiets17 gebildet werden. Das hintere Querverkehrsobjekt-Detektierungssystem vermeidet eine potentielle Kollision zwischen dem Fahrzeug12 , das sich aus einem Stellplatz herausbewegt, und einem Fahrzeug19 , das den Weg des Fahrzeugs12 wie in2 dargestellt kreuzt. Obgleich sich die hier beschriebene Ausführungsform auf ein rückwärts gefahrenes Fahrzeug bezieht, ist festzustellen, dass das System, für ein vorwärts gefahrenes Fahrzeug genutzt werden kann, bei dem die Sensoren und die Videoabbildungsvorrichtung an anderer Stelle eingebaut sein können, um vorderen Querverkehr zu detektieren. -
3 veranschaulicht einen Blockschaltplan des Querverkehrsobjekt-Detektierungsprozesses. Es wird hier eine Zusammenfassung des Systems beschrieben. Ein Videodatenstrom20 , der durch die Videoabbildungsvorrichtung erfasst wird, wird an ein Bewegungsanalysemodul22 und an ein Modul24 für die Detektierung wesentlicher Gebiete angelegt. - Das Bewegungsanalysemodul
22 überwacht den erfassten Eingangsvideodatenstrom und hebt Bewegungs-Blobs in dem Bild hervor. Der Begriff Blob, wie er hier verwendet ist, repräsentiert etwas, das in dem Bild vorhanden ist, im Moment aber nicht gut definiert ist, um zu bestimmen, ob das Bild ein Fahrzeug, ein sich bewegendes Objekt, ein feststehendes Objekt oder eine andere Entität ist. - Das Modul
24 für die Detektierung wesentlicher Gebiete überwacht jedes Einzelbild des erfassten Videoeingangsdatenstroms und liefert interessierende Gebiete, die die Anwesenheit von Objekten oder Teilen von Objekten in einer jeweiligen Bildebene angeben könnten. Die Ausgaben von dem Bewegungsanalysemodul22 und von dem Modul24 für die Detektierung wesentlicher Gebiete werden an ein voraussagendes Objektdetektierungsmodul26 geliefert. - Das voraussagende Objektdetektierungsmodul
26 überwacht die Ausgaben des Bewegungsanalysemoduls22 und des Moduls24 für die Detektierung wesentlicher Gebiete, um für jedes hervorgehobene Objekt mehrere Bildkandidaten zu erzeugen. Die Ausgabe des voraussagenden Objektdetektierungsmoduls26 wird durch ein Objektnachführungsmodul28 analysiert. An das Objektnachführungsmodul28 werden Ausgaben von den nicht abbildenden Objektdetektierungssensoren16 geliefert. - Das Objektnachführungsmodul
28 vereinigt die Objekte auf der Grundlage der von dem voraussagenden Objektdetektierungsmodul26 und von den nicht abbildenden Objektdetektierungssensoren16 zugeführten Daten und identifiziert jeweilige Attribute wie etwa die Position und die Geschwindigkeit eines jeweiligen Objekts. Die vereinigten Daten von dem Objektnachführungsmodul28 werden an ein Gefahrbeurteilungsmodul30 geliefert, das die Gefahr eines kreuzenden Objekts bestimmt und das außerdem bestimmt, ob eine Warnmeldung über eine HMI31 oder ähnlich an den Fahrer des Fahrzeugs zu betätigen ist. -
4 veranschaulicht einen Blockschaltplan eines Bewegungsanalysemoduls22 . Das Bewegungsanalysemodul22 segmentiert Bewegungsmerkmale von dem Bild als Ganzes. Die Bewegungsmerkmale werden aus zwei aufeinanderfolgenden Eingangseinzelbildern32 und34 abgeleitet. Die Eingangseinzelbilder32 und34 werden zu jeweiligen Einzelbildern36 und38 normalisiert. Auf die normalisierten Einzelbilder36 und38 wird ein Lichtflussoperator angewendet, um ein Bewegungsmerkmalbild40 zu erzeugen. Aus dem Bewegungsmerkmalbild40 werden segmentierte Objekte42 abgeleitet. Die segmentierten Objekte42 werden durch Ermitteln eines Blobs eines lokalen Maximums in dem Bewegungsmerkmalbild40 bestimmt. - Für ein jeweiliges Bild, auf das das Bild-Einzelbild angewendet wird, sei It(x, y) das Bild-Einzelbild zum Zeitpunkt t, wobei x und y die Zeilen bzw. Spalten der Pixel repräsentieren. Die normalisierten Einzelbilder
36 und38 werden durch die Formel wie folgt repräsentiert: - Auf zwei aufeinanderfolgende Bild-Einzelbilder It-1(x, y) und It(x, y) wird ein Lichtflussoperator wie etwa Lucas-Kanada angewendet. Der Zeitpunkt t repräsentiert ein Einzelbild zum gegenwärtigen Zeitpunkt für das erfasste Bild, während der Zeitpunkt t-1 ein Einzelbild zum vorhergehenden Zeitpunkt des erfassten Bilds repräsentiert. Im Ergebnis kann auf der Grundlage der Bewegung des Objekts zwischen dem Einzelbild t zum gegenwärtigen Zeitpunkt und dem Einzelbild t-1 zum vorhergehenden Zeitpunkt, was als Lichtflussbild bekannt ist, ein bewegtes Objekt detektiert werden. Auf das Lichtflussbild wird eine Nachführung eines Schwellenwerts und verbundener Komponenten angewendet, um in dem Ausgangsbild Gebiete von Kandidaten zu identifizieren, wo erhebliche Bewegung detektiert wird.
- Das wie in
1 beschriebene Modul24 für wesentliche Gebiete detektiert Gebiete in dem Bild, die im Vergleich zu anderen Objekten in dem Bild erheblich veränderliche Eigenschaften (z. B. hellere oder dunklere Eigenschaften) aufweisen oder die mehr Kanten und Ecken als die umgebenden Objekte in dem Bild aufweisen. Diese jeweiligen Gebiete schließen üblicherweise Objekte oder Teile von Objekten ein, sodass es vorteilhaft ist, solche jeweiligen Gebiete zur weiteren Bewertung zu identifizieren. -
5 veranschaulicht den Prozess zum Identifizieren wesentlicher interessierender Gebiete. In Schritt50 wird die Routine zum Identifizieren der wesentlichen interessierenden Gebiete initiiert. In Schritt51 wird der Eingangsvideodatenstrom erfasst und analysiert. - In Schritt
52 werden aus dem Eingangsvideodatenstrom Kanten bestimmt. In6 ist eine Kantenkarte gezeigt, die die Kanten identifiziert. - In Schritt
53 werden aus dem Eingangsvideodatenstrom Ecken bestimmt. In7 ist eine Eckenkarte gezeigt, die Ecken identifiziert. - In Schritt
54 werden aus dem Eingangsvideodatenstrom Blobs bestimmt. In8 ist eine Karte wesentlicher Blobs gezeigt, die Blobs identifiziert. - In Schritt
55 werden die detektierten Kanten, Ecken und wesentlichen Blobs kombiniert, um wesentliche interessierende Gebiete zu identifizieren. In9 ist eine Karte wesentlicher interessierender Gebiete, die interessierende Gebiete identifiziert, gezeigt. - In Bezug auf den Prozess zum Detektieren wesentlicher Blobs aus
54 wird auf das Bild ein Gauß'scher Operator angewendet. Für das Eingangsbild I(x, y) wird das Bild mit einem Gaußschen Kern gefaltet, der durch die folgende Formel repräsentiert wird: -
-
-
10 veranschaulicht einen Blockschaltplan eines voraussagenden Objektdetektierungsmoduls26 . Das voraussagende Objektdetektierungsmodul26 überwacht Ausgaben von dem Bewegungsanalysemodul und von dem Modul zum Detektieren wesentlicher Blobs. Außerdem empfängt das voraussagende Objektdetektierungsmodul26 von dem Objektnachführungsmodul Ausgaben zu einem früheren Zeitpunkt. Die an das voraussagende Objektdetektierungsmodul26 gelieferten wesentlichen interessierenden Gebiete können als Positionen und Größen in dem Bild-Einzelbild repräsentiert werden. Ein Bildausschnitt-Extraktionsmodul61 extrahiert ein Teilbild Sk, das ein Objekt einschließen kann, durch Angabe des Orts und der Größe der Eingangsbildausschnitte oder der vorhergehenden Position und Größe eines Objekts. Ein Merkmalsextraktionsmodell62 berechnet eine Verteilung der Kanten, der Ecken oder ein Erscheinen des ausgewählten Teilbildausschnitts Sk. Die berechnete Verteilung wird auf einen Merkmalsdeskriptorvektor fk abgebildet. Daraufhin klassifiziert das Objektdetektormodul63 , ob der Merkmalsdeskriptorvektor ein Objekt repräsentiert. Ein Vektor pk = (u, v) repräsentiert einen Ort eines unteren Abschnitts des Teilbilds Sk, wobei u der Zeilen- und v der Spaltenindex des Orts ist. - In der Merkmalsextraktion werden zahlreiche Merkmalsdeskriptoren [engl.: „featured descriptors“], einschließlich, aber nicht beschränkt auf, skaleninvarianter Merkmalstransformation (SIFT), beschleunigter robuster Merkmale (SURF), maximal stabiler Extremgebiete (MSER), Histogramm orientierter Gradienten (HOG) und Eigenbildkoeffizienten, verwendet. Ein Kernteil des Objektdetektormoduls enthält einen statistischen Klassierer, der unter Verwendung einer erheblichen Anzahl von Objekt- und Nicht-Objekt-Bildproben trainiert wird. Solche Klassierer können eine Unterstützungsvektormaschine (SVM) und ein neuronales Netzwerk (NN) enthalten, sind darauf aber nicht beschränkt.
- Das Objektnachführungsmodul
28 überwacht Ausgaben des voraussagenden Detektierungsmoduls26 und der kurzreichweitigen Radarerfassungsvorrichtungen (SRR-Erfassungsvorrichtungen) und vereinigt Objektinformationen, die von diesen jeweiligen Sensoren erhalten werden. Das Objektnachführungsmodul28 erzeugt vereinigte Objektdaten wie etwa Position und Geschwindigkeit in einem Trägerfahrzeug-Koordinatensystem. Von dem Objektnachführungsmodul kann eine Partikelfilterung verwendet werden. -
-
- Falls angenommen wird, dass die Bodenoberfläche durch eine flache Ebene angenähert werden kann, gibt es zwischen der Bodenebene und der Bildebene der Kamera eine homographische Transformation H, sodass
- Ferner wird angenommen, dass der Ort pk des k-ten Objekts der Projektion des Objekts auf die Bodenebene entspricht. Somit können die Zielpositionen in dem Fahrzeugsystem als homogene Koordinaten {Xk = H-1qk | k = 1, ..., N} geschrieben werden. Somit kann für das k-te Objekt Xk = {x'ok, y'ok, ck}, die x-y-Koordinate in dem Fahrzeugsystem geschrieben werden als:
-
11 veranschaulicht ein Anlagenmodell einer dynamischen Bewegung zwischen dem rückwärts gefahrenen Fahrzeug und dem Zielfahrzeug zur Bestimmung eines geplanten Wegs des rückwärts gefahrenen Fahrzeugs. Die Attribute des Fahrzeugs für das Objektnachführungsmodul enthalten x = (x, y, Φ, ω, v), wobei in dieser Reihenfolge x, y die x-y-Position repräsentiert, Φ die Stellung repräsentiert, ω die Winkelgeschwindigkeit (z. B. die Änderungsrate der Stellung) repräsentiert und v die Geschwindigkeit des Objekts repräsentiert. - Die dynamischen Entwicklungen des Objekts können wie folgt repräsentiert werden:
- Die Messwerte des Objekts in dem Fahrzeugsystem können einen Videoschätzwert (x1ok, y1ok), einen Radarschätzwert (rn, ṙn, θn) oder beide enthalten. Im Ergebnis können die Messwertgleichungen wie folgt geschrieben werden:
- Das Bedrohungsbeurteilungsmodul beurteilt alle nachgeführten Objekte und bestimmt, ob ein Objekt eine unmittelbare Bedrohung ist oder nicht.
- Die Ausgabe des Objektnachführungsmoduls kann als Satz von Partikeln angesehen werden, wobei jeder Satz von Partikeln mögliche Zustandsvektoren eines nachgeführten Objekts repräsentiert. Für ein k-tes Objekt wird der folgende Partikelsatz durch die folgende Gleichung repräsentiert:
-
12 veranschaulicht einen Ablaufplan der Bedrohungsbeurteilungsprozedur. In Schritt70 werden alle nachgeführten Objekte von der Ausgabe des Objektnachführungsmoduls gesammelt. - In Schritt
71 wird eine Bestimmung vorgenommen, ob alle nachgeführten Objekte gesehen worden sind. Falls eine Bestimmung erfolgt, dass alle nachgeführten Objekte gesehen worden sind, wird die Routine in Schritt72 abgeschlossen. Falls die Bestimmung erfolgt, dass nicht alle nachgeführten Objekte gesehen worden sind, geht die Routine zu Schritt73 über, um ein ungesehenes Objekt von dem nachgeführten Objekt auszuwählen. - In Schritt
74 wird ein Prozentsatz der Partikel des Objekts bestimmt, um die Merker auszulösen, die eine Warnung oder automatische Bremsung aktivieren. - In Schritt
75 wird eine Bestimmung vorgenommen, ob der Prozentsatz höher als ein Schwellenwert ist. Falls der Prozentsatz nicht höher als der Schwellenwert ist, kehrt die Routine zu Schritt71 zurück. Falls der Prozentsatz höher als der Schwellenwert ist, geht die Routine zu Schritt76 über. - In Schritt
76 wird in Ansprechen darauf, dass der Prozentsatz höher als der Schwellenwert ist, ein Aktivierungssignal an eine Fahrzeug-Mensch-Maschine-Schnittstelle ausgegeben. Daraufhin kehrt die Routine zu Schritt71 zurück. - Obwohl bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben worden sind, erkennt der Fachmann auf dem Gebiet, auf das sich diese Erfindung bezieht, verschiedene alternative Entwürfe und Ausführungsformen, um die wie durch die folgenden Ansprüche definierte Erfindung zu verwirklichen.
Claims (23)
- Querverkehrkollisions-Warnsystem, das umfasst: eine bildgestützte Detektierungsvorrichtung zum Erfassen von Bewegungsdaten von Objekten in einem Gebiet (15) einer Fahrtrichtung eines gefahrenen Fahrzeugs (12); ein Bewegungsanalysemodul (22) zum Überwachen der erfassten Bewegungsdaten, wobei das Bewegungsanalysemodul (22) potentiell sich bewegende Objekte in den erfassten Bewegungsdaten identifiziert; ein Modul (24) für die Detektierung wesentlicher Gebiete zum Identifizieren interessierender Gebiete innerhalb der erfassten Bewegungsdaten, das wenigstens Abschnitte potentiell sich bewegender Objekte angibt, wobei das Modul (24) wesentlicher Gebiete innerhalb der erfassten Bewegungsdaten Gebiete detektiert, die veränderliche Eigenschaften aufweisen; ein voraussagendes Objektdetektierungsmodul (26), das auf die Ausgaben des Bewegungsanalysemoduls (22) und des Moduls (24) für die Detektierung wesentlicher Gebiete anspricht, um auf der Grundlage potentiell sich bewegender Objekte, die durch das Bewegungsanalysemodul (22) und durch das Modul (24) für die Detektierung wesentlicher Gebiete identifiziert werden, wenigstens einen Objektkandidaten zu erzeugen; nicht abbildende Objektdetektierungssensoren (16) zum Detektieren des wenigstens einen Objektkandidaten in einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17); ein Objektnachführungsmodul (28) zum Nachführen des wenigstens einen durch das voraussagende Objektdetektierungsmodul (26) und durch die nicht abbildenden Objektdetektierungssensoren (16) detektierten Objektkandidaten, wobei das Objektnachführungsmodul (28) den wenigstens einen Objektkandidaten, der zwischen dem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17) und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet (15) übergeht, vereinigt, wobei das Objektnachführungsmodul (28) eine Position und eine Geschwindigkeit des wenigstens einen Objektkandidaten in Bezug auf das gefahrene Fahrzeug (12) nachführt, wobei das Vereinigen des wenigstens einen Objektkandidaten, der zwischen den Gebieten (15, 17) übergeht, das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit potentiellen Objekten in dem Gebiet (17), die durch die nicht abbildenden Objektdetektierungssensoren (16) erfasst wurden, enthält; und ein Gefahrbeurteilungsmodul (30) zum Bestimmen einer Gefahrbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objektkandidaten und dem gefahrenen Fahrzeug (12), wobei das Gefahrbeurteilungsmodul (30) bestimmt, ob in Ansprechen auf die Gefahrbeurteilung eine Warnung ausgegeben werden soll.
- System nach
Anspruch 1 , das ferner fahrzeuginterne Sensoren zum Erfassen der Lenkung und der Bewegung des gefahrenen Fahrzeugs (12) umfasst, wobei das Objektnachführungsmodul (28) in Ansprechen auf erfasste Eingangssignale von den fahrzeuginternen Sensoren einen Fahrtweg des gefahrenen Fahrzeugs (12) voraussagt, wobei das Objektnachführungsmodul (28) eine Rückkopplung des geplanten Wegs des gefahrenen Fahrzeugs (12) an das voraussagende Objektdetektierungsmodul (26) zum Vergleich zwischen einem Einzelbild (34) zum gegenwärtigen Zeitpunkt und einem Einzelbild (32) zum vorhergehenden Zeitpunkt des potentiell sich bewegenden Objekts liefert, um zu beurteilen, ob der wenigstens eine Objektkandidat potentiell auf einem Kollisionsweg mit dem gefahrenen Fahrzeug (12) liegt. - System nach
Anspruch 1 , wobei zum Bestimmen des geplanten Wegs des gefahrenen Fahrzeugs (12) ein Anlagenmodell verwendet wird. - System nach
Anspruch 1 , wobei das Objektnachführungsmodul (28) vereinigte Objektdaten erzeugt, die Positions- und Geschwindigkeitsdaten enthalten. - System nach
Anspruch 1 , wobei das voraussagende Objektdetektierungsmodul (26) Bewegungsanalyse und Szeneanalyse zum Identifizieren wesentlicher interessierender Gebiete verwendet. - System nach
Anspruch 5 , das ferner ein Bildausschnitt-Extraktionsmodul (61) zum Extrahieren von Bildausschnitten, das potentielle Objekte identifiziert, umfasst. - System nach
Anspruch 6 , das ferner ein Merkmalsextraktionsmodul (62) zum Bestimmen einer Verteilung von Kanten und Ecken eines Bildausschnitts umfasst, wobei die bestimmte Verteilung auf einen Merkmalsbeschreibungsvektor abgebildet wird. - System nach
Anspruch 7 , das ferner ein Objektdetektormodul (63) umfasst, um zu klassifizieren, ob der Merkmalsdeskriptorvektor ein Objekt repräsentiert. - System nach
Anspruch 1 , wobei die Objektdetektierungssensoren (16) kurzreichweitige Radarsensoren enthalten. - System nach
Anspruch 1 , wobei die Objektdetektierungssensoren (16) Seiten-Blindzonen-Warnsensoren enthalten. - System nach
Anspruch 1 , wobei die Bilderfassungsvorrichtung eine Videokamera (14) enthält. - System nach
Anspruch 1 , wobei das Objektnachführungsmodul (28) ein Partikelfilter zum Vereinigen von Kandidatenobjekten verwendet. - System nach
Anspruch 1 , wobei das durch die nicht abbildenden Detektierungssensoren (16) erfasste Gebiet (17) und das durch die bildgestützte Erfassungsvorrichtung erfasste Gebiet (15) nicht überlappende Gebiete (18) sind. - System nach
Anspruch 1 , wobei das durch die nicht abbildenden Erfassungssensoren erfasste Gebiet (17) und das durch die bildgestützte Detektierungsvorrichtung erfasste Gebiet (15) ein überlappendes Gebiet (18) enthalten, wobei das Objektnachführungsmodul (28) das wenigstens eine Kandidatenobjekt durch gemeinsame Verwendung der nicht abbildenden Detektierungssensoren (16) und der bildgestützten Detektierungsvorrichtung nachführt, während das wenigstens eine Kandidatenobjekt in dem überlappenden Gebiet (18) ist. - Verfahren zum Detektieren einer potentiellen Kollision zwischen einem gefahrenen Fahrzeug (12) und einem Objekt, das einen Weg des gefahrenen Fahrzeugs (12) kreuzt, wobei das Verfahren die folgenden Schritte umfasst: Detektieren eines potentiell sich bewegenden Objekts unter Verwendung nicht abbildender Objektdetektierungssensoren (16) in einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17); Erfassen von Bewegungsdaten von Objekten in einem Gebiet (15) einer Fahrtrichtung des gefahrenen Fahrzeugs (12) durch eine bildgestützte Detektierungsvorrichtung; Identifizieren eines potentiell sich bewegenden Objekts aus den erfassten Bewegungsdaten in dem durch die bildgestützte Detektierungsvorrichtung erfassten Gebiet (15); Identifizieren interessierender Gebiete innerhalb der erfassten Bilddaten, die potentiell sich bewegende Objekte enthalten; Anwenden einer voraussagenden Objektdetektierungsanalyse, die auf das identifizierte potentiell sich bewegende Objekt und auf die identifizierten interessierenden Gebiete innerhalb der erfassten Bewegungsdaten anspricht, um das identifizierte potentiell sich bewegende Objekt potentiell auf einem Kollisionsweg mit dem gefahrenen Fahrzeug (12) nachzuführen; Vereinigen der potentiell sich bewegenden Objekte, die zwischen einem durch die nicht abbildenden Objektdetektierungssensoren (16) erfassten Gebiet (17) und dem durch die bildgestützte Erfassungsvorrichtung erfassten Gebiet (15) übergehen, wobei das Vereinigen des wenigstens einen Objektkandidaten, der zwischen den interessierenden Gebieten übergeht, das Zusammenführen von Objektdaten, die den wenigstens einen Objektkandidaten in den Bewegungsdaten repräsentieren, mit potentiellen Objekten in dem Gebiet (17), die durch die nicht abbildenden Objektdetektierungssensoren (16) erfasst werden, enthält, wobei eine Position und eine Geschwindigkeit der potentiell sich bewegenden Objekte in Bezug auf das gefahrene Fahrzeug (12) nachgeführt werden; Bestimmen einer Bedrohungsbeurteilung einer potentiellen Kollision zwischen einem nachgeführten Objekt und dem gefahrenen Fahrzeug (12); und Ausgeben einer Warnung einer potentiellen Kollision zwischen einem Objekt und dem gefahrenen Fahrzeug (12) in Ansprechen auf die Gefahrbeurteilung.
- Verfahren nach
Anspruch 15 , wobei zuvor gemeinsam nachgeführte Daten für die Objekte auf die Voraussageobjekt-Detektierungsanalyse angewendet werden. - Verfahren nach
Anspruch 15 , wobei das Anwenden der voraussagenden Objektdetektierungsanalyse eine Bewegungsanalyse und eine Szeneanalyse zum Identifizieren wesentlicher interessierender Gebiete verwendet. - Verfahren nach
Anspruch 17 , wobei das Anwenden der voraussagenden Objektdetektierungsanalyse das Extrahieren von Bildausschnitten zum Identifizieren potentieller Objekte enthält. - Verfahren nach
Anspruch 18 , wobei das Anwenden der voraussagenden Objektdetektierungsanalyse das Bestimmen einer Verteilung von Kanten und Ecken in dem Bildausschnitt enthält. - Verfahren nach
Anspruch 19 , wobei die bestimmte Verteilung auf einen Merkmalsbeschreibungsvektor abgebildet wird. - Verfahren nach
Anspruch 20 , wobei das Anwenden der voraussagenden Objektdetektierungsanalyse das Klassifizieren, ob der Merkmalsdeskriptor ein Objekt repräsentiert, enthält. - Verfahren nach
Anspruch 15 , wobei das durch die nicht abbildenden Detektierungssensoren (16) erfasste Gebiet (17) und das durch die bildgestützte Detektierungsvorrichtung erfasste Gebiet (15) nicht überlappend sind, wobei das Objektnachführungsmodul (28) die potentiell sich bewegenden Objekte vereinigt, während es zwischen den nicht überlappenden Gebieten übergeht. - Verfahren nach
Anspruch 15 , wobei das durch die nicht abbildenden Detektierungssensoren (16) erfasste Gebiet (17) und das durch die bildgestützte Detektierungsvorrichtung erfasste Gebiet (15) ein überlappendes Gebiet (18) sind, wobei das Objektnachführungsmodul (28) die potentiell sich bewegenden Objekte durch gemeinsame Verwendung der nicht abbildenden Detektierungssensoren (16) und der bildgestützten Detektierungsvorrichtung, während die potentiell sich bewegenden Objekte in dem überlappenden Gebiet (18) sind, nachführt.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/629,962 US8232872B2 (en) | 2009-12-03 | 2009-12-03 | Cross traffic collision alert system |
US12/629,962 | 2009-12-03 | ||
PCT/US2010/052419 WO2011068593A2 (en) | 2009-12-03 | 2010-10-13 | Cross traffic collision alert system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112010004163T5 DE112010004163T5 (de) | 2012-09-06 |
DE112010004163B4 true DE112010004163B4 (de) | 2021-12-16 |
Family
ID=44081473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112010004163.6T Active DE112010004163B4 (de) | 2009-12-03 | 2010-10-13 | Querverkehrkollisions-Warnsystem |
Country Status (4)
Country | Link |
---|---|
US (1) | US8232872B2 (de) |
CN (1) | CN102792314B (de) |
DE (1) | DE112010004163B4 (de) |
WO (1) | WO2011068593A2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018121008B4 (de) | 2017-08-30 | 2024-03-07 | GM Global Technology Operations LLC | System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs |
Families Citing this family (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3117768B1 (de) | 2006-05-19 | 2019-11-06 | The Queen's Medical Center | Bewegungsverfolgungssystem und -verfahren für adaptive echtzeitabbildung und -spektroskopie |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
EP2544161B1 (de) * | 2010-03-03 | 2014-12-24 | Honda Motor Co., Ltd. | Vorrichtung zur überwachung des umgebungsbereichs eines fahrzeugs |
EP2747641A4 (de) | 2011-08-26 | 2015-04-01 | Kineticor Inc | Verfahren, systeme und vorrichtungen zur scan-internen bewegungskorrektur |
US9014421B2 (en) * | 2011-09-28 | 2015-04-21 | Qualcomm Incorporated | Framework for reference-free drift-corrected planar tracking using Lucas-Kanade optical flow |
EP2814018A4 (de) * | 2012-02-10 | 2015-08-12 | Toyota Motor Co Ltd | Warnvorrichtung |
KR101382873B1 (ko) * | 2012-06-29 | 2014-04-08 | 엘지이노텍 주식회사 | 전방차량 충돌 경고 시스템 및 전방차량 충돌 경고 방법 |
US9047675B2 (en) | 2012-08-13 | 2015-06-02 | The Boeing Company | Strike detection using video images |
KR101384332B1 (ko) * | 2012-09-06 | 2014-04-10 | 현대모비스 주식회사 | 차량 영상처리 장치 및 방법과 이를 이용한 차량 영상처리 시스템 |
US9613533B2 (en) * | 2012-12-12 | 2017-04-04 | Honda Motor Co., Ltd. | Parking space detector |
JP6084026B2 (ja) * | 2012-12-17 | 2017-02-22 | オリンパス株式会社 | 撮像装置、告知方法、告知プログラム、及び記録媒体 |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
DE102013206707A1 (de) * | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs |
US20150042799A1 (en) * | 2013-08-07 | 2015-02-12 | GM Global Technology Operations LLC | Object highlighting and sensing in vehicle image display systems |
JP6032195B2 (ja) * | 2013-12-26 | 2016-11-24 | トヨタ自動車株式会社 | センサ異常検出装置 |
CN109884618B (zh) * | 2014-02-20 | 2023-05-26 | 御眼视觉技术有限公司 | 车辆的导航系统、包括导航系统的车辆和导航车辆的方法 |
WO2015148391A1 (en) | 2014-03-24 | 2015-10-01 | Thomas Michael Ernst | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
JP6253467B2 (ja) * | 2014-03-24 | 2017-12-27 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 画像処理装置および画像処理プログラム |
US10572744B2 (en) * | 2014-06-03 | 2020-02-25 | Mobileye Vision Technologies Ltd. | Systems and methods for detecting an object |
CN106714681A (zh) | 2014-07-23 | 2017-05-24 | 凯内蒂科尔股份有限公司 | 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法 |
JP6462308B2 (ja) | 2014-10-22 | 2019-01-30 | 株式会社デンソー | 物体検知装置 |
JP2016080641A (ja) | 2014-10-22 | 2016-05-16 | 株式会社デンソー | 物体検知装置 |
JP6442225B2 (ja) | 2014-10-22 | 2018-12-19 | 株式会社デンソー | 物体検知装置 |
JP6404679B2 (ja) | 2014-10-22 | 2018-10-10 | 株式会社デンソー | 物体検知装置 |
JP6474228B2 (ja) | 2014-10-22 | 2019-02-27 | 株式会社デンソー | 物体検知装置 |
JP6430778B2 (ja) | 2014-10-22 | 2018-11-28 | 株式会社デンソー | 物体検知装置 |
JP6484000B2 (ja) | 2014-10-22 | 2019-03-13 | 株式会社デンソー | 物体検知装置 |
JP6430777B2 (ja) | 2014-10-22 | 2018-11-28 | 株式会社デンソー | 物体検知装置 |
JP6336886B2 (ja) * | 2014-10-22 | 2018-06-06 | 株式会社デンソー | 物体検知装置 |
KR101655587B1 (ko) * | 2014-12-01 | 2016-09-07 | 현대자동차주식회사 | 사각지역 검출 시스템(bsds) 및 차선 유지 보조 시스템(lkas)을 통합적으로 제어하는 시스템 및 방법 |
US9599706B2 (en) | 2015-04-06 | 2017-03-21 | GM Global Technology Operations LLC | Fusion method for cross traffic application using radars and camera |
US9784829B2 (en) | 2015-04-06 | 2017-10-10 | GM Global Technology Operations LLC | Wheel detection and its application in object tracking and sensor registration |
US9934437B1 (en) * | 2015-04-06 | 2018-04-03 | Hrl Laboratories, Llc | System and method for real-time collision detection |
JP6430907B2 (ja) * | 2015-07-17 | 2018-11-28 | 株式会社Soken | 運転支援システム |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
US9650026B2 (en) * | 2015-08-31 | 2017-05-16 | GM Global Technology Operations LLC | Method and apparatus for rear cross traffic avoidance |
WO2017091479A1 (en) | 2015-11-23 | 2017-06-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10565468B2 (en) * | 2016-01-19 | 2020-02-18 | Aptiv Technologies Limited | Object tracking system with radar/vision fusion for automated vehicles |
US9964642B2 (en) | 2016-02-04 | 2018-05-08 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicle with system for detecting arrival at cross road and automatically displaying side-front camera image |
US9812008B2 (en) * | 2016-02-19 | 2017-11-07 | GM Global Technology Operations LLC | Vehicle detection and tracking based on wheels using radar and vision |
US10055652B2 (en) * | 2016-03-21 | 2018-08-21 | Ford Global Technologies, Llc | Pedestrian detection and motion prediction with rear-facing camera |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
IT201600094858A1 (it) | 2016-09-21 | 2018-03-21 | St Microelectronics Srl | Procedimento per un cross traffic alert avanzato a basso costo, corrispondente sistema di elaborazione, sistema per cross traffic alert e veicolo |
DE102016218849A1 (de) | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion und Tracking von Objekten aus Bildern einer Kamera |
DE102016218852A1 (de) | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion von Objekten aus Bildern einer Kamera |
DE102016218853A1 (de) * | 2016-09-29 | 2018-03-29 | Conti Temic Microelectronic Gmbh | Detektion und Validierung von Objekten aus Bildern einer Kamera |
EP3319343A1 (de) * | 2016-11-08 | 2018-05-09 | Harman Becker Automotive Systems GmbH | Tonverarbeitungssystem für fahrzeuge |
WO2018182737A1 (en) | 2017-03-31 | 2018-10-04 | Airbus Group Hq, Inc. | Systems and methods for calibrating vehicular sensors |
US11987272B2 (en) | 2017-07-05 | 2024-05-21 | Perceptive Automata, Inc. | System and method of predicting human interaction with vehicles |
US11981352B2 (en) | 2017-07-05 | 2024-05-14 | Perceptive Automata, Inc. | System and method of predicting human interaction with vehicles |
US10402687B2 (en) * | 2017-07-05 | 2019-09-03 | Perceptive Automata, Inc. | System and method of predicting human interaction with vehicles |
GB2568098A (en) * | 2017-11-06 | 2019-05-08 | Jaguar Land Rover Ltd | Controller and method |
KR102206527B1 (ko) * | 2017-11-07 | 2021-01-22 | 재단법인대구경북과학기술원 | 시맨틱 분할 맵을 이용한 영상 데이터 처리 장치 및 제어 방법 |
WO2019176028A1 (ja) * | 2018-03-14 | 2019-09-19 | 本田技研工業株式会社 | 鞍乗り型車両の情報報知装置、鞍乗り型車両、および情報報知方法 |
EP4250269A3 (de) * | 2018-06-13 | 2023-10-18 | Ride Vision Ltd. | Fahrerassistenzsystem und -verfahren |
DE102018209388A1 (de) * | 2018-06-13 | 2019-12-19 | Robert Bosch Gmbh | Erkennung fahrtrelevanter Situationen auf größere Entfernung |
CA3051525A1 (en) * | 2018-08-08 | 2020-02-08 | Sohail Zangenehpour | Apparatus and method for detecting, classifying and tracking road users on frames of video data |
US10699137B2 (en) * | 2018-08-14 | 2020-06-30 | Verizon Connect Ireland Limited | Automatic collection and classification of harsh driving events in dashcam videos |
US20200189459A1 (en) * | 2018-12-13 | 2020-06-18 | GM Global Technology Operations LLC | Method and system for assessing errant threat detection |
JP2020140457A (ja) * | 2019-02-28 | 2020-09-03 | トヨタ自動車株式会社 | 衝突判定サーバ、プログラム及び記録媒体 |
DE102019214198A1 (de) * | 2019-09-18 | 2021-03-18 | Robert Bosch Gmbh | Ereignisbasierte Erkennung und Verfolgung von Objekten |
CN110606084B (zh) * | 2019-09-19 | 2020-12-18 | 中国第一汽车股份有限公司 | 巡航控制方法、装置、车辆及存储介质 |
CN111986232B (zh) * | 2020-08-13 | 2021-09-14 | 上海高仙自动化科技发展有限公司 | 目标物体的检测方法、装置、机器人及存储介质 |
CN114379574B (zh) * | 2020-10-20 | 2023-10-31 | 沃尔沃汽车公司 | 用于车辆的对象提醒设备、系统和方法 |
CN113370977B (zh) * | 2021-05-06 | 2022-11-18 | 上海大学 | 一种基于视觉的智能车辆前向碰撞预警方法及系统 |
CN113792598B (zh) * | 2021-08-10 | 2023-04-14 | 西安电子科技大学广州研究院 | 基于车载摄像头的汽车碰撞预测系统和方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070168128A1 (en) | 2004-01-28 | 2007-07-19 | Setsuo Tokoro | Running support system for vehicle |
DE102008026396A1 (de) | 2007-06-05 | 2008-12-24 | GM Global Technology Operations, Inc., Detroit | Verfahren und Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3302849B2 (ja) * | 1994-11-28 | 2002-07-15 | 本田技研工業株式会社 | 車載用レーダーモジュール |
US5767793A (en) * | 1995-04-21 | 1998-06-16 | Trw Inc. | Compact vehicle based rear and side obstacle detection system including multiple antennae |
US5979586A (en) * | 1997-02-05 | 1999-11-09 | Automotive Systems Laboratory, Inc. | Vehicle collision warning system |
JP3658519B2 (ja) * | 1999-06-28 | 2005-06-08 | 株式会社日立製作所 | 自動車の制御システムおよび自動車の制御装置 |
US7386376B2 (en) * | 2002-01-25 | 2008-06-10 | Intelligent Mechatronic Systems, Inc. | Vehicle visual and non-visual data recording system |
US7124027B1 (en) * | 2002-07-11 | 2006-10-17 | Yazaki North America, Inc. | Vehicular collision avoidance system |
US6871145B2 (en) * | 2002-11-26 | 2005-03-22 | General Motors Corporation | Method and system for vehicle impact assessment using driver braking estimation |
US6847873B1 (en) * | 2003-07-08 | 2005-01-25 | Shih-Hsiung Li | Driver information feedback and display system |
DE10352800A1 (de) * | 2003-11-12 | 2005-06-23 | Robert Bosch Gmbh | Vorrichtung zur Detektion von bewegten Objekten |
CN1914060B (zh) * | 2004-01-28 | 2013-05-29 | 丰田自动车株式会社 | 车辆行驶支持系统 |
DE102007048848A1 (de) * | 2007-10-11 | 2009-04-16 | Robert Bosch Gmbh | Raumauflösendes Fahrerassistenzsystem |
-
2009
- 2009-12-03 US US12/629,962 patent/US8232872B2/en active Active
-
2010
- 2010-10-13 DE DE112010004163.6T patent/DE112010004163B4/de active Active
- 2010-10-13 WO PCT/US2010/052419 patent/WO2011068593A2/en active Application Filing
- 2010-10-13 CN CN201080063158.3A patent/CN102792314B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070168128A1 (en) | 2004-01-28 | 2007-07-19 | Setsuo Tokoro | Running support system for vehicle |
DE102008026396A1 (de) | 2007-06-05 | 2008-12-24 | GM Global Technology Operations, Inc., Detroit | Verfahren und Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018121008B4 (de) | 2017-08-30 | 2024-03-07 | GM Global Technology Operations LLC | System zum fahren eines autonomen fahrzeugs sowie damit ausgestattetes fahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
CN102792314A (zh) | 2012-11-21 |
DE112010004163T5 (de) | 2012-09-06 |
WO2011068593A2 (en) | 2011-06-09 |
US8232872B2 (en) | 2012-07-31 |
WO2011068593A3 (en) | 2011-08-18 |
CN102792314B (zh) | 2015-04-22 |
US20110133917A1 (en) | 2011-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112010004163B4 (de) | Querverkehrkollisions-Warnsystem | |
DE102011086512B4 (de) | Nebeldetektion | |
DE602005003856T2 (de) | Überwachung der Umgebung eines mobilen Körpers | |
DE102017105903A1 (de) | Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera | |
DE112014007249T5 (de) | Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm | |
WO2019174682A1 (de) | Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen | |
DE102013113619A1 (de) | Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem | |
DE102011078615B4 (de) | Objekterfassungsvorrichtung und objekterfassungsprogramm | |
DE112013001424T5 (de) | Objekterkennungsvorrichtung | |
EP1567888B1 (de) | Verfahren zur erfassung der vorausliegenden umgebung eines strassenfahrzeugs mittels eines umgebungserfassungssystems | |
DE102016122489A1 (de) | Sichtgestützte erfassung von nassen fahrbahnzuständen mittels reifenspuren | |
EP2629243A1 (de) | Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen | |
DE112009001727T5 (de) | Bildverarbeitungsvorrichtung | |
DE102017218366A1 (de) | Verfahren und system zur fussgängererfassung in einem fahrzeug | |
EP3044727B1 (de) | Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten | |
DE102017106535A1 (de) | Strassenoberflächenzustand-Erkennung mit Multi-Scale Fusion | |
DE102010005290A1 (de) | Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem | |
DE102008020007A1 (de) | Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung | |
CN105549013A (zh) | 用于汽车雷达成像的物体边界检测 | |
DE102019103368A1 (de) | Erkennung durch fusion mehrerer sensoren | |
DE102018121008A1 (de) | Kreuzverkehrserfassung unter verwendung von kameras | |
DE102013012930A1 (de) | Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug | |
DE102016218853A1 (de) | Detektion und Validierung von Objekten aus Bildern einer Kamera | |
EP3655299B1 (de) | Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz | |
DE102018005969A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |
Effective date: 20120601 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |