DE102013209418A1 - Fahrzeugkollisionswarnsystem und -verfahren - Google Patents

Fahrzeugkollisionswarnsystem und -verfahren Download PDF

Info

Publication number
DE102013209418A1
DE102013209418A1 DE102013209418A DE102013209418A DE102013209418A1 DE 102013209418 A1 DE102013209418 A1 DE 102013209418A1 DE 102013209418 A DE102013209418 A DE 102013209418A DE 102013209418 A DE102013209418 A DE 102013209418A DE 102013209418 A1 DE102013209418 A1 DE 102013209418A1
Authority
DE
Germany
Prior art keywords
video
collision
path
road segment
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013209418A
Other languages
English (en)
Inventor
Donald Eng
Norman J. Weigert
Jarvis Chau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013209418A1 publication Critical patent/DE102013209418A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Es werden ein Fahrzeugkollisionswarnsystem und -verfahren bereitgestellt, die einen Fahrer hinsichtlich einer drohenden Kollision warnen, indem ein verbessertes Video eines bevorstehenden Straßensegments angezeigt wird, wobei das verbesserte Video ein sich auf dem Pfad befindendes Objekt umfasst, das derart hervorgehoben wird, dass es sich abhebt. Bei einer beispielhaften Ausführungsform empfangen das System und das Verfahren ein Video eines bevorstehenden Straßensegments von einem nach vorn gerichteten Sichtsystem, erhalten sie bestimmte Kollisionsdaten für ein sich auf dem Pfad befindendes Objekt und verwenden sie dann das Video und die Kollisionsdaten, um ein verbessertes Video für eine visuelle Anzeige bereitzustellen, die der Fahrer sieht. Das verbesserte Video kann ein sich auf dem Pfad befindendes Objekt umfassen, das gemäß den Kollisionsdaten hervorgehoben wird (z. B. hervorgehoben mit einem farbcodierten Schema, bei dem das sich auf dem Pfad befindende Objekt seine Farbe auf der Grundlage von Daten einer Zeitdauer bis zur Kollision ändert), so dass es sich von dem Rest des bevorstehenden Straßensegments abhebt.

Description

  • GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf Fahrzeugsicherheitssysteme und insbesondere auf Fahrzeugkollisionswarnsysteme, die eine visuelle Anzeige verwenden, um einen Fahrer vor einer drohenden Kollision zu warnen oder zu alarmieren.
  • HINTERGRUND
  • Fahrzeuge verwenden immer häufiger eine Vielzahl von Sicherheitssystemen, um Kollisionen zu vermeiden und deren Gesamtsicherheit zu optimieren. Wenn beispielsweise eine potentielle Kollision detektiert wird, erzeugen einige Fahrzeugsicherheitssysteme akustische, visuelle oder haptische Warnungen, um den Fahrer hinsichtlich der drohenden Kollision zu alarmieren. Während solche Warnungen von Vorteil sein können, ist es immer notwendig, die Nützlichkeit solcher Warnungen zu optimieren oder zu verbessern, indem sie für den Fahrer intuitiver gemacht werden, indem eine zusätzliche Information übermittelt wird, oder indem die Betriebsbedingungen, unter denen sie verwendet werden können, erweitert werden, um einige Beispiele zu nennen.
  • ZUSAMMENFASSUNG
  • Gemäß einer Ausführungsform wird ein Kollisionswarnsystem für ein Fahrzeug bereitgestellt, das ein Sichtsystem, ein Steuermodul und eine visuelle Anzeige umfasst. Das Sichtsystem stellt ein Video eines bevorstehenden Straßensegments bereit, das zumindest ein sich auf dem Pfad befindendes Objekt umfasst. Das Steuermodul empfängt das Video von dem Sichtsystem und stellt ein verbessertes Video des bevorstehenden Straßensegments, das das sich auf dem Pfad befindende Objekt umfasst, bereit, wobei das sich auf dem Pfad befindende Objekt gemäß Kollisionsdaten hervorgehoben wird, so dass es sich von dem Rest des bevorstehenden Straßensegments abhebt. Die visuelle Anzeige empfängt dann das verbesserte Video von dem Steuermodul und zeigt das verbesserte Video für einen Fahrer an.
  • Gemäß einer anderen Ausführungsform wird ein Verfahren zum Betreiben eines Kollisionswarnsystems für ein Fahrzeug bereitgestellt. Das Verfahren kann die Schritte umfassen, dass: (a) ein Video eines bevorstehenden Straßensegments empfangen wird, das ein sich auf dem Pfad befindendes Objekt umfasst; (b) Kollisionsdaten empfangen werden, die das sich auf dem Pfad befindende Objekt betreffen; (c) das Video und die Kollisionsdaten verwendet werden, um ein verbessertes Video, das das bevorstehende Straßensegment enthält und das sich auf dem Pfad befindende Objekt umfasst, zu erzeugen, welches gemäß den Kollisionsdaten hervorgehoben wird; und (d) das verbesserte Video für eine visuelle Anzeige bereitgestellt wird.
  • ZEICHNUNGEN
  • Nachfolgend werden bevorzugte beispielhafte Ausführungsformen in Verbindung mit den beigefügten Zeichnungen beschrieben, in denen gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei:
  • 1 eine schematische Ansicht eines Host-Fahrzeugs mit einem beispielhaften Kollisionswarnsystem ist;
  • 2 ein Flussdiagramm eines beispielhaften Verfahrens, das mit einem Fahrzeugkollisionswarnsystem wie dem in 1 gezeigten verwendet werden kann, ist; und
  • 3A und 3B Darstellungen von Frames eines verbesserten Videos eines bevorstehenden Straßensegments zu verschiedenen Zeitpunkten sind, wobei ein sich auf dem Pfad befindendes Objekt (in diesem Fall ein anderes Fahrzeug) hervorgehoben ist, so dass es sich von dem Rest des bevorstehenden Straßensegments abhebt.
  • BESCHREIBUNG
  • Das Kollisionswarnsystem und -verfahren, die hierin beschrieben sind, können einen Fahrer hinsichtlich einer drohenden Kollision alarmieren, indem ein verbessertes Video eines bevorstehenden Straßensegments angezeigt wird, wobei das verbesserte Video ein oder mehrere sich auf dem Pfad befindende Objekte umfasst, die hervorgehoben sind, so dass sie sich von dem Rest des bevorstehenden Straßensegments abheben. Das System und das Verfahren empfangen ein Video eines bevorstehenden Straßensegments von einem nach vorn gerichteten Sichtsystem, sie erhalten bestimmte Kollisionsdaten für ein sich auf dem Pfad befindendes Objekt, das sich in dem bevorstehenden Straßensegment befindet, und sie verwenden dann das Video und die Kollisionsdaten, um ein verbessertes Video des bevorstehenden Straßensegments für eine visuelle Anzeige bereitzustellen, die ein Fahrer sieht. In dem verbesserten Video wird das sich auf dem Pfad befindende Objekt gemäß den Kollisionsdaten hervorgehoben (z. B. mit einem farbcodierten Schema hervorgehoben, wobei das sich auf dem Pfad befindende Objekt seine Farbe auf der Grundlage von Daten einer Zeitdauer bis zur Kollision ändert), so dass es sich von dem Rest des Straßensegments abhebt. Es ist möglich, dass das verbesserte Video für einen Fahrer über eine Head-Up-Anzeige (HUD), ein Armaturenbrett, eine Mittelkonsole oder eine beliebige andere geeignete visuelle Anzeige, die unter Fahrbedingungen bei Tag und bei Nacht verwendet werden kann, angezeigt wird.
  • Mit Bezug auf 1 sind Teile eines beispielhaften Host-Fahrzeugs 10 mit einem Kollisionswarnsystem 12 gezeigt, das verwendet werden kann, um einen Fahrer hinsichtlich einer drohenden Kollision mit einem sich auf dem Pfad befindenden Objekt 14 zu warnen oder zu alarmieren. Es sei angemerkt, dass 1 nur eine schematische Darstellung eines möglichen Fahrzeug- und Kollisionswarnsystems ist, und dass das hierin beschriebene Verfahren mit einer beliebigen Anzahl von verschiedenen Fahrzeugen und Systemen verwendet werden könnte und nicht auf die hier gezeigten Beispiele beschränkt ist. Beispielsweise können das vorliegende System und Verfahren mit einem beliebigen Typ von Fahrzeug verwendet werden, der Motorräder, Personenkraftwagen, Geländewagen (SUVs), Cross-Over-Fahrzeuge, Lastwagen, Lieferwagen, Busse, Wohnmobile (RVs), Nutzfahrzeuge, Sattelschlepper etc. umfasst. Dies sind lediglich einige der möglichen Anwendungen, da das System und das Verfahren, die hierin beschrieben sind, nicht auf die gezeigten beispielhaften Ausführungsformen beschränkt sind und auf eine beliebige Anzahl von verschiedenen Arten realisiert werden könnten. Gemäß einem Beispiel umfasst das Kollisionswarnsystem 12 ein Sichtsystem 20, ein Steuermodul 22 und eine visuelle Anzeige 24.
  • Das Sichtsystem 20 stellt dem Kollisionswarnsystem 12 ein Video eines bevorstehenden Straßensegments bereit und kann dies auf eine Anzahl von verschiedenen Arten tun. Bei einer Ausführungsform ist das Sichtsystem 20 ein nach vorn gerichtetes Stereo-Sichtsystem, das zwei oder mehrere Videokameras 30, 32 (z. B. digitale CMOS-Videokameras mit mehreren Megapixeln) umfasst, die vor dem Host-Fahrzeug 10 ausgerichtet sind und dem System ein Echtzeit-Streaming-Video des bevorstehenden Straßensegments bereitstellen. Ungeachtet der Tatsache, dass das Sichtsystem eine oder mehrere zusätzliche Video- oder Fotokameras aufweisen kann, die um das Fahrzeug herum angeordnet sind und zusätzliche Perspektiven oder einen zusätzlichen Videoausgang für das Kollisionswarnsystem 12 bereitstellen, ist das Sichtsystem 20 vorzugsweise ein nach vorn gerichtetes Stereo-Sichtsystem, das Bilder eines bevorstehenden Straßensegments erfasst, welches sich ungefähr 1 m–25 m vor dem Host-Fahrzeug 10 befindet. Die Verwendung mehrerer Videokameras 30, 32 (d. h. ein Stereo-Sichtsystem) ermöglicht dem Sichtsystem 20, mehrere verschiedene Perspektiven des gleichen Bilds zu erfassen, so dass sie auf etwa die gleiche Weise wie bei menschlichen Augen zusammengefügt, vermischt und/oder auf andere Weise kombiniert werden können. Dies stellt typischerweise ein vollständigeres, ergiebigeres und kompletteres Bild des bevorstehenden Straßensegments bereit, ist jedoch nicht notwendig, da auch eine einzelne Videokamera verwendet werden kann.
  • Einige geeignete Anbringungsorte für das Sichtsystem 20 umfassen eine Rückspiegelanordnung, die sich in der Nähe eines oberen mittleren Abschnitts der Windschutzscheibe befindet, auf dem Armaturenbrett in der Nähe eines unteren mittleren Abschnitts der Windschutzscheibe, oder hinter dem Kühlergrill des Fahrzeugs, nur um einige Möglichkeiten zu nennen. Das Sichtsystem 20 kann mehrere Videokameras, andere Typen von Objektdetektionssensoren und eine Verarbeitungseinheit umfassen, die alle in einem einzelnen Paket integriert sind; bei einer anderen Ausführungsform sind die mehreren Videokameras, die Objektdetektionssensoren und die Verarbeitungseinheit voneinander beabstandet und an verschiedenen Orten an dem Fahrzeug angebracht. Die Videokameras des Sichtsystems 20 können Teil einer anderen Komponente, einer anderen Einrichtung, eines anderen Moduls und/oder eines anderen Systems in dem Fahrzeug sein, wie beispielsweise eines Fahrzeugsicherheitssystems oder Kollisionsvermeidungssystems; in solch einem Fall können die gleichen Kameras durch das Kollisionswarnsystem 12 verwendet werden oder mit diesen geteilt werden. Obwohl das Sichtsystem 20 im Kontext eines videokamerabasierten Systems beschrieben wurde, ist es möglich, dass das System anstatt von Videokameras andere Bilderfassungseinrichtungen verwendet.
  • Zusätzlich zu Videokameras kann das Kollisionswarnsystem 12 andere Objektdetektionssensoren 34, 36, 38 umfassen, die um das Fahrzeug herum angeordnet sind und dem System bestimmte Kollisionsdaten bezüglich sich auf dem Pfad befindender oder sich außerhalb des Pfads befindender Objekte bereitstellen. Beispielsweise können ein oder mehrere Infrarotsensoren (IR-Sensoren) 38 auf das bevorstehende Straßensegment ausgerichtet sein und dem Kollisionswarnsystem 12 eine zusätzliche Information bereitstellen, wie beispielsweise Daten einer erwarteten Zeitdauer bis zur Kollision für verschiedene interessierende Objekte, um das durch das Sichtsystem 20 bereitgestellte Video zu ergänzen. ”Daten einer Zeitdauer bis zur Kollision” beziehen sich wie hierin verwendet allgemein auf die geschätzte Zeitdauer oder Distanz, bis das Host-Fahrzeug mit einem Objekt gemäß deren aktuellen oder erwarteten Pfaden kollidiert. In Abhängigkeit von den bestimmten Bedürfnissen der Anwendung können zusätzlich zu den oben erwähnten IR-Sensoren oder anstatt dieser Objektdetektionssensoren wie Fotokameras, RADAR-Sensoren, LASER-Sensoren und/oder LIDAR-Sensoren verwendet werden. Diese Objektdetektionssensoren können zusammen mit zusätzlichen Videokameras, in Abhängigkeit von den bestimmten Bedürfnissen des Systems, um das Fahrzeug herum angebracht sein und an der Vorderseite, der Seite oder der Hinterseite des Fahrzeugs ausgerichtet sein. Es ist möglich, dass die Objektdetektionssensoren 34, 36, 38 Teil des Sichtsystems 20 oder einer anderen Komponente, einer anderen Einrichtung, eines anderen Moduls und/oder eines anderen Systems in dem Fahrzeug sind, wie es oben erwähnt ist.
  • Das Steuermodul 22 empfängt ein Video des bevorstehenden Straßensegments von dem Sichtsystem 20, erhält bestimmte Kollisionsdaten bezüglich eines sich auf dem Pfad befindenden Objekts (z. B. Daten einer Zeitdauer bis zur Kollision) und verwendet das Video und die Kollisionsdaten, um der visuellen Anzeige 24 ein verbessertes Video bereitzustellen. ”Verbessertes Video” umfasst wie hier verwendet breit ein beliebiges Video mit einem oder mehreren sich auf dem Pfad befindenden Objekten, die basierend auf einem Typ von Kollisionsdaten visuell geändert oder modifiziert wurden. Ein nicht einschränkendes Beispiel eines verbesserten Videos ist der Videoausgang von dem Steuermodul 22, wobei der Ausgang ein digitaler Echtzeit- oder Streaming-Schwarzweiß-Videoausgang des bevorstehenden Straßensegments ist und ein oder mehrere sich auf dem Pfad befindende Objekte 14 farbig oder durch ein anderes Mittel basierend auf Daten einer Zeitdauer bis zur Kollision für dieses Objekt hervorgehoben wurden.
  • Das Steuermodul 22 kann eine beliebige Vielzahl von elektronischen Verarbeitungseinrichtungen, Speichereinrichtungen, Eingabe/Ausgabe-Einrichtungen (I/O-Einrichtungen) und/oder anderen bekannten Komponenten umfassen und kann verschiedene steuer- und/oder kommunikationsbezogene Funktionen durchführen. Bei einer beispielhaften Ausführungsform umfasst das Steuermodul 22 eine elektronische Speichereinrichtung 42, die folgendes speichert: ein Video, Standbilder und/oder andere Kollisionsdaten von dem Sichtsystem 20 und den Sensoren 34, 36, 38; Nachschlagetabellen oder andere Datenstrukturen; Algorithmen, wie beispielsweise den in den dem nachstehend beschriebenen beispielhaften Verfahren ausgeführten etc. Die Speichereinrichtung 42 kann auch geeignete Eigenschaften und Hintergrundinformationen bezüglich des Host-Fahrzeugs 10 speichern, wie beispielsweise beschleunigungs- und bremsbezogene Parameter und Einstellungen etc. Das Steuermodul 22 kann auch eine elektronische Verarbeitungseinrichtung 44 (z. B. einen Mikroprozessor, einen Mikrocontroller, einen anwendungsspezifischen integrierten Schaltkreis (ASIC) etc.) umfassen, die Anweisungen für Software, Firmware, Programme, Algorithmen, Skripte, etc. ausführt, die in der Speichereinrichtung 42 gespeichert sind und die hierin beschriebenen Prozesse und Verfahren überwachen können. Das Steuermodul 22 kann elektronisch über geeignete Fahrzeugkommunikationen mit anderen Fahrzeugeinrichtungen, Modulen und Systemen verbunden sein und kann mit diesen bei Bedarf in Interaktion treten. Dies sind natürlich nur einige der möglichen Anordnungen, Funktionen und Fähigkeiten des Steuermoduls 22, da auch andere Ausführungsformen verwendet werden könnten.
  • In Abhängigkeit von der bestimmten Ausführungsform kann das Steuermodul 22 ein unabhängiges Fahrzeugelektronikmodul sein (z. B. ein Kollisionswarnungssteuermodul, ein Steuermodul einer visuellen Anzeige etc.), kann es in ein anderes Fahrzeugelektronikmodul einbezogen oder in diesem umfasst sein (z. B. ein Modul eines adaptiven Tempomaten, ein Steuermodul für einen automatischen Spurwechsel etc.) oder kann es Teil eines größeren Fahrzeugnetzes oder -systems sein (z. B. eines Kollisionsvermeidungssystems, eines Systems einer aktiven Sicherheit, eines Antiblockiersystems (ABS) etc.), um einige Möglichkeiten zu nennen. Gemäß einer möglichen Ausführungsform ist das Steuermodul 22 ein Steuermodul einer visuellen Anzeige und ist es mit sowohl dem Sichtsystem 20 als auch der visuellen Anzeige 24 gekoppelt, wobei das Sichtsystem dem Steuermodul sowohl ein Video als auch Kollisionsdaten liefert. Bei einer anderen Ausführungsform ist das Steuermodul 22 ein Sichtsystemcontroller und ist es zusammen mit Videokameras, Objektdetektionssensoren und anderen geeigneten Komponenten in dem Sichtsystem 20 integriert. Es ist auch möglich, dass das Steuermodul 22 mit anderen Fahrzeugsystemen, wie beispielsweise einem Kollisionsvermeidungssystem oder einem System einer aktiven Sicherheit, gekoppelt ist, so dass das Steuermodul solchen Systemen Kollisionsdaten und andere möglicherweise nützliche Informationen bereitstellen kann, die diesem ermöglichen, automatische Maßnahmen zu treffen, um mögliche Kollisionen zu vermeiden, abzuschwächen oder sich auf andere Weise darauf vorzubereiten. Es sei angemerkt, dass das Steuermodul 22 nicht auf irgendeine bestimmte Ausführungsform oder Anordnung beschränkt ist und sich von der hier gezeigten und beschriebenen unterscheiden kann.
  • Die visuelle Anzeige 24 empfängt das verbesserte Video von dem Steuermodul 22 und übermittelt dann das verbesserte Video an einen Fahrer, so dass er hinsichtlich sich auf dem Pfad befindender Objekte in dem bevorstehenden Straßensegment gewarnt werden kann. Die visuelle Anzeige 24 stellt für den Fahrer eine Information bereit und kann eine beliebige Kombination aus visuellen, akustischen und/oder anderen Typen von Komponenten hierfür umfassen. Die visuelle Anzeige 24 kann eine unabhängige Einheit sein oder kann in eine andere Komponente, eine andere Einrichtung, ein anderes Modul oder ein anderes System in dem Fahrzeug integriert sein (z. B. eine Rückspiegelanordnung); sie kann Teil einer Anzeige bei einem Fahrzeug-Infotainment- oder -Sicherheitssystem sein oder diese teilen (z. B. den gleichen Bildschirm verwenden wie der, der Filme abspielt, Navigationsdienste bereitstellt oder den Ausgang einer Rückfahrkamera anzeigt); oder sie kann Teil einer Gerätegruppe, einer Mittelkonsole oder einer Fahrerinformationszentrale (DIC) sein, um einige Beispiele zu nennen. Bei der in 1 gezeigten beispielhaften Ausführungsform ist die visuelle Anzeige 24 eine farbige Head-up-Anzeige (HUD), die das verbesserte Video auf einen abseits gelegenen Abschnitt der Windschutzscheibe projiziert (z. B. die untere fahrerseitige Ecke der Windschutzscheibe) und den Fahrer hinsichtlich einer möglichen Kollision alarmiert, indem sich auf dem Pfad befindende Objekte 14 und andere mögliche Hindernisse hervorgehoben werden. Natürlich können stattdessen andere visuelle Anzeigen verwendet werden.
  • Wieder sollen 1 und die vorstehende Beschreibung des beispielhaften Host-Fahrzeugs 10 und Kollisionswarnsystems 12 nur eine mögliche Ausführungsform darstellen, da das folgende Verfahren nicht auf die Verwendung mit nur diesem System beschränkt ist. Stattdessen kann eine beliebige Anzahl von anderen Systemanordnungen, Kombinationen und Architekturen, die jene umfassen, die sich signifikant von der in 1 gezeigten unterscheiden, verwendet werden.
  • Nun auf 2 Bezug nehmend ist ein beispielhaftes Verfahren 100 zum Betreiben eines Kollisionswarnsystems für ein Fahrzeug, wie beispielsweise das in 1 gezeigte, gezeigt. Beginnend mit Schritt 110 empfängt das Verfahren ein Video des bevorstehenden Straßensegments und Kollisionsdaten für zumindest ein sich auf dem Pfad befindendes Objekt. Gemäß einer beispielhaften Ausführungsform, bei der das Sichtsystem 20 seine eigenen Kollisionsdatenerzeugungsfähigkeiten besitzt, empfängt Schritt 110 sowohl ein Video als auch Kollisionsdaten von dem Sichtsystem 20.
  • Bei einer anderen Ausführungsform empfängt Schritt 110 ein Video von dem Sichtsystem 20 und Kollisionsdaten von separaten Objektdetektionssensoren, wie beispielsweise dem nach vorn gerichteten IR- oder RADAR-Sensor 38. Das Video von dem Sichtsystem 20 kann kontinuierlich auf einer Echtzeit-Basis geliefert werden, so dass es von dem Sichtsystem 20 zu dem Steuermodul 22 gestreamt wird, wann immer das Kollisionswarnsystem 12 in Betrieb ist, oder das Video kann zeitweise auf einer Ereignisbasis geliefert werden, so dass Speicher-, Verarbeitungs- und/oder andere Ressourcen gespart werden. Bei verschiedenen Beispielen einer Version auf Ereignisbasis liefert das Sichtsystem 20 das Video dem Steuermodul 22 nur, wenn das Fahrzeug mit einem oder oberhalb eines bestimmten Schwellenwerts fährt (d. h. das Übersteigen des Schwellenwerts durch die Fahrzeuggeschwindigkeit ist das Ereignis), oder wenn in dem bevorstehenden Straßensegment ein sich auf dem Pfad befindendes Objekt 14 detektiert wurde (d. h. die Detektion des sich auf dem Pfad befindenden Objekts ist das Ereignis). Es können auch andere Ereignisse oder Bedingungen verwendet werden. Es sei angemerkt, dass das sich auf dem Pfad befindende Objekt 14 ein sich bewegendes Objekt umfassen kann, wie beispielsweise ein anderes Fahrzeug, einen Radfahrer oder einen Fußgänger, oder dass es ein stationäres Objekt umfassen kann, wie beispielsweise eine Verschmutzung auf der Straße, ein heruntergefallener Baumast oder ein liegengebliebenes Fahrzeug. In Abhängigkeit von dem Sichtfeld des Sichtsystems 20 und/oder der Objektdetektionssensoren 34, 36, 38 ist es möglich, dass ein oder mehrere Objekte wie Bäume und Strommasten in dem Video erfasst werden könnten, auch wenn sie eigentlich nicht auf dem Pfad des Host-Fahrzeugs 10 liegen; solche Objekte werden nachstehend ausführlicher behandelt.
  • Wie oben erwähnt kann Schritt 110 auch Kollisionsdaten empfangen, die ein oder mehrere sich auf dem Pfad befindende Objekte 14 in dem bevorstehenden Straßensegment betreffen. ”Kollisionsdaten” umfassen wie hierin verwendet breit einen beliebigen Typ von Information oder andere Daten, die ein sich auf dem Pfad befindendes Objekt in dem bevorstehenden Straßensegment oder ein sich außerhalb des Pfads befindendes Objekt, das sich auf der Seite der Straße befindet, betreffen. Einige nicht einschränkende Beispiele möglicher Kollisionsdaten umfassen: Daten einer Zeitdauer bis zur Kollision für ein sich bewegendes oder stationäres Objekt (z. B. Entfernungsdaten, die verwendet werden, um die Zeitdauer bis zu einer Kollision zu schätzen), eine geschätzte Geschwindigkeit oder Beschleunigung für ein sich bewegendes sich auf dem Pfad befindendes Objekt (z. B. die Absolutgeschwindigkeit eines sich auf dem Pfad befindenden Fahrzeugs oder die Relativgeschwindigkeit zwischen einem sich auf dem Pfad befindenden Fahrzeug und dem Host-Fahrzeug) und eine geschätzte Größe eines sich auf dem Pfad befindenden Objekts, so dass das Verfahren zwischen einem abgestellten Fahrzeug und einem kleinen Müllsack auf der Spur des Host-Fahrzeugs unterscheiden kann. Es sei angemerkt, dass Daten einer Zeitdauer bis zur Kollision (auch als Entfernungsdaten bezeichnet) hinsichtlich Zeit (z. B. 3 Sekunden bis zum Aufprall), Distanz (z. B. 15 Meter (50 Fuß) bis zum Aufprall) oder eines anderen geeigneten Maßes ausgedrückt werden können und in einigen Fällen bereits durch Einrichtungen an dem Fahrzeug, wie das Sichtsystem 20, erfasst und verwendet werden.
  • Die folgende Beschreibung nimmt an, dass ein sich auf dem Pfad befindendes Objekt bereits in dem bevorstehenden Straßensegment detektiert wurde und dass das Sichtsystem 20 sowohl ein Video als auch Kollisionsdaten bereitstellt; wie oben erklärt ist dies nicht notwendig, da die Kollisionsdaten von anderen Quellen stammen könnten. Bei diesem bestimmten Beispiel überlagert das Sichtsystem 20 die Kollisionsdaten dem Video, um ein Entfernungsabbildungsvideo zu erzeugen, wobei jedes Pixel des Entfernungsabbildungsvideos gemäß seinem Wert einer Zeitdauer bis zur Kollision farbcodiert ist. Die Pixel, die Objekten entsprechen, die weiter entfernt sind, können beispielsweise grün gefärbt sein, während die Pixel, die näheren Objekten entsprechen, orange, rot oder mit einer anderen Farbe gefärbt sein können, die deren jeweilige Dringlichkeit angibt. Auf diese Weise wurden die Video- und Kollisionsdaten durch das Sichtsystem 20 kombiniert oder miteinander verflochten und zusammen bereitgestellt. Eine mögliche Herausforderung bezüglich eines einfachen Anzeigens dieses Entfernungsabbildungsvideos für den Fahrer ist, dass der gänzliche Umfang an übermittelten Informationen ablenkend, verwirrend oder einfach nicht hilfreich sein könnte, da jedes Pixel in dem Entfernungsabbildungsvideo farbig ist und dies eine ziemlich große Zusammenstellung an Bildern ergeben kann. Es sei angemerkt, dass das Video und die Kollisionsdaten auf eine beliebige Anzahl an verschiedenen Arten, mit einer beliebigen Anzahl von Formaten etc. bereitgestellt werden können, die die hier bereitgestellten Beispiele umfassen, jedoch nicht darauf beschränkt sind. Die folgenden Schritte sind in Verbindung mit 3A und 3B beschrieben, die einfache Darstellungen von zwei verschiedenen Frames eines verbesserten Videos von dem Steuermodul 22, aufgezeichnet zu zwei verschiedenen Zeitpunkten, sind. In dem Frame von 3A ist ein sich auf dem Pfad befindendes Objekt 14 (in diesem Fall ein Fahrzeug) weiter entfernt; in dem Frame von 3B ist das sich auf dem Pfad befindende Objekt näher.
  • In Schritt 120 bewertet das Verfahren das Video und die Kollisionsdaten, die in dem vorherigen Schritt erhalten wurden, so dass ein Wert einer Zeitdauer bis zur Kollision für jedes Pixel oder jede Gruppe von Pixeln in dem Video ermittelt werden kann. Gemäß dem obigen Beispiel, bei dem das Sichtsystem 20 ein Video und Kollisionsdaten, kombiniert in einem Entfernungsabbildungsvideo, bereitstellt, dechiffriert Schritt 120 das farbcodierte Entfernungsabbildungsvideo, bei dem jedem Pixel auf der Grundlage seines geschätzten Werts einer Zeitdauer bis zur Kollision eine Farbe zugeordnet wurde. Beim Abschluss dieses beispielhaften Schritts sollte das Verfahren für jedes Pixel oder jede Gruppe von Pixeln in dem Video einen erwarteten Wert einer Zeitdauer bis zur Kollision haben. In 3A ermittelt Schritt 120 beispielsweise Werte einer Zeitdauer bis zur Kollision für das gesamte Video des bevorstehenden Straßensegments, die umfassen: die Pixel oder Gruppen von Pixeln 100, die der Fahrbahn direkt vor dem Host-Fahrzeug 10 entsprechen, die Pixel oder Gruppen von Pixeln 102, die einem sich außerhalb des Pfads befindenden Baum 110 entsprechen, und die Pixel oder Gruppen von Pixeln 104, die einem sich auf dem Pfad befindenden Objekt oder Fahrzeug 14 entsprechen. Die Daten einer Zeitdauer bis zur Kollision werden auch für die anderen Pixel in dem Video-Frame erfasst, wobei jedoch die 100, 102, 104 zugehörigen Pixel in dem Bestreben, bestimmte Merkmale oder Techniken darzustellen, die durch Schritt 130 verwendet werden können, herausgegriffen wurden. Diese Sammlung von Werten einer Zeitdauer bis zur Kollision kann in einer beliebigen geeigneten Datenform und -struktur aufrechterhalten werden (z. B. könnte zu jedem Pixel oder jeder Gruppe von Pixeln ein Vektor gehören), und kann in der elektronischen Speichereinrichtung 42 gespeichert sein. Natürlich können stattdessen andere Techniken zum Erfassen, Extrahieren, Bewerten und/oder Speichern von Daten einer Zeitdauer bis zur Kollision oder anderen Kollisionsdaten verwendet werden.
  • Als Nächstes filtert Schritt 130 die Pixel oder Gruppen von Pixeln, die nicht einen interessierenden sich auf dem Pfad befindenden Objekt zugehörig sind, heraus oder ignoriert diese. Beim Durchführen dieses Schritts kann eine Vielzahl von Kriterien verwendet werden. Beispielsweise gehören die Pixel 100 zu der Fahrbahn, die sich auf dem Pfad befindet und ziemlich nahe an dem Host-Fahrzeug 10 liegt, sie sind jedoch kein Objekt von Interesse, da die Fahrbahn nicht der Typ von Objekt ist, der typischerweise zu einer möglichen Kollision führt; somit können die Pixel 100 ignoriert werden. Die Pixel 102 gehören zu einem Baum 110, der einigermaßen nahe bei dem Host-Fahrzeug 10 liegt und eindeutig der Typ von Objekt ist, der von Interesse ist, wobei sich der Baum jedoch nicht auf dem Pfad befindet; daher können die Pixel 102 ignoriert werden. Andererseits gehören die Pixel 104 zu dem Fahrzeug 14, das sich ziemlich nahe an dem Host-Fahrzeug 10 liegend auf dem Pfad befindet und der Typ von Objekt ist, der von Interesse ist; dementsprechend werden die Pixel 104 nicht ignoriert, sondern für eine weitere Verarbeitung identifiziert. Durch Herausfiltern oder Ignorieren von Pixeln, die zu Objekten gehören, die sehr weit entfernt sind, die sich nicht auf dem Pfad befinden oder die nicht die Typen von Objekten von signifikantem Interesse oder von signifikanter Wichtigkeit sind, kann sich das Verfahren auf jene Objekte konzentrieren, die am wahrscheinlichsten eine mögliche Kollision darstellen, ohne den Fahrer mit überflüssiger Information zu verwirren oder abzulenken. Es können verschiedene Algorithmen, Techniken und Kriterien verwendet werden, um zu ermitteln, welche Pixel herausgefiltert oder ignoriert werden sollen und welche für eine weitere Verarbeitung identifiziert werden sollen. einige andere Kriterien oder Eingänge, die verwendet werden können, umfassen Lenkwinkel, Gierraten, Fahrzeuggeschwindigkeiten, Objektgeschwindigkeiten etc.
  • Schritt 140 ermittelt dann ein Prioritätsniveau für die Pixel oder Gruppen von Pixeln, die zu einem sich auf dem Pfad befindenden interessierenden Objekt gehören. Das heißt, für die Pixel, die in dem vorherigen Schritt nicht herausgefiltert oder ignoriert wurden. Die tatsächlichen Techniken und Verfahren, die zum Ausführen dieses Schritts verwendet werden, können variieren. Beispielsweise kann Schritt 140 die nicht gefilterten Pixel oder Gruppen von Pixeln bewerten und ihnen ein Prioritätsniveau zuordnen, das auf deren entsprechendem Wert einer Zeitdauer bis zur Kollision basiert. Allen Pixeln mit einem Wert einer Zeitdauer bis zur Kollision von 0–3 Sekunden kann ein hohes Prioritätsniveau zugeordnet werden (z. B. eines, bei dem die Pixel ”rot” oder mit einer anderen Farbe, die eine Dringlichkeit bezeichnet, hervorgehoben werden), allen Pixeln mit einem Wert einer Zeitdauer bis zur Kollision von 3–6 Sekunden kann ein mittleres Prioritätsniveau gegeben werden (z. B. eines, bei dem die Pixel ”orange” hervorgehoben werden), allen Pixeln mit einem Wert einer Zeitdauer bis zur Kollision von 6–9 Sekunden kann ein niedriges Prioritätsniveau gegeben werden (z. B. eines, bei dem die Pixel ”grün” hervorgehoben werden), und alle anderen Pixel, wie beispielsweise jene mit einem Wert einer Zeitdauer bis zur Kollision, der größer als 9 Sekunden ist, oder ohne einen derartigen Wert, könnten ein Standardprioritätsniveau auf niedriger Ebene bekommen. Beim Durchführen von Schritt 140 können andere Kollisionsdaten als Werte einer Zeitdauer bis zur Kollision (z. B. Lenkwinkel, Gierrate, Host-Fahrzeuggeschwindigkeit oder -beschleunigung, Geschwindigkeit oder Beschleunigung eines sich auf dem Pfad befindenden Objekts etc.) verwendet werden. Die vorstehenden Werte, Bereiche, Prioritätsniveaus, Farben und Kriterien werden lediglich bereitgestellt, um diesen Schritt darzustellen, wobei sicherlich andere verwendet werden könnten. Beispielsweise kann Schritt 140 mehr oder weniger als drei Prioritätsniveaus, andere Farben oder andere Techniken zum Hervorheben des interessierenden Objekts als eine Farbe verwenden. Die Reihenfolge, in der die Pixel oder Gruppen von Pixeln bewertet werden und ihnen eine Priorität zugeordnet wird, kann auf deren Ort in dem Videobild oder einigen anderen Kriterien basieren, und die Techniken, die verwendet werden, um den Pixeln eine Priorität oder Einstufung zuzuordnen, kann sich von dem obigen nicht einschränkenden Beispiel unterscheiden.
  • Als Nächstes stellen die Schritte 150174 ein verbessertes Video des bevorstehenden Straßensegments bereit, wobei ein oder mehrere sich auf dem Pfad befindende Objekte gemäß ihrem jeweiligen Prioritätsniveau hervorgehoben werden. Durch Hervorheben von interessierenden, sich auf dem Pfad befindenden Objekten oder anderweitiges Lenken der Aufmerksamkeit auf diese kann das vorliegende Verfahren ein verbessertes Video bereitstellen, bei dem sich solche Objekte von dem Rest des bevorstehenden Straßensegments abheben und daher für den Fahrer als intuitivere Warnung fungieren. Es wird das in 3A dargestellte Beispiel betrachtet, bei dem das sich auf dem Pfad befindende Fahrzeug 14 das einzige interessierende sich auf dem Pfad befindende Objekt in dem bevorstehenden Straßensegment ist und seinen entsprechenden Pixeln eine niedrige Priorität zugeordnet wurde, da das Fahrzeug immer noch relativ weit entfernt ist. In diesem Fall fährt das Verfahren mit den Schritten 170, 174 fort und erzeugt und liefert es ein verbessertes Video, bei dem das Fahrzeug 14 gemäß einem Hervorhebungs- oder Farbschema einer niedrigen Priorität hervorgehoben wird. Gemäß einem Beispiel hebt Schritt 174 alle oder einige der dem Fahrzeug 14 zugehörigen Pixel hervor, indem ihnen eine Farbe, wie beispielsweise Grün, zugeordnet wird, die auf eine nicht unmittelbare Situation oder eine Situation einer niedrigen Priorität hindeutet. Die farbigen Pixel können nur jene umfassen, die der Kontur oder dem Umfang des Objekts zugehörig sind (d. h. ein gewisser ”Heiligenschein”-Effekt), sie könnten auch alle der inneren Pixel umfassen oder sie könnten einige der benachbarten Pixel umfassen, die das Objekt umgeben, um einige Möglichkeiten zu nennen. Bei einem anderen Beispiel hebt Schritt 174 alle oder einige der dem Fahrzeug 14 zugehörigen Pixel hervor, indem bewirkt wird, dass sie heller sind, blinken oder sich auf andere Weise von dem Rest des bevorstehenden Straßensegments abheben. Bei dem Beispiel, bei dem das Verfahren ein Farbschema einsetzt, um das interessierende sich auf dem Pfad befindende Objekt hervorzuheben, könnte der Rest des Videobilds in Schwarzweiß bereitgestellt werden, um einen stärkeren Kontrast für das hervorgehobene Objekt bereitzustellen.
  • Bei dem in 3B gezeigten Beispiel befindet sich das Fahrzeug 14 nun näher an dem Host-Fahrzeug 10, und daher wurde seinen entsprechenden Pixeln oder Gruppen von Pixeln 104 ein mittleres Prioritätsniveau zugeordnet, so dass die Schritte 160 und 164 ein verbessertes Video bereitstellen, in dem das Fahrzeug orange oder mit einer anderen Farbe einer mittleren Priorität hervorgehoben ist. Wenn das Fahrzeug 14 dem Host-Fahrzeug noch näher kommt, können die Schritte 150 und 154 die entsprechenden Pixel rot oder in einer anderen Farbe, die ausgewählt wurde, um ein hohes Prioritätsniveau zu bezeichnen, hervorheben. Das Farbschema mit grün, orange und rot ist nicht die einzige Art, auf die ein interessierendes sich auf dem Pfad befindendes Objekt hervorgehoben werden kann; wie oben erwähnt können auch andere Techniken verwendet werden. Bei den vorstehenden Beispielen kann der Rest der Pixel in dem verbesserten Video (d. h. jene Pixel, die herausgefiltert wurden oder denen kein hohes, mittleres oder niedriges Prioritätsniveau zugeordnet ist) in Schwarzweiß, in Graustufen oder in einem anderen Format bereitgestellt werden, so dass die hervorgehobenen Pixel für den Fahrer leicht unterscheidbar sind.
  • Fachleute für Video- und/oder Bildeditierung, -bearbeitung, -verarbeitung etc. werden erkennen, dass es eine Vielzahl von Arten gibt, auf die das verbesserte Video erzeugt und bereitgestellt werden kann. Beispielsweise können die Schritte 154, 164 und/oder 174 das neue Farbschema mit den hervorgehobenen Pixeln oder Gruppen von Pixeln (z. B. die Pixel-Vektoren, die zu dem interessierenden sich auf dem Pfad befindenden Objekt gehören) einer Schwarzweiß-Version des ursprünglich von dem Sichtsystem 20 erhaltenen Videos überlagern, so dass ein verbessertes Video erzeugt wird. In diesem Fall wird das interessierende sich auf dem Pfad befindende Objekt, wie beispielsweise das Fahrzeug 14, mit einer bestimmten Farbe hervorgehoben, die dessen aktuelle Dringlichkeit oder Priorität bezeichnet und sich leicht von dem Rest des Videobilds abhebt, das Schwarzweiß ist. Dieser Typ von Ansatz kann in Fahrumgebungen sowohl bei Tag als auch bei Nacht nützlich sein und kann mit akustischen und/oder anderen Warnungen gekoppelt werden, um den Fahrer hinsichtlich des sich auf dem Pfad befindenden Objekts zu alarmieren. Bei einer anderen Ausführungsform entfernt das Verfahren lediglich den Hintergrund des Videobilds (d. h. jene Pixel oder Gruppen von Pixeln, die nicht zu einem interessierenden sich auf dem Pfad befindenden Objekt gehören) von dem Video, so dass das hervorgehobene interessierende sich auf dem Pfad befindende Objekt alles ist, was der Fahrer vor einem leeren Hintergrund sieht. Es sind auch andere Techniken möglich. Die Schritte 110174 können durch das Sichtsystem 20, das Steuermodul 22, eine andere Einrichtung oder eine Kombination hiervon durchgeführt oder ausgeführt werden und können auf eine individuelle Pixel-für-Pixel-Basis, eine Pixel-gruppe-für-Pixelgruppe-Basis oder gemäß einem anderen Ansatz ausgeführt werden.
  • In Schritt 180 stellt das Verfahren das verbesserte Video der visuellen Anzeige 24 bereit, wobei ein oder mehrere sich auf dem Pfad befindende Objekte hervorgehoben sind. Wie oben erwähnt kann die visuelle Anzeige 24 eine einer Anzahl von Anzeigeeinheiten umfassen, wie beispielsweise eine farbige Head-up-Anzeigeeinheit (HUD-Einheit). In Abhängigkeit von dem bestimmten Aufbau kann die visuelle Anzeige 24 das verbesserte Video kontinuierlich von dem Steuermodul 22 empfangen und für den Fahrer anzeigen oder kann sie nur ein verbessertes Video anzeigen, wenn ein interessierendes sich auf dem Pfad befindendes Objekt detektiert wurde oder einige andere Kriterien erfüllt wurden. Wenn mehrere interessierende sich auf dem Pfad befindende Objekte detektiert werden, kann das Verfahren ermitteln, welches Objekt eine unmittelbarere Gefahr darstellt, und nur dieses Objekt hervorheben, oder kann es gemäß dem oben beschriebenen Prioritätsschema mehrere Objekte gleichzeitig hervorheben. Es ist auch möglich, dass das Verfahren 100 in dem Fall, dass ein hohes, mittleres und/oder niedriges Prioritätsniveau ermittelt wird, ein Befehlssignal eines Typs an ein System einer aktiven Sicherheit, wie beispielsweise ein Kollisionsvermeidungssystem etc., sendet. Eine Koordination zwischen solchen Systemen kann über einen Fahrzeugkommunikationsbus oder dergleichen ausgeführt werden. Es sind auch andere Merkmale und Ausführungsformen möglich.
  • Es ist zu verstehen, dass die vorstehende Beschreibung keine Definition der Erfindung, sondern eine Beschreibung einer oder mehrerer bevorzugter beispielhafter Ausführungsformen der Erfindung ist. Die Erfindung soll nicht auf die hierin offenbarte(n) bestimmte(n) Ausführungsform(en) beschränkt sein, sondern ist lediglich durch die nachstehenden Ansprüche definiert. ferner beziehen sich die in der vorstehenden Beschreibung enthaltenen Aussagen auf bestimmte Ausführungsformen und sollen sie nicht als Einschränkungen des Schutzumfangs der Erfindung oder der Definition von in den Ansprüchen verwendeten Begriffen ausgelegt werden, außer, wenn ein Begriff oder eine Phrase oben ausdrücklich definiert ist. Verschiedene andere Ausführungsformen und verschiedene Änderungen und Abwandlungen der offenbarten Ausführungsform(en) werden für Fachleute ersichtlich werden. Beispielsweise ist die spezifische Kombination und Reihenfolge von Schritten nur eine Möglichkeit, da das vorliegende Verfahren eine Kombination von Schritten umfassen kann, die weniger, mehr oder andere Schritte als die hier gezeigten aufweist. Bei einem solchen Beispiel werden die Schritte 120 und 130 ausgetauscht, so dass Pixel, die nicht zu interessierenden sich auf dem Pfad befindenden Objekten gehören, herausgefiltert werden, bevor Werte einer Zeitdauer bis zur Kollision ermittelt werden. Alle solchen anderen Ausführungsformen, Änderungen und Abwandlungen sollen innerhalb des Schutzumfangs der beigefügten Ansprüche umfasst sein.
  • Wie in dieser Beschreibung und in den Ansprüchen verwendet sollen die Begriffe ”zum Beispiel”, ”z. B.”, ”beispielsweise”, ”wie beispielsweise” und ”wie” und die Verben ”umfassen”, ”aufweisen”, ”einschließen” und ihre anderen Verbformen, wenn sie in Verbindung mit einer Auflistung einer oder mehrerer Komponenten oder eines oder mehrerer anderer Elemente verwendet werden, jeweils als ein offenes Ende aufweisend betrachtet werden, was bedeutet, dass die Auflistung nicht als andere, zusätzliche Komponenten oder Elemente ausschließend betrachtet werden soll. Andere Begriffe sollen als ihre breiteste vernünftige Bedeutung umfassend betrachtet werden, wenn sie nicht in einem Kontext verwendet werden, der eine andere Interpretation erfordert.

Claims (15)

  1. Kollisionswarnsystem für ein Fahrzeug, umfassend: ein Sichtsystem, das an dem Fahrzeug angebracht ist, wobei das Sichtsystem ein Video eines bevorstehenden Straßensegments, das zumindest ein sich auf dem Pfad befindendes Objekt umfasst, bereitstellt; ein Steuermodul, das mit dem Sichtsystem gekoppelt ist, wobei das Steuermodul das Video von dem Sichtsystem empfängt und ein verbessertes Video des bevorstehenden Straßensegments bereitstellt, das das sich auf dem Pfad befindende Objekt umfasst, wobei das sich auf dem Pfad befindende Objekt gemäß Kollisionsdaten hervorgehoben wird, so dass es sich von dem Rest des bevorstehenden Straßensegments abhebt; und eine visuelle Anzeige, die mit dem Steuermodul gekoppelt ist, wobei die visuelle Anzeige das verbesserte Video von dem Steuermodul empfängt und das verbesserte Video für einen Fahrer anzeigt.
  2. Kollisionswarnsystem nach Anspruch 1, wobei das Sichtsystem ein nach vorn gerichtetes Stereo-Sichtsystem ist und mehrere Videokameras umfasst, wobei das Sichtsystem ein Echtzeitvideo des bevorstehenden Straßensegments bereitstellt.
  3. Kollisionswarnsystem nach Anspruch 1, wobei das Steuermodul sowohl das Video als auch die Kollisionsdaten von dem Sichtsystem empfängt.
  4. Kollisionswarnsystem nach Anspruch 1, wobei das Steuermodul das Video von dem Sichtsystem und die Kollisionsdaten von zumindest einem Objektdetektionssensor, der von dem Sichtsystem separat ist, empfängt.
  5. Kollisionswarnsystem nach Anspruch 4, wobei der Objektdetektionssensor ein Infrarotsensor (IR-Sensor) ist, der an dem bevorstehenden Straßensegment ausgerichtet ist und Daten einer Zeitdauer bis zur Kollision für das sich auf dem Pfad befindende Objekt bereitstellt.
  6. Kollisionswarnsystem nach Anspruch 1, wobei das Steuermodul ein verbessertes Video des bevorstehenden Straßensegments bereitstellt, das das sich auf dem Pfad befindende Objekt, hervorgehoben mit einer Farbe, umfasst, die gemäß den Kollisionsdaten ausgewählt wird, so dass es sich von dem Rest des bevorstehenden Straßensegments abhebt, der in Schwarzweiß bereitgestellt wird.
  7. Kollisionswarnsystem nach Anspruch 6, wobei das Steuermodul ein verbessertes Video des bevorstehenden Straßensegments bereitstellt, das das sich auf dem Pfad befindende Objekt, hervorgehoben mit einer Farbe, umfasst, die sich gemäß den Kollisionsdaten ändert, so dass es für den Fahrer auffälliger wird, wenn das Fahrzeug dem sich auf dem Pfad befindenden Objekt näher kommt.
  8. Verfahren zum Betreiben eines Kollisionswarnsystems für ein Fahrzeug, das die Schritte umfasst, dass: (a) ein Video von einem Sichtsystem empfangen wird, wobei das Video ein bevorstehendes Straßensegment enthält und ein sich auf dem Pfad befindendes Objekt umfasst; (b) Kollisionsdaten empfangen werden, wobei die Kollisionsdaten das sich auf dem Pfad befindende Objekt betreffen; (c) das Video und die Kollisionsdaten verwendet werden, um ein verbessertes Video zu erzeugen, wobei das verbesserte Video das bevorstehende Straßensegment enthält und das sich auf dem Pfad befindende Objekt umfasst, das gemäß den Kollisionsdaten hervorgehoben wird; und (d) das verbesserte Video für eine visuelle Anzeige bereitgestellt wird.
  9. Verfahren nach Anspruch 8, wobei Schritt (b) ferner umfasst, dass Kollisionsdaten empfangen werden und Werte einer Zeitdauer bis zur Kollision für mehrere Pixel in dem Video ermittelt werden, die Werte einer Zeitdauer bis zur Kollision für mehrere dem sich auf dem Pfad befindenden Objekt zugehörige Pixel umfassen.
  10. Verfahren nach Anspruch 9, wobei Schritt (c) ferner umfasst, dass ein Prioritätsniveau für die mehreren Pixel in dem Video ermittelt wird, die dem sich auf dem Pfad befindenden Objekt zugehörig sind, und das Prioritätsniveau auf den Werten einer Zeitdauer bis zur Kollision basiert.
  11. Verfahren nach Anspruch 10, wobei Schritt (c) ferner umfasst, dass zwischen einem ersten Prioritätsniveau mit einem ersten Bereich von Werten einer Zeitdauer bis zur Kollision, einem zweiten Prioritätsniveau mit einem zweiten Bereich von Werten einer Zeitdauer bis zur Kollision und einem dritten Prioritätsniveau mit einem dritten Bereich von Werten einer Zeitdauer bis zur Kollision ausgewählt wird.
  12. Verfahren nach Anspruch 10, wobei Schritt (c) ferner umfasst, dass die mehreren Pixel in dem Video, die zu dem sich auf dem Pfad befindenden Objekt gehören, mit einer bestimmten Farbe hervorgehoben werden, die gemäß einem Prioritätsniveau ausgewählt wird.
  13. Verfahren nach Anspruch 12, wobei Schritt (c) ferner umfasst, dass die mehreren Pixel in dem Video, die nicht zu dem sich auf dem Pfad befindenden Objekt gehören, in Schwarzweiß bereitgestellt werden, so dass sich das sich auf dem Pfad befindende Objekt, das farbig hervorgehoben wird, abhebt.
  14. Verfahren nach Anspruch 12, wobei Schritt (c) ferner umfasst, dass die mehreren Pixel in dem Video, die nicht zu dem sich auf dem Pfad befindenden Objekt gehören, entfernt werden, so dass sie nicht in dem verbesserten Video angezeigt werden.
  15. Verfahren nach Anspruch 8, wobei Schritt (d) ferner umfasst, dass ein verbessertes Video für die visuelle Anzeige bereitgestellt wird, das mehrere sich auf dem Pfad befindende Objekte umfasst, wobei jedes sich auf dem Pfad befindende Objekt gemäß einem Prioritätsschema hervorgehoben wird, das auf Daten einer Zeitdauer bis zur Kollision basiert.
DE102013209418A 2012-05-31 2013-05-22 Fahrzeugkollisionswarnsystem und -verfahren Pending DE102013209418A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/485,291 2012-05-31
US13/485,291 US9139133B2 (en) 2012-05-31 2012-05-31 Vehicle collision warning system and method

Publications (1)

Publication Number Publication Date
DE102013209418A1 true DE102013209418A1 (de) 2013-12-05

Family

ID=49579690

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013209418A Pending DE102013209418A1 (de) 2012-05-31 2013-05-22 Fahrzeugkollisionswarnsystem und -verfahren

Country Status (3)

Country Link
US (1) US9139133B2 (de)
CN (1) CN103448653B (de)
DE (1) DE102013209418A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016005784B4 (de) 2015-12-17 2023-08-03 Mazda Motor Corporation Sehwahrnehmungsassistenzsystem und Sehwahrnehmungszielobjektdetektionssystem

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9073484B2 (en) * 2010-03-03 2015-07-07 Honda Motor Co., Ltd. Surrounding area monitoring apparatus for vehicle
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
JP5316572B2 (ja) * 2011-03-28 2013-10-16 トヨタ自動車株式会社 物体認識装置
US8781721B2 (en) * 2012-06-06 2014-07-15 Google Inc. Obstacle evaluation technique
US8676431B1 (en) * 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
JP6232994B2 (ja) * 2013-12-16 2017-11-22 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9598012B2 (en) * 2014-03-11 2017-03-21 Toyota Motor Engineering & Manufacturing North America, Inc. Surroundings monitoring system for a vehicle
US9437111B2 (en) 2014-05-30 2016-09-06 Ford Global Technologies, Llc Boundary detection system
JP6327034B2 (ja) * 2014-07-22 2018-05-23 株式会社デンソー 車両用表示制御装置
JP6408832B2 (ja) * 2014-08-27 2018-10-17 ルネサスエレクトロニクス株式会社 制御システム、中継装置、及び制御方法
US9283891B1 (en) * 2014-09-26 2016-03-15 GM Global Technology Operations LLC Alert systems and methods using a transparent display
US20160140760A1 (en) * 2014-11-13 2016-05-19 Upton Beall Bowden Adapting a display on a transparent electronic display
KR102323393B1 (ko) * 2015-01-12 2021-11-09 삼성전자주식회사 디바이스 및 상기 디바이스의 제어 방법
US9718405B1 (en) * 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
US9676386B2 (en) 2015-06-03 2017-06-13 Ford Global Technologies, Llc System and method for controlling vehicle components based on camera-obtained image information
US10373378B2 (en) 2015-06-26 2019-08-06 Paccar Inc Augmented reality system for vehicle blind spot prevention
US20170043717A1 (en) * 2015-08-10 2017-02-16 Arie Heiman System and Apparatus that Alert Car Drivers Approaching Obstacles in the Road
US10140870B1 (en) * 2015-09-30 2018-11-27 Waymo Llc Occupant facing vehicle display
US9975487B2 (en) * 2016-02-03 2018-05-22 GM Global Technology Operations LLC Rear vision system for a vehicle and method of using the same
US10336257B2 (en) * 2016-03-23 2019-07-02 GM Global Technology Operations LLC Rear vision system for a vehicle and method of using the same
US9809165B1 (en) 2016-07-12 2017-11-07 Honda Motor Co., Ltd. System and method for minimizing driver distraction of a head-up display (HUD) in a vehicle
TWM530261U (zh) * 2016-07-18 2016-10-11 Protv Dev Inc 具有行車紀錄功能的汽車用後視鏡
CN106297410A (zh) * 2016-08-25 2017-01-04 深圳市元征科技股份有限公司 车辆监测方法及装置
JP6353881B2 (ja) * 2016-08-25 2018-07-04 株式会社Subaru 車両の表示装置
US10421436B2 (en) * 2017-03-24 2019-09-24 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for surveillance of a vehicle using camera images
DE102017210266A1 (de) * 2017-06-20 2018-12-20 Zf Friedrichshafen Ag Umfeldüberwachung eines Ego-Fahrzeugs
EP3710858A1 (de) * 2017-11-17 2020-09-23 ABB Schweiz AG Echtzeitüberwachung der umgebung eines wasserfahrzeugs
JP6820561B2 (ja) * 2017-12-28 2021-01-27 パナソニックIpマネジメント株式会社 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム
US11073838B2 (en) 2018-01-06 2021-07-27 Drivent Llc Self-driving vehicle systems and methods
US10303181B1 (en) 2018-11-29 2019-05-28 Eric John Wengreen Self-driving vehicle systems and methods
US10299216B1 (en) 2018-01-06 2019-05-21 Eric John Wengreen Self-driving vehicle actions in response to a low battery
US10274950B1 (en) 2018-01-06 2019-04-30 Drivent Technologies Inc. Self-driving vehicle systems and methods
US11059421B2 (en) 2018-03-29 2021-07-13 Honda Motor Co., Ltd. Vehicle proximity system using heads-up display augmented reality graphics elements
US10466057B1 (en) 2018-07-30 2019-11-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10471804B1 (en) 2018-09-18 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
US10223844B1 (en) 2018-09-18 2019-03-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10479319B1 (en) 2019-03-21 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US10282625B1 (en) 2018-10-01 2019-05-07 Eric John Wengreen Self-driving vehicle systems and methods
US10493952B1 (en) 2019-03-21 2019-12-03 Drivent Llc Self-driving vehicle systems and methods
US10289922B1 (en) 2018-09-18 2019-05-14 Eric John Wengreen System for managing lost, mislaid, or abandoned property in a self-driving vehicle
US10900792B2 (en) 2018-10-22 2021-01-26 Drivent Llc Self-driving vehicle systems and methods
US11644833B2 (en) 2018-10-01 2023-05-09 Drivent Llc Self-driving vehicle systems and methods
US10794714B2 (en) 2018-10-01 2020-10-06 Drivent Llc Self-driving vehicle systems and methods
US10832569B2 (en) 2019-04-02 2020-11-10 Drivent Llc Vehicle detection systems
US11221621B2 (en) 2019-03-21 2022-01-11 Drivent Llc Self-driving vehicle systems and methods
CN113163133A (zh) 2018-10-15 2021-07-23 华为技术有限公司 一种图像处理方法、装置与设备
US10240938B1 (en) 2018-10-22 2019-03-26 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10286908B1 (en) 2018-11-01 2019-05-14 Eric John Wengreen Self-driving vehicle systems and methods
US10474154B1 (en) 2018-11-01 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
JP6907250B2 (ja) * 2019-01-18 2021-07-21 矢崎総業株式会社 車両用表示装置
US10744976B1 (en) 2019-02-04 2020-08-18 Drivent Llc Self-driving vehicle systems and methods
US10377342B1 (en) 2019-02-04 2019-08-13 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10793166B1 (en) 2019-03-14 2020-10-06 Caterpillar Inc. Method and system for providing object detection warning
US10953895B2 (en) * 2019-04-25 2021-03-23 GM Global Technology Operations LLC Dynamic forward collision alert system
US11878761B2 (en) 2019-12-06 2024-01-23 Gekot, Inc. Collision alert systems and methods for micromobility vehicles
US11430217B2 (en) * 2020-12-11 2022-08-30 Microsoft Technology Licensing, Llc Object of interest colorization
US11462021B2 (en) * 2021-01-13 2022-10-04 GM Global Technology Operations LLC Obstacle detection and notification for motorcycles
US12115916B2 (en) 2021-02-01 2024-10-15 Rosco, Inc. Downlighting signal and illumination mirror head for vehicle
CN113879297A (zh) * 2021-09-29 2022-01-04 深圳市道通智能汽车有限公司 一种车辆视野盲区预警系统、方法及车辆
TWI818364B (zh) * 2021-11-29 2023-10-11 財團法人工業技術研究院 車輛行駛控制裝置及其控制與預警資訊顯示方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6768944B2 (en) * 2002-04-09 2004-07-27 Intelligent Technologies International, Inc. Method and system for controlling a vehicle
US7253723B2 (en) * 2003-05-19 2007-08-07 Donnelly Corporation Mirror assembly
US7742059B2 (en) * 2006-06-29 2010-06-22 Scientific-Atlanta, Llc Filling blank spaces of a display screen
US7711147B2 (en) * 2006-07-28 2010-05-04 Honda Motor Co., Ltd. Time-to-contact estimation device and method for estimating time to contact
TWI332454B (en) * 2008-09-10 2010-11-01 Univ Nat Chiao Tung Intelligent vehicle traffic safety supply system
JP5222165B2 (ja) * 2009-01-27 2013-06-26 株式会社沖データ 光源装置及びそれを有するヘッドアップディスプレイ装置
CN201484287U (zh) * 2009-08-14 2010-05-26 长安大学 一种汽车防追尾安全预警装置
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
US9633563B2 (en) 2010-04-19 2017-04-25 Caterpillar Inc. Integrated object detection and warning system
CN201694102U (zh) * 2010-07-04 2011-01-05 叶春林 车辆的扩视检测装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016005784B4 (de) 2015-12-17 2023-08-03 Mazda Motor Corporation Sehwahrnehmungsassistenzsystem und Sehwahrnehmungszielobjektdetektionssystem

Also Published As

Publication number Publication date
CN103448653A (zh) 2013-12-18
CN103448653B (zh) 2016-03-16
US9139133B2 (en) 2015-09-22
US20130321628A1 (en) 2013-12-05

Similar Documents

Publication Publication Date Title
DE102013209418A1 (de) Fahrzeugkollisionswarnsystem und -verfahren
DE102014217437B4 (de) Warnanzeigenvorrichtung und Warnanzeigeverfahren
DE102010052942B4 (de) Rückwärtsblickendes multifunktionales Kamerasystem
DE102012102508B4 (de) Justierverfahren und System einer intelligenten Fahrzeugbildgebungsvorrichtung
DE102017201717A1 (de) Visuelles rückfahrsystem für ein fahrzeug und verfahren zur nutzung desselben
DE102010035232B4 (de) Verfahren und System zum Anzeigen von Fahrzeugrückfahrkamerabildern in verschiedenen Modi
DE102017100004A1 (de) Verfahren zum Bereitstellen von zumindest einer Information aus einem Umgebungsbereich eines Kraftfahrzeugs, Anzeigesystem für ein Kraftfahrzeug, Fahrerassistenzsystem für ein Kraftfahrzeug sowie Kraftfahrzeug
WO2010009844A1 (de) Verfahren zur information eines insassen eines fahrzeuges
DE102012217733B4 (de) Bildanzeigesystem für eine Rücksichtkamera einer gezogenen Einheit sowie dieses umfassendes Fahrzeug sowie Verfahren
DE102017111530A1 (de) Systeme und Verfahren für ein Zugfahrzeug und einen Anhänger mit Rundumsichtbildgeräten
DE102020100080A1 (de) Adaptive transparenz eines virtuellen fahrzeugs in einem simulierten bildgebungssystem
DE112014007249T5 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102010051206A1 (de) Verfahren zum Erzeugen eines Bilds einer Fahrzeugumgebung und Abbildungsvorrichtung
DE102018105951A1 (de) System und verfahren zum dynamischen anzeigen von bildern auf einer elektronischen anzeigevorrichtung eines fahrzeugs
DE112017001410B4 (de) Informationsverarbeitungsvorrichtung
DE102014217440A1 (de) Warnanzeigenvorrichtung und Warnanzeigeverfahren
EP3718097A1 (de) Verfahren zur anzeige des verlaufs einer sicherheitszone vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
WO2013107548A1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
WO2009152875A1 (de) Bilddatenvisualisierung
EP3167427A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102010051204A1 (de) Verfahren zum Darstellen eines Hindernisses und Abbildungsvorrichtung
DE102018128634A1 (de) Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem
DE102021104243A1 (de) Verfahren, System und Computerprogrammprodukt zur automatischen Anpassung zumindest einer Fahrassistenzfunktion eines Fahrzeugs an einen Anhängerbetriebszustand
DE102013019371A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs vor Beschädigungen bei einem Rangiervorgang und Kraftfahrzeug
DE102021130548A1 (de) Auf Auffälligkeiten gestützte Präsentation von Objekten in einem Bild

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication