DE102017201717B4 - Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens - Google Patents

Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens Download PDF

Info

Publication number
DE102017201717B4
DE102017201717B4 DE102017201717.1A DE102017201717A DE102017201717B4 DE 102017201717 B4 DE102017201717 B4 DE 102017201717B4 DE 102017201717 A DE102017201717 A DE 102017201717A DE 102017201717 B4 DE102017201717 B4 DE 102017201717B4
Authority
DE
Germany
Prior art keywords
vehicle
video output
interest
remote
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102017201717.1A
Other languages
English (en)
Other versions
DE102017201717A1 (de
Inventor
Allan K. Lewis
Mohammad Naserian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017201717A1 publication Critical patent/DE102017201717A1/de
Application granted granted Critical
Publication of DE102017201717B4 publication Critical patent/DE102017201717B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1215Mirror assemblies combined with other articles, e.g. clocks with information displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/406Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components using wireless transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • B60R2300/8026Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic

Abstract

Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug, wobei das Rückblicksystem eine Rückfahrkamera, eine Fahrzeug-zu-Fahrzeug-Einheit (V2V) und einen elektronischen Anzeigespiegel beinhaltet, und das Verfahren die folgenden Schritte umfasst:Bestimmen, ob ein abgeschlepptes Objekt hinter dem Trägerfahrzeug die nach hinten gerichtete Kamera behindert;Identifizieren eines Bereichs von Interesse hinter dem Trägerfahrzeug, wenn die nach hinten gerichtete Kamera behindert wird;Sammeln von Informationen von einem entfernten Fahrzeug mit der V2V-Einheit;Verwenden der gesammelten Informationen, um zu bestimmen, ob sich das entfernte Fahrzeug im interessierenden Bereich befindet;Erzeugen eines Renderings des entfernten Fahrzeugs, wenn sich das entfernte Fahrzeug in dem interessierenden Bereich befindet; undAnzeigen des Videoausgangs und des Renderings des entfernten Fahrzeugs auf dem elektronischen Anzeigespiegel in Form einer verbesserten Videoausgabe.

Description

  • TECHNISCHES GEBIET
  • Die Erfindung betrifft ein Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie solch ein Rückblicksystem für ein Fahrzeug.
  • Zum Stand der Technik sei hier auf die Druckschriften DE 10 2015 108 268 A1 und DE 10 2013 217 434 A1 verwiesen.
  • HINTERGRUND
  • Traditionelle Rückblickspiegel sind in Fahrzeugen seit langem verwendet und wurden in den letzten Jahren so angepasst, dass sie eine Vielzahl von elektronischen Merkmalen wie zum Beispiel Auto-Dimm-Funktionen, integrierte Kompanten und integrierte Bildschirme zu beinhalten, um einige Beispiele zu nennen. Zu den neueren Entwicklungen gehört der Austausch des herkömmlichen Rückspiegels durch einen elektronischen Anzeigespiegel, der anstelle einer standardmäßig verspiegelten Fläche ein integrierte elektronische Videoanzeige, die mit einer rückwärtigen Kamera an der Rückseite des Fahrzeugs gekoppelt ist und eine Videozufuhr von der Kamera zu dem Fahrer anzeigt.
  • Es gibt eine Anzahl von Gründen, warum ein elektronischer Anzeigespiegel gegenüber einem herkömmlichen Rückspiegel bei bestimmten Fahrzeugen bevorzugt sein kann. Aktuelle Designtrends neigen beispielsweise dazu, Fahrzeuge mit Gürtellinien und Dachlinien zu bevorzugen, die zu kleinen Heckscheiben führen, und Fahrzeuginfotainment-Systeme mit Dropdown-Bildschirmen und mehrreihigen oder gestuften Sitzanordnungen können die Sicht eines Fahrers mit einem herkömmlichen Rückspiegel blockieren oder auf andere Weise behindern. Diese sowie andere Faktoren können es wünschenswert machen, einen Standard-Rückspiegel mit einem elektronischen Anzeigespiegel für bestimmte Fahrzeuganwendungen zu ersetzen.
  • Ein möglicher Nachteil eines elektronischen Anzeigespiegels tritt jedoch auf, wenn das Fahrzeug einen Anhänger schleppt, der die nach hinten gerichtete Kamera behindert oder blockiert. In diesem Szenario kann es sein, dass der elektronische Anzeigespiegel nicht in der Lage ist, den Fahrer auf das Vorhandensein eines Fahrzeugs, das sich hinter dem Anhänger befindet, zu zeigen oder zu alarmieren (d. h. es können ein oder mehrere nicht sichtbare Fahrzeuge in dem toten Winkel der Kamera vorhanden sein). Das System und die hierin beschriebenen Verfahren beziehen sich auf dieses Szenario.
  • ZUSAMMENFASSUNG
  • Gemäß einem Aspekt wird ein Verfahren zum Verwenden eines Rückblicksystems für ein Trägerfahrzeug bereitgestellt, wobei das Rückblicksystem eine Rückfahrkamera, eine rückwärts gerichtete Kamera, eine Fahrzeug-zu-Fahrzeug-Einheit (V2V) und einen elektronischen Anzeigespiegel beinhaltet. Das Verfahren beinhaltet die Schritte: Bestimmen, ob ein abgeschlepptes Objekt hinter dem Trägerfahrzeug die nach hinten gerichtete Kamera blockiert; Identifizieren eines interessierenden Bereichs hinter dem Trägerfahrzeug, wenn die nach hinten gerichtete Kamera blockiert ist; Sammeln von Informationen von einem entfernten Fahrzeug mit der V2V-Einheit; Verwenden der gesammelten Informationen, um zu bestimmen, ob sich das entfernte Fahrzeug im interessierenden Bereich befindet; Erzeugen eines Renderings des entfernten Fahrzeugs, wenn sich das entfernte Fahrzeug in dem interessierenden Bereich befindet; und Anzeigen der Videoausgabe und das Wiedergeben des entfernten Fahrzeugs auf dem elektronischen Anzeigespiegel.
  • Gemäß einem anderen Aspekt ist ein Rückblicksystem für die Verwendung mit einem Trägerfahrzeug bereitgestellt. Das Rückblicksystem umfasst: eine Rückblicksystem-Steuereinheit; rückwärtige Kamera, die mit der Steuereinheit gekoppelt ist und die Steuereinheit mit einer Videoausgabe eines Bereichs hinter dem Trägerfahrzeug versorgt; eine Fahrzeug-zu-Fahrzeug-Einheit (V2V), die mit der Steuereinheit gekoppelt ist und die Steuereinheit mit einer Verkehrsausgabe in Bezug auf ein oder mehrere entfernte Fahrzeuge versorgt; und einen elektroni- schen Anzeigespiegel der mit der Steuerung gekoppelt ist und eine verbesserte Videoausgabe von der Steuerung empfängt. Die Steuereinheit ist so konfiguriert, dass sie die Verkehrsausgabe von der V2V-Einheit verwendet, um ein Rendering eines behinderten Fahrzeugs zu erzeugen, um das Rendering des behinderten Fahrzeugs zu der Videoausgabe der rückwärtigen Kamera hinzuzufügen, um so die verbesserte Videoausgabe zu erzeugen und die verbesserte Videoausgabe dem elektronischen Anzeigespiegel bereitzustellen.
  • Figurenliste
  • Bevorzugte exemplarische Ausführungsformen werden im Folgenden in Verbindung mit den beigefügten Zeichnungen beschrieben, worin gleiche Kennzeichnungen gleiche Elemente bezeichnen und worin:
    • 1 ist ein schematisches Diagramm eines Trägerfahrzeugs mit einem exemplarischen Rückblicksystem, das einen Anhänger abschleppt, ein entferntes Fahrzeug befindet sich hinter dem Anhänger und wird vom Rückfahrsystem behindert;
    • 2 ist ein Flussdiagramm eines exemplarischen Verfahrens das mit dem Rückblicksystem verwendet werden kann von 1; und
    • 3 ist eine schematische Darstellung eines exemplarischen elektronischen Anzeigespiegels, der mit dem Rückfahrsystem verwendet werden kann von 1.
  • BESCHREIBUNG
  • Es wird hier ein Rückblicksystem für ein Trägerfahrzeug und ein Verfahren zur Verwendung desselben offenbart, wobei das Rückblicksystem einen elektronischen Anzeigespiegel aufweist, der ausgelegt ist, einen herkömmlichen Rückspiegel zu ersetzen. Ein elektronischer Anzeigespiegel sieht ähnlich wie ein herkömmlicher Rückspiegel aus, außer dass er anstatt einer standardmäßigen verspiegelten Oberfläche über eine integrierte elektronische Videoanzeige verfügt, die mit einer rückwärtigen Kamera an der Rückseite des Fahrzeugs gekoppelt ist und dem Fahrer eine Videoeinspeisung in Echtzeit anzeigt. Wie vorstehend erwähnt, kann der elektronische Anzeigespiegel den Bereich hinter dem Anhänger für den Fahrer nicht anzeigen, wenn ein Trägerfahrzeug mit einem Rückblicksystem einen großen Anhänger oder ein anderes Element behindert oder blockiert, das die nach hinten gerichtete Kamera blockiert. Eine Darstellung dieser Konstellation ist gezeigt in 1 und wird nachstehend beschrieben. Die vorliegende System und Verfahren wurden entwickelt, diese Herausforderung durch die Verwendung eines Fahrzeug-zu-Fahrzeug-Systems (V2V) zu überwinden, das Informationen von einem behinderten oder unsichtbaren Fahrzeug erfasst, und ein Rückblicksystem, das diese Information verwendet, um eine Wiedergabe oder grafische Darstellung des nicht sichtbaren Fahrzeugs für die Darstellung auf dem elektronischen Anzeigespiegel zu erzeugen. Darüber hinaus kann dies ohne die Verwendung von zusätzlichen ferngesteuerten Kameras auf dem Anhänger selbst installiert werden, was unerwünschte Kosten, Gewicht und Komplexität des Systems verursacht.
  • Bezugnehmend nun auf 1, ist eine schematische Darstellung eines Trägerfahrzeugs 10 gezeigt, das einen Anhänger 12 schleppt, wobei das Trägerfahrzeug mit einem exemplarischen Rückblicksystem 20 ausgestattet ist, das eine Kamera 22, eine Fahrzeug-zu-Fahrzeug-Einheit 24 (V2V), Fahrzeugdynamiksensoren 26, eine Navigationseinheit 28, Rückblicksystem-Steuereinheit 32 und einen elektronischen Anzeigespiegel 34 beinhaltet. Wie zu sehen ist, fährt ein entferntes Fahrzeug 14 hinter dem Anhänger 12 und befindet sich auf derselben Fahrspur wie das Trägerfahrzeug 10, sodass es von der Kamera 22 aufgrund des blockierenden Anhängers nicht gesehen werden kann. Das entfernte Fahrzeug 14 ist außerdem mit einer Fahrzeug-zu-Fahrzeug-Einheit 44, einer Vielzahl unterschiedlicher Sensoren 46 und einer Navigationseinheit 48 ausgestattet. Wie in den folgenden Absätzen erklärt wird, können das Trägerfahrzeug 10 und das entfernte Fahrzeug 14 Teil eines Fahrzeug-zu-Fahrzeug-Systems (V2V) 16 sein, das es ermöglicht, dass nahe gelegene Fahrzeuge miteinander kommunizieren können und in diesem speziellen Fall für das entfernte Fahrzeug 14, Daten über seine Position, Geschwindigkeit, Position und/oder andere Parameter an das Trägerfahrzeug 10 zu übermitteln, sodass es über den elektronischen Anzeigespiegel 34 zu dem Fahrer transportiert werden kann.
  • Die Kamera 22 ist eine nach hinten gerichtete Kamera, die auf einen Bereich hinter dem Trägerfahrzeug 10 gerichtet ist, und liefert dem Rückblicksystem 20 eine Videoausgabe, die auf dem elektronischen Anzeigespiegel 34 angezeigt werden soll. Die Kamera 22, die auch als rückwärtige Kamera oder Rückfahrkamera bezeichnet wird, kann von jedem geeigneten Kameratyp sein (z. B. eine ladungsgekoppelte Vorrichtung (CCD), ein komplementärer Metalloxidhalbleiter (CMOS) usw.) und kann jede geeignete Linse aufweisen, die in der Technik bekannt ist, sodass sie nicht auf irgendeine spezielle Art, Marke oder Modell beschränkt ist. Gemäß einer Möglichkeit bietet die Kamera 22 eine Videoausgabe, bei der die Bilder horizontal gedreht werden (d. h. Sie sind das Spiegelbild des ursprünglich von der Kamera aufgenommenen Videos). Der horizontal gedrehte Videoausgang berücksichtigt die Tatsache, dass die Kamera 22 und der zugewandt sind und stellt die Videoausgabe auf dem elektronischen Anzeigespiegel 34 in einer Orientierung dar, die mit einem herkömmlichen Rückspiegel konsistent ist. Einige nicht einschränkende Beispiele für mögliche Ausführungsformen oder Merkmale, die mit der Kamera 22 verwendet werden können, umfassen: Infrarot-LEDs für Nachtsicht; Weitwinkel- oder Fischaugenlinsen; Oberflächenmontage, Deckeneinbau, Lizenzmontage oder seitlich montierte Kameras; Kameras, die in Rückleuchten, Bremslichter oder andere Komponenten am hinteren Ende des Fahrzeugs integriert sind; und drahtgebundene oder drahtlose Kameras, um einige Möglichkeiten zu nennen.
  • Die Fahrzeug-zu-Fahrzeug-Einheit (V2V) 24 ist eine drahtlose Kommunikationsvorrichtung, die es dem Trägerfahrzeug 10 ermöglicht, mit einem oder mehreren ähnlich ausgerüsteten und nahen Fahrzeugen gemäß dem V2V-System 16 zu kommunizieren. Die V2V-Einheit 24, die auch als V2V-Funk- oder V2V-Modul bezeichnet wird, liefert das Rückblicksystem 20 mit einer Verkehrsausgabe, die Daten und Informationen beinhalten kann, die zu nahe gelegenen Fahrzeugen gehören, wie beispielsweise dem entfernten Fahrzeug 14. Diese Informationen können ebenfalls durch unterschiedliche Systeme innerhalb des Trägerfahrzeugs 10 verwendet werden, wie autonomen und halbautonomen Antriebssystemen, Fahrzeugsicherheitssystemen, Fahrzeugwarnsystemen usw. Gemäß einer Ausführungsform beinhaltet die V2V-Einheit 24 eine geeignete Kombination von Hardware, Software und/oder Anwendungen, die so konfiguriert ist, dass sie mit anderen Fahrzeugen über ein drahtloses Kurzstreckennetzwerk kommuniziert (z. B. dedizierte Kurzstreckenverbindungen (DSRC), die mit einer Frequenz von ungefähr 5.850-5.925 GHz und mit einer Reichweite bis zu etwa 1.000 m). Die V2V-Einheit 24 kann Nachrichten, die als Basisdienstnachrichten (BMS) bezeichnet werden, gemäß einer vermaschten Netzwerkarchitektur senden und/oder empfangen, wobei jeder Knoten (d. h. Fahrzeug, intelligentes Verkehrssignal, usw.) Nachrichten senden, empfangen und/oder erneut senden kann. Fachleute werden erkennen, dass die V2V-Einheit 24 jede geeignete Kombination von Komponenten und Vorrichtungen beinhalten kann, die zum Durchführen des hierin beschriebenen Verfahrens erforderlich sind, einschließlich einer angeschlossenen Vorrichtung wie einer Bordausrüstung (OBE), einer Bordeinheit (OBU), einer Aftermarket-Sicherheitseinrichtung (ASD), und/oder eine Fahrzeug-Erkennungsvorrichtung (VAD), um einige Beispiele zu nennen.
  • Die grundlegende Sicherheitsnachricht (BSM) ist ein Standardnachrichtentyp und dient dazu, nahe gelegene Fahrzeuge über Position, Dynamik und/oder Status des übertragenden Fahrzeugs zu informieren. Die BSM beinhaltet im Allgemeinen einen Teil I oder einen Kerndatensatz, der alle 100 ms gesendet wird, und einen Teil II oder Sekundärdatensatz, der optional ist und weniger häufig gesendet wird. Der Teil I oder Kerndatensatz beinhaltet in der Regel folgende Informationen: Fahrzeuggröße, Fahrzeugposition (z. B. GPS-Koordinaten), Fahrzeuggeschwindigkeit, Fahrtrichtung, Fahrzeugbeschleunigung, Zustand des Bremssystems und Zeit; wohingegen der Teil II oder der Sekundärdatensatz variieren kann und darauf hindeuten kann, dass das Fahrzeug stark abbremst oder dass ABS beispielsweise aktiviert ist. Weitere Informationen zum BSM-Standard finden Sie in SAE J2735 BSM. Es sollte erkannt werden, dass, während das exemplarische System und das nachfolgend beschriebene Verfahren das V2V-System 16 zum Austausch von BSMs zwischen Fahrzeugen nutzt, dies nicht die einzige Möglichkeit ist. Jedes andere geeignete System, Standard, Protokoll usw. für den automatischen Austausch von Informationen und Daten zwischen Fahrzeugen über ein fahrzeugübergreifendes drahtloses Kommunikationsnetz könnte verwendet werden, und das hierin beschriebene System und Verfahren sind nicht auf den vorstehend erwähnten SAE-Standard oder die nachfolgenden Beispiele beschränkt.
  • Fahrzeugdynamische Sensoren 26 stellen dem Rückblicksystem 20 eine Sensorausgabe zur Verfügung, die verschiedene Messwerte, Messungen und/oder andere Informationen beinhaltet, die für die Durchführung des vorliegenden Verfahrens nützlich sein können. So können beispielsweise die Fahrzeugdynamiksensoren 26 Sensoren oder andere Komponenten zum Messen beinhalten: Raddrehzahl, Radbeschleunigung, Fahrzeuggeschwindigkeit, Fahrzeugbeschleunigung (Längs- und/oder Querbeschleunigung), Giergeschwindigkeit, andere Fahrzeugdynamik sowie andere in der Technik bekannte Sensoren, die hier nicht erwähnt werden. Die Sensoren 26 können eine Vielzahl unterschiedlicher Sensortypen und -techniken verwenden, einschließlich derjenigen, die eine Raddrehzahl, Bodengeschwindigkeit, einen Beschleunigungssensor, eine Trägheitsmesseinheit (IMU), eine Fahrpedalstellung, Gang-Schalthebel-Auswahl, Motordrehzahl, Motorleistung und Drosselklappenstellung verwenden, um nur einige zu nennen. Der Fachmann wird erkennen, dass diese Sensoren nach optischen, elektromagnetischen und/oder anderen Technologien funktionieren können und dass andere Parameter aus diesen Messungen abgeleitet oder berechnet werden können (z. B. kann die Beschleunigung aus der Geschwindigkeit berechnet werden). Die Sensoren 26 können in Hardware, Software, Firmware oder einer beliebigen Kombination davon ausgeführt sein, und diese Sensoren können direkt die Bedingungen erfassen oder messen, für die sie bereitgestellt werden, oder sie können diese Bedingungen auf der Grundlage von Informationen, die von anderen Sensoren, Komponenten, Geräten, Modulen, Systemen usw. bereitgestellt werden, indirekt bewerten. Es ist möglich, dass irgendeiner der nachstehend beschriebenen verschiedenen Sensorwerte von irgendeinem anderen Bauteil, Gerät, Modul, System, usw. im Trägerfahrzeug 10 bereitgestellt wird, anstatt von einem tatsächlichen Sensorelement bereitgestellt zu werden. Es versteht sich, dass die vorgenannten Szenarien nur einige der Möglichkeiten darstellen, da das vorliegende System und das vorliegende Verfahren nicht auf eine beliebige spezielle Sensor- oder Sensoranordnung beschränkt sind.
  • Die Navigationseinheit 28 stellt dem Rückblicksystem 20 eine Navigationsausgabe bereit, die die Position oder den Kurs des Trägerfahrzeugs 10, die Stra-ßeninformation oder eine Kombination davon beinhaltet. Abhängig von der besonderen Ausführungsform kann die Navigationseinheit 28 eine eigenständige Komponente sein oder sie kann innerhalb einer anderen Komponente oder eines Systems innerhalb des Fahrzeugs integriert sein. Die Navigationseinheit kann jede beliebige Kombination von anderen Komponenten, Geräten, Modulen usw. wie eine GPS-Einheit beinhalten und kann die aktuelle Position des Fahrzeugs und Straßen- oder Kartendaten verwenden, um die bevorstehende Straße zu bewerten. So können beispielsweise die Navigationssignale oder -ablesungen von der Einheit 28 den aktuellen Standort des Fahrzeugs und Informationen bezüglich der Konfiguration des aktuellen Straßensegments und des bevorstehenden Straßenabschnitts (z. B. bevorstehende Abzweigungen, Kurven, Gabeln, Böschungen, Durchgänge usw.) beinhalten. Die Navigationseinheit 28 kann vorab geladene Kartendaten und dergleichen speichern, oder sie kann diese Information drahtlos über eine Telematikeinheit oder eine andere Kommunikationsvorrichtung empfangen, um zwei Möglichkeiten zu nennen.
  • Die Rückblicksystem-Steuereinheit 32 wirkt als Hauptsteuer- oder Steuermodul des Rückblicksystems 20 und ist zumindest teilweise für die Durchführung oder Ausführung des nachstehend beschriebenen Verfahrens verantwortlich. Gemäß einer exemplarischen Ausführungsform ist die Steuereinheit 32 mit der Kamera 22 gekoppelt und empfängt eine Videoausgabe, ist mit der V2V Einheit 24 gekoppelt und empfängt eine Verkehrsausgabe, mit den Fahrzeugdynamiksensoren 26 gekoppelt und empfängt eine Sensorausgabe, ist mit der Navigationseinheit 28 gekoppelt und empfängt eine Navigationsausgabe und ist mit dem elektronischen Anzeigespiegel 34 gekoppelt und liefert eine verbesserte Videoausgabe, obwohl andere Kombinationen von Vorrichtungen stattdessen mit der Steuereinheit verbunden werden können. Die Steuereinheit 32 kann eine Vielzahl von elektronischen Verarbeitungsvorrichtungen, Speichervorrichtungen, Eingabe/AusgabeVorrichtungen (I/O) und/oder andere bekannte Komponenten beinhalten und kann verschiedene steuerungs- und/oder kommunikationsbezogene Funktionen ausführen.
  • In einer exemplarischen Ausführungsform beinhaltet die Steuereinheit 32 eine elektronische Speichervorrichtung 50, die jede Kombination der folgenden Elemente empfangen und speichern kann: Videoinhalt von der Kamera 22, Informationen, die sich auf nahe gelegene Fahrzeuge von der V2V-Einheit 24 beziehen, Sensorablesungen von Fahrzeugdynamiksensoren 26, Positions- oder Kursdaten von der Navigationseinheit 28, Nachschlagetabellen oder andere Datenstrukturen, Algorithmen (z. B. Algorithmen, die in dem nachstehend beschriebenen exemplarischen Verfahren ausgeführt werden) usw. Die Speichervorrichtung 50 kann auch relevante Merkmale und Hintergrundinformationen, die sich auf das Trägerfahrzeug 10 beziehen, wie beispielsweise Informationen in Bezug auf Fahrzeugabmessungen (z. B. Gewicht, Breite und Länge), Bremswege, Fahrerverhalten oder historische Daten, bestimmte Sensor- oder Kamerapositionen und Orientierungen auf dem Trägerfahrzeug 10 usw. speichern. Die Steuereinheit 32 kann zudem eine elektronische Verarbeitungsvorrichtung 52 (z. B. einen Mikroprozessor, einen Mikrocontroller, eine anwendungsspezifische integrierte Schaltung (ASIC) usw.) beinhalten, welche die in der Speichervorrichtung 50 abgelegten Anweisungen für Software, Firmware, Programme, Algorithmen, Skripte usw. ausführt und die hierin beschriebenen Verfahren regeln kann. Die Steuereinheit 32 kann über geeignete Fahrzeugkommunikationen (z. B. einen CAN-Bus oder dergleichen) elektronisch mit anderen Fahrzeugvorrichtungen, Modulen und Systemen verbunden sein und kann bei Bedarf mit diesen zusammenwirken. Dies sind natürlich nur einige der möglichen Anordnungen, Funktionen und Fähigkeiten der Steuereinheit 32, da andere Ausführungsformen ebenfalls verwendet werden könnten.
  • Der elektronische Anzeigespiegel 34 beinhaltet eine Videoanzeige, die in die Rückspiegeleinheit oder das Rückspiegelgehäuse integriert ist, sodass die Anzeige dem Fahrer die Videoausgabe von der Rückfahrkamera 22 in Echtzeit zeigt. Gemäß der exemplarischen Ausführungsform der 1, ist der elektronische Anzeigespiegel 34 mit der Steuereinheit 32 verbunden und empfängt eine verbesserte Videoausgabe. Der elektronische Anzeigespiegel kann eine beliebige Anzahl von verschiedenen Anzeigetechnologien verwenden, wie beispielsweise eine Flüssigkristallanzeige (LCD) oder eine Leuchtdiodenanzeige (LED). Es sollte erkannt werden, dass das hierin beschriebene System und das hierin beschriebene Verfahren jeden geeigneten Typ eines elektronischen Anzeigespiegels 34 verwenden kann und nicht auf irgendeine spezielle beschränkt sind. So kann beispielsweise der elektronische Anzeigespiegel 34 ein Vollanzeige-Spiegel (FDM) sein, bei dem die gesamte sichtbare Oberfläche des Geräts ein Video von der Kamera 22 zeigt; es kann der Typ eines elektronischen Anzeigespiegels sein, wobei nur ein Teil der Anzeigefläche ein Video von der Kamera 22 zeigt, wohingegen andere Abschnitte der Anzeigeoberfläche andere Informationen (z.B. Turn-by-Turn- oder andere Navigationsanweisungen, Kompass- oder Kursinformationen, Host-Fahrzeugleistungsdaten usw.) zeigen; er könnte Tag-und Nacht-Modi, die die Helligkeit entsprechend anpassen, aufweisen; oder er könnte einen Touchscreen aufweisen, sodass die Benutzer Auswahlen oder anderweitig Eingangsdaten machen können, um nur einige der Möglichkeiten zu nennen. Anstelle des Positionierens des elektronischen Anzeigespiegels 34 an der herkömmlichen Position eines Rückspiegels (d. h. an der vorderen Windschutzscheibe an einer oberen, mittleren Position angebracht) ist es möglich, dass er ein Teil einer Mittelkonsolen-Infotainment- oder Rücksicherungsanzeige oder eines Teils einer anderen Anzeige ist.
  • Jede der Vorrichtungen 22-34 kann eigenständig sein, wie dargestellt in 1, sie können in eine andere Vorrichtung, Einheit oder ein anderes Modul eingebaut oder integriert sein (z. B. könnte die V2V-Einheit 24 in einem anderen Fahrzeugkommunikationsmodul beinhaltet sein, einige der Sensoren 26 könnten in einer Trägheitsmesseinheit (IMU) verpackt werden, die Navigationseinheit 28 könnte Teil eine Telematikeinheit sein, Steuereinheit 32 könnte mit dem elektronischen Anzeigespiegel 34 oder einem Kombiinstrument-Steuermodul integriert sein usw.). Weiterhin kann jede der Vorrichtungen 22-34 dediziert sein, wie abgebildet in 1, oder sie können Teil von anderen Systemen oder Teilsystemen in dem Fahrzeug sein oder diese gemeinsam nutzen (z. B. Kamera 22 und/oder einige der Sensoren 26 könnten Teil eines aktiven Sicherheitssystem, eines Antiblockierschutzsystems (ABS) oder eines autonomen oder halbautonomen Antriebssystem sein; der elektronische Anzeigespiegel 34 oder die Steuereinheit 32 könnten Teil eines Fahrzeuginfotainmentsystems sein usw.). Die Videoausgabe, die Verkehrsausgabe, die Sensorausgabe und/oder die Navigationsausgabe von den Vorrichtungen 22-28 können direkt an die Steuereinheit 32 geliefert oder indirekt durch eine andere Vorrichtung, ein Modul und/oder ein System bereitgestellt werden, wie dies allgemein bekannt ist. In ähnlicher Weise kann die verbesserte Videoausgabe von der Steuereinheit 32 direkt oder indirekt an dem elektronischen Anzeigespiegel 34 bereitgestellt werden. Dementsprechend sind die Vorrichtungen 22-34 nicht auf die schematische Darstellung in 1 oder die vorstehenden exemplarischen Beschreibungen beschränkt, noch sind sie auf irgendeine spezielle Ausführungsform oder Anordnung beschränkt, solange sie mit dem hierin beschriebenen Verfahren verwendet werden können.
  • Die Vorrichtungen 44-48 im entfernten Fahrzeug 14 können ähnlich denjenigen mit demselben Namen sein, die bereits vorstehend in Verbindung mit dem Trägerfahrzeug 10 beschrieben wurden. Somit betrifft die vorstehend genannte Beschreibung derartiger Vorrichtungen auch die Vorrichtungen 44-48 und auf eine doppelte Beschreibung wurde verzichtet.
  • Unter Bezugnahme nun auf das Flussdiagramm von 2, ist ein exemplarisches Verfahren 100 zur Verwendung eines Rückblicksystems gezeigt, wobei das Verfahren ein ungesehenes oder behindertes Fahrzeug auf einem elektronischen Anzeigespiegel darstellt, wenn ein Anhänger oder ein anderes gezogenes Objekt eine nach hinten gerichtete Kamera blockiert. Genauer gesagt verwendet das Verfahren ein Fahrzeug-zu-Fahrzeug-System 16 (V2V), um Fahrzeugposition, Geschwindigkeits- und/oder Kursinformationen von einem behinderten Fahrzeug 14 zu sammeln und dann das behinderte Fahrzeug mit einem Rendering 90 auf dem elektronischen Anzeigespiegel 34, durch Überlagerung des Rendering-Overtops der Videoausgabe von der rückwärtigen Kamera 22 grafisch darzustellen. Somit ermöglicht das Verfahren dem Fahrer ohne den Einsatz zusätzlicher Kameras, die auf dem Anhänger 12 installiert sind, hinter den blockierenden Anhänger zu „schauen“.
  • Beginnend mit Schritt 110 bestimmt das Verfahren, ob ein Anhänger oder ein anderes geschlepptes Objekt 12 die rückwärtige Kamera 22 blockiert und dies gemäß einer Anzahl verschiedener Techniken tun kann. So kann zum Beispiel das Verfahren eine Bildverarbeitungstechnik verwenden, um ein oder mehrere Bilder zu analysieren, die von der Videoausgabe genommen werden, die von der nach hinten gerichteten Kamera 22 bereitgestellt wird und, basierend auf dieser Analyse, zumindest festlegen, ob ein Anhänger oder ein anderes gezogenes Objekt 12 die Kamera blockiert oder behindert. Die Bildverarbeitungstechnik kann ein mehrstufiger Prozess sein, der die folgenden Teilschritte beinhaltet: Extrahieren und Speichern eines Bildes aus der Videoausgabe; Anwenden von Canny, HOG und/oder anderen geeigneten Filtern auf das gespeicherte Bild und Speichern des gefilterten Bildes; Auswerten des gefilterten Bildes und Identifizieren von Kanten innerhalb erwarteter Bereiche, welche die Anwesenheit eines Anhängers anzeigen (z. B. können mehrere Anhängertypen eine kleine Datenbank von Testbereichen erfordern); Warten einer vorgegebenen Zeitdauer (z. B. 3 Sek.); Wiederholen des Prozesses eine bestimmte Anzahl von Malen oder Iterationen (z. B. 5 Iterationen); Auswerten der verschiedenen gefilterten Bilder für die Konsistenz innerhalb der Begrenzungen der Anhängerkanten; abschließenden dass ein Anhänger oder ein anderes geschlepptes Objekt die nach hinten gerichtete Kamera 22 tatsächlich behindert, wenn eine ausreichende Kantenkonsistenz vorliegt; und auf der Grundlage der geometrischen Beziehung zwischen der Kamera 22 und den erfassten vertikalen Kanten des Anhängers 12 ein Hinderniswinkel α bestimmen. Am Ende des Schrittes 110 bestimmt das Verfahren vorzugsweise, ob das geschleppte Objekt die nach hinten gerichtete Kamera 22 blockiert und einen Blockierwinkel α bestimmt hat.
  • Der vorstehend erwähnte Canny-Filter kann unter Verwendung einer Kombination der folgenden Teilschritte durchgeführt werden: Anwenden eines Gauß-Filters, um das Bild zu glätten und das Rauschen zu entfernen; Auffinden der Intensitätsgradienten des Bildes; Anwenden einer nicht maximalen Unterdrückung, um störende Reaktionen auf die Kantenerfassung zu entfernen; Anwenden eines doppelten Schwellenwertes, um mögliche Kanten zu bestimmen; und durch Hysterese und unterdrücken schwächere Kanten, die nicht mit stärkeren oder stärker ausgeprägten Kanten verbunden sind. Auf diese Weise kann das Verfahren feststellen, ob ein Anhänger oder ein anderes geschlepptes Objekt einen wesentlichen Teil des Kamerasichtfeldes behindert und dabei helfen kann, einen derartigen Anhänger von anderen Objekten im Hintergrund des Bildes zu unterscheiden. Das vorstehend erwähnte Histogramm des Orientierunggradientenfilters (HOG) zählt das Auftreten der Gradientenorientierung in lokalisierten Teilen des Bildes, die den Kantenorientierungshistogrammen, veränderungsinvarianten Merkmaltransformations-Deskriptoren und den Formkontexten ähnlich sind, mit der Ausnahme, dass sie auf einem dichten Raster aus gleichmäßig beabstandeten Zellen berechnet wird und eine überlappende lokale Kontrastnormierung für eine verbesserte Genauigkeit verwendet. Die vorhergehenden Canny- und HOG-Filter können zusammen oder getrennt verwendet werden. Der Fachmann wird andere geeignete Bildverarbeitungstechniken kennen, die ebenfalls verwendet werden können.
  • Die Bildverarbeitungstechniken von Schritt 110 können ergänzt oder durch andere Verfahren zum Erfassen der Anwesenheit eines Anhängers oder des geschleppten Objekts 12 ersetzt werden, dies ist jedoch optional. So kann beispielsweise das vorliegenden Verfahren die Ergebnisse der vorstehend beschriebenen Bildverarbeitungstechniken bestätigen, indem Messwerte von Sensoren erfasst werden, die auf den Bereich hinter dem Trägerfahrzeug 10 gerichtet sind (z. B. Radar-, Laser, Lidarsensoren usw.) indem eine elektrische Verbindung ausgewertet wird, die das elektrische System des Anhängers mit der des eigenen Fahrzeugs verbindet (z. B. eine elektrische Lasterfassung an Anhängerbremslichtschaltungen) oder durch Feststellen der Fahrhöhe oder Gewichtsverteilung des Trägerfahrzeugs, um zu bestätigen, dass ein geschlepptes Objekt tatsächlich mit einer Anhängerkupplung verbunden ist, um ein paar Möglichkeiten zu bieten. Diese und andere Bestätigungstechniken können verwendet werden, um die Anwesenheit eines geschleppten Objektes 12, das bereits durch eine Bildverarbeitungstechnik erfasst wurde, einfach zu bestätigen oder zu verifizieren, oder sie können anstelle der Bildverarbeitungstechniken verwendet werden, um tatsächlich das geschleppte Objekt zu erfassen. Jede der in Verbindung mit Schritt 110 beschriebenen Techniken kann ganz oder teilweise durch die Steuereinheit 32 ausgeführt werden.
  • Schritt 116 leitet dann der Ablauf des Verfahrens basierend auf dem Ergebnis des vorhergehenden Schrittes ein. Wenn bestimmt wurde, dass die nach hinten gerichtete Kamera 22 nicht durch einen Anhänger oder ein anderes geschlepptes Objekt 12 behindert wird, kann das Verfahren mit dem Schritt 122 fortfahren, sodass die Videoausgabe von der Kamera 22 auf dem elektronischen Anzeigespiegel 34 auf normale oder typische Art und Weise (d. h. ohne weitere Verstärkung der Videoausgabe durch Verfahren 100) angezeigt werden. Wenn andererseits ermittelt wurde, dass die Kamera 22 durch ein abgeschlepptes Objekt 12 behindert wird, kann das Verfahren mit Schritt 128 fortfahren. Die Schritte 110 und/oder 116 können prüfen, welcher Prozentsatz oder Ausschnitt des Bildes der Videoausgabe durch das geschleppte Objekt 12 behindert wird, bevor das Ergebnis des Schrittes 116 bestimmt wird, und Schritt 116 kann ganz oder teilweise durch die Steuereinheit 32 ausgeführt werden.
  • Als nächstes identifiziert Schritt 128 einen interessierenden Bereich 60 hinter dem Trägerfahrzeug 10. Der hierin verwendete Begriff „interessierender Bereich“ bezieht sich im weitesten Sinne auf einen Bereich oder eine Zone, der/die sich hinter dem Trägerfahrzeug befindet, und aufgrund des Anhängers oder Anhängeobjekts zumindest teilweise aus der Sicht der Rückfahrkamera blockiert oder behindert ist. Der interessierende Bereich 60 bewegt sich mit dem Trägerfahrzeug 10 und ist ausgebildet, einen Bereich zu umfassen, in dem das Verfahren verborgene oder anderweitig unsichtbare Fahrzeuge, wie beispielsweise das entfernte Fahrzeug 14 suchen kann. Die Größe und Form des interessierenden Bereichs 60 kann von verschiedenen Faktoren, wie beispielsweise den Eigenschaften des Trägerfahrzeugs (z. B. eine unterschiedliche Größe und/oder Formfläche des interessierenden Bereichs für eine Lastwagen im Vergleich zu einer mittelgroßen Limousine), die Größe und Form des blockierenden Objekts (z. B. eine großer und breiter Anhänger kann einen größeren interessierenden Bereich als eine kürzerer oder schmälerer Anhänger diktieren), und eine Geschwindigkeit des Trägerfahrzeugs (z. B. ein größerer interessierender Bereich kann erforderlich sein, wenn das Trägerfahrzeug fährt mit Autobahngeschwindigkeiten gegenüber langsameren Geschwindigkeiten fährt). Andere Faktoren können sicherlich dazu beitragen, die Grenzen des interessierenden Bereichs 60 zu bestimmen oder zu identifizieren.
  • Mit Bezug auf die exemplarische Ausführungsform von 1, ist der interessierende Bereich 60 im Allgemeinen als ein Polygon geformt und weist eine Länge X und eine Breite Y auf. Die Länge X erstreckt sich von einem Scheitel oder Schnittpunkt der ersten Enden 62, die im Allgemeinen mit dem hinteren Ende des Trägerfahrzeugs 10 ausgerichtet sind, zu einem zweiten Ende 64 und kann einen beliebigen geeigneten Abstand aufweisen, wie dies durch Faktoren wie die vorstehend aufgeführten vorgeschrieben ist (z. B. könnte die Länge X 50 m, 100 m, 200 m, usw. sein). Der Hinderniswinkel α ist der Winkel des Scheitelpunkts, an dem sich die ersten Enden 62 treffen und wird vorzugsweise in Schritt 110 zurückgewonnen, obwohl dies nicht erforderlich ist. Die Breite Y erstreckt sich von einer ersten Seite 66 zu einer zweiten Seite 68 und vorzugsweise umfasst eine oder mehrere Fahrspuren, einschließlich der Trägerfahrzeugspur (z. B. die Breite Y könnte 5 m, 10 m, 20 m, usw.) sein. In dem nicht einschränkenden Beispiel von 1, der interessierende Bereich 60 eine Länge X von etwa 100 m und eine Breite Y von etwa 15 m auf, die 3 Fahrspuren und einen kleinen Puffer umfasst, sodass sich die Breite geringfügig über jede benachbarte Spur hinaus erstreckt. In anderen Ausführungsformen kann der interessierende Bereich 60 von einer anderen Polygonform sein, wie beispielsweise rechteckiger oder anderer Form oder von keiner bestimmten Form.
  • Gemäß einem nicht einschränkenden Beispiel des Schrittes 128 identifiziert die Steuereinheit 32 den interessierenden Bereich durch das Entwickeln einer Koordinatenhüllkurve, die auf das Trägerfahrzeug 10 bezogen ist oder basiert, und hilft, den interessierenden Bereich 60 zu definieren. Zur Erläuterung betrachten wir die Situation in 1, wobei das Trägerfahrzeug 10 auf einer Autobahn fährt und einen Anhänger 12 zieht. Zu jedem gegebenen gewöhnlich aus der Navigationsausgabe erhalten, die von der Navigationseinheit 28 bereitgestellt wird, und eine Koordinatenhülle kann basierend auf der Position des Trägerfahrzeugs 10 entwickelt werden; das heißt, GPS-Koordinaten können verwendet werden, um die Grenze oder den Umfang des interessierenden Bereichs zu definieren, der aktualisiert wird, wenn das Trägerfahrzeug angetrieben wird. Fachleute auf dem Gebiet werden erkennen, dass zusätzliche Werkzeuge, wie beispielsweise die Verwendung von Totraumberechnungen und erweiterte kartengestützte Fahrerassistenzsysteme (ADASIS) verwendet werden können, um die Genauigkeit oder Definition derartiger Grenzen weiter zu verbessern. So können beispielsweise Totraumberechnungs-Parameter, wie Lenkwinkel, Fahrzeuggeschwindigkeit und Inertialdaten akkumuliert und durch das Verfahren aufgezeichnet werden, sodass der interessierende Bereich 60 besser geformt werden kann, um sich den geometrischen Konturen der Straße anzupassen, die befahren wird.
  • Als nächstes sammelt der Schritt 134 Informationen für alle entfernten Fahrzeuge, die sich innerhalb des Bereichs des Fahrzeug-zu-Fahrzeug-Systems (V2V) 16 befinden. Wie vorstehend erläutert, ist es möglich, dass das V2V-System 16 eine dedizierte Nahbereichskommunikation (DSRC) mit einem Bereich von bis zu etwa 1.000 m verwendet. In einem solchen Beispiel sammelt der Schritt 134 Informationen für jedes entfernte Fahrzeug innerhalb eines Bereichs von 1.000 m, der Fahrzeuge vor dem Trägerfahrzeug, Fahrzeuge hinter dem Trägerfahrzeug und innerhalb des interessierenden Bereichs 60 (z. B. Fernfahrzeug 14) sowie Fahrzeuge hinter dem Trägerfahrzeug, die sich nicht innerhalb des interessierenden Bereichs 60 befinden. Gemäß einer Möglichkeit empfängt die V2V-Einheit 24 eine grundlegende Sicherheitsnachricht (BSM) von jedem entfernten Fahrzeug, das sich innerhalb des Bereichs des Trägerfahrzeugs 10 befindet und Teil des V2V System 16 ist, und aus dem BSM extrahiert das Verfahren Informationen aus dem Teil I oder dem Kerndatensatz, einschließlich Fahrzeugposition (z. B. GPS-Koordinaten), Fahrzeuggeschwindigkeit und/oder Fahrzeugrichtung. Diese Information kann dann von der V2V-Einheit 24 an die Steuereinheit 32 in Form einer Verkehrsausgabe bereitgestellt werden. Selbstverständlich könnten auch andere Informationen und Daten gesammelt werden, einschließlich einer Fahrzeugkennung für jedes entfernte Fahrzeug.
  • Der Schritt 140 bestimmt dann, welche der im Bereich der entfernten Fahrzeuge sich innerhalb des interessierenden Bereichs 60 befinden. So können beispielsweise die V2V-Einheit 24 oder die Steuereinheit 32 die Fahrzeugposition für jedes im Schritt 134 identifizierte entfernte Fahrzeug überprüfen und diejenigen, die sich vor dem Trägerfahrzeug 10 befinden sowie diejenigen, die sich hinter dem Trägerfahrzeug, jedoch außerhalb des interessierenden Bereiches 60 zu eliminieren. Dies kann durch Vergleichen der GPS-Koordinaten für jedes entfernte Fahrzeug mit den GPS-Koordinaten, die die Grenze des interessierenden Bereichs 60 definieren das Vergleichen der Fahrzeugpositionen des Trägers und der Träger- und entfernten Fahrzeuge durchgeführt werden. Es ist möglich, dass ein entferntes Fahrzeug, das in einer entgegengesetzten Richtung des Trägerfahrzeugs 10 fährt, vorübergehend durch den interessierenden Bereich 60 hindurch tritt, wobei in diesem Fall die Fahrzeugrichtung verwendet werden könnte, um dieses entfernte Fahrzeug von weiterer Betrachtung zu eliminieren, obwohl seine Koordinaten zeigen, dass es innerhalb des interessierenden Bereichs liegt. Gemäß dem dargestellten Szenario in 1, der Schritt 140 bestimmen, dass sich das entfernte Fahrzeug 14 innerhalb des interessierenden Bereichs 60 befindet und als solches identifiziert werden würde.
  • Schritt 146 kann dann den Fluss oder die Sequenz des Verfahrens auf der Basis des Ergebnisses des vorherigen Schritts leiten. Wenn bestimmt wurde, dass es keine entfernten Fahrzeuge innerhalb des interessierenden Bereichs 60 gibt und in dieselbe Richtung wie das Trägerfahrzeug 10 fahren, kann das Verfahren mit Schritt 122 fortfahren, sodass die Videoausgabe von der Kamera 22 auf dem elektronischen Anzeigespiegel 34 auf normale oder typische Art und Weise (d. h. ohne weiteren Verstärkung der Videoausgabe durch Verfahren 100) angezeigt werden kann. Wenn andererseits festgestellt wurde, dass ein oder mehrere entfernte Fahrzeuge im interessierenden Bereich 60 vorhanden sind, die durch das Rückblicksystem 20 behindert oder anderweitig verdeckt werden können, geht das Verfahren weiter zu 152.
  • Als nächstes erzeugt Schritt 152 ein Rendering oder eine grafische Darstellung des entfernten Fahrzeugs zur Darstellung auf dem elektronischen Anzeigespiegel 34. Wenn das geschleppte Objekt 12 das Sichtfeld der nach hinten gerichteten 22 blockiert, sodass das entfernte Fahrzeug 14 nicht im interessierenden Bereich 60 zu sehen ist, erfasst das Verfahren Informationen über das V2V-System 16 von dem entfernten Fahrzeug und übermittelt dieses Informationen an den Fahrer durch ein Rendering oder eine grafische Darstellung, die auf dem elektronischen Anzeigespiegel 34 gezeigt ist. Ein nicht einschränkendes Beispiel eines derartigen Renderings ist in 3 dargestellt, wobei der elektronische Anzeigespiegel 34 ein Spiegelgehäuse 80 und eine Videoanzeige 82 aufweist, die ein Video von der rückwärtigen Kamera dem Fahrer in Echtzeit zeigt sowie ein Rendering oder eine grafische Darstellung 90 des nicht sichtbaren Fahrzeugs 14. Wie dargestellt, behindert oder blockiert der Anhänger 12 die Kamera, sodass das entfernte Fahrzeug 14 nicht zu sehen ist; jedoch ist das Rendering 90 grafisch überlagert oder über die Videoausgabe gelegt, sodass sowohl der behindernde Anhänger 12 als auch das Rendering 90 sichtbar sind. Die Kombination der Videoausgabe und des Rendering wird hierin als „verbesserte Videoausgabe“ bezeichnet und wird in Schritt 158 an den elektronischen Anzeigespiegel 34 bereitgestellt. Es sollte beachtet werden, jede beliebige Anzahl unterschiedlicher Renderings, Beschreibungen, Symbole, Designs, Grafiken, Darstellungen usw. verwendet werden könnte, einschließlich der grundlegenden Designs wie derer von 3, einfach ein Kreis oder eine andere Form mit einem entsprechenden Abstand zu dem unsichtbaren Fahrzeug sind, oder komplexere Renderings, die dazu bestimmt sind, mehr als ein reales Fahrzeug (nicht gezeigt) zu sehen.
  • Schritt 152 kann ferner eine Sensorausgabe von den Fahrzeugdynamiksensoren 26 (z. B. Geschwindigkeit des Trägerfahrzeugs, Position und/oder Richtung des Trägerfahrzeugs) in Verbindung mit der von der V2V-Einheit 24 ausgegebenen Verkehrsleistung (z. B. Geschwindigkeit des entfernten Fahrzeugs, Position und/oder Richtung des entfernten Fahrzeugs, die von der BSM gesammelt wird), um einen Abstand zwischen dem Trägerfahrzeug 10 und dem entfernten Fahrzeug 14 zu berechnen (dargestellt als „8 m“ in 3). Natürlich ist ein numerischer Abstand oder Bereich nicht das einzige Element, das mit dem Rendering 90 angezeigt werden kann, da die Zeit zum Aufprall, die fahrzeuginterne Fahrzeuggeschwindigkeit und/oder eine beliebige andere geeignete Metrik angezeigt werden kann sowie die Verwendung von verschiedenen Farben oder blinkende Grafiken, um unterschiedliche Werte zu übertragen. Derartige Elemente können anstelle oder zusätzlich zu der dargestellten Abstandsmetrik dargestellt werden wie in 3.
  • Wenn es mehrere entfernte Fahrzeuge innerhalb des interessierenden Bereichs 60 gibt, kann der Schritt 152 das dem Fahrzeug 10 am nächsten entfernte Fahrzeug (z. B. auf Basis von GPS-Koordinaten) als Basis des Renderings oder der grafischen Darstellung 90 auswählen. In einer anderen Ausführungsform kann Schritt 152 das nächstgelegene entfernte Fahrzeug auswählen, das sich ebenfalls in derselben Fahrspur befindet wie das Trägerfahrzeug, auch wenn ein anderes entferntes Fahrzeug näher ist, aber in einer benachbarten Spur. Und in noch einer anderen Ausführungsform kann der Schritt 152 mehrere Renderings erzeugen und sie zur verbesserten Videoausgabe zur Darstellung auf dem elektronischen Anzeigespiegel 34 hinzufügen. Fachleute werden erkennen, dass es unzählige Techniken gibt, um zu bestimmen, welches entfernte Fahrzeug ausgewählt werden soll, wobei jedes von diesen durch das vorliegende Verfahren verwendet werden kann. Jede Kombination der Kamera 22, der V2V-Einheit 24, der Steuereinheit 32 oder des elektronischen Anzeigespiegels 34 kann zum teilweisen oder vollständigen Ausführen der Schritte 152, 158 verwendet werden. So könnte beispielsweise das Kombinieren oder Verbinden des Rendering und der Videoausgabe, um eine verbesserte Videoausgabe zu bilden, an der Kamera 22, an der V2V-Einheit 24, an der Steuereinheit 32 am elektronischen Anzeigespiegel 34, an einer anderen Vorrichtung oder an einer Kombination davon ausgeführt werden.
  • Ein möglicher Vorteil des vorliegenden Verfahrens besteht darin, dass es im Allgemeinen ohne die Notwendigkeit einer kostspieligen zusätzlichen Hardware für Fahrzeuge, die bereits mit rückseitigen Kameras, Fahrzeug-zu-Fahrzeug-Einheiten (V2V) und elektronischen Anzeigespiegeln ausgestattet sind, implementiert werden kann. Anders ausgedrückt, kann es möglich sein, das vorliegende Verfahren bei bestimmten Fahrzeugen als eine nur modifizierte Software zu implementieren, was sehr viel Kosten und Aufwand ersparen kann. Zusätzlich kann das vorliegende System und das vorliegende Verfahren einen gewissen Grad an Redundanz für den Fall liefern, dass das Trägerfahrzeug einen Anhänger schleppt und das Rückblicksystem eine Fehlfunktion erfährt; kann eine Wiedergabe von einem oder mehreren entfernten Fahrzeugen noch im elektronischen Anzeigespiegel sichtbar sein. Es ist auch möglich, dass das hierin beschriebene System und Verfahren einen Fahrer mit etwas Unterstützung zur Verfügung stellen könnte, und den Anhänger sichern, da unsichtbare Fahrzeuge, die BSMs übertragen, möglicherweise vermieden werden könnten.

Claims (15)

  1. Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug, wobei das Rückblicksystem eine Rückfahrkamera, eine Fahrzeug-zu-Fahrzeug-Einheit (V2V) und einen elektronischen Anzeigespiegel beinhaltet, und das Verfahren die folgenden Schritte umfasst: Bestimmen, ob ein abgeschlepptes Objekt hinter dem Trägerfahrzeug die nach hinten gerichtete Kamera behindert; Identifizieren eines Bereichs von Interesse hinter dem Trägerfahrzeug, wenn die nach hinten gerichtete Kamera behindert wird; Sammeln von Informationen von einem entfernten Fahrzeug mit der V2V-Einheit; Verwenden der gesammelten Informationen, um zu bestimmen, ob sich das entfernte Fahrzeug im interessierenden Bereich befindet; Erzeugen eines Renderings des entfernten Fahrzeugs, wenn sich das entfernte Fahrzeug in dem interessierenden Bereich befindet; und Anzeigen des Videoausgangs und des Renderings des entfernten Fahrzeugs auf dem elektronischen Anzeigespiegel in Form einer verbesserten Videoausgabe.
  2. Verfahren nach Anspruch 1, wobei der Bestimmungsschritt weiterhin das Bestimmen umfasst, ob das geschleppte Objekt die hintere Kamera blockiert, indem eine Bildverarbeitungstechnik verwendet wird, um ein aus dem Videoausgang genommenes Bild zu analysieren und das geschleppte Objekt aus dem Bild zu identifizieren.
  3. Verfahren nach Anspruch 2, wobei die Bildverarbeitungstechnik die Verwendung eines mehrstufigen Algorithmus beinhaltet, der eine Vielzahl von Kanten in dem von dem Videoausgang genommenen Bild identifiziert und die Vielzahl von Kanten mit dem geschleppten Objekt verbindet.
  4. Verfahren nach Anspruch 3, wobei der mehrstufige Algorithmus folgende Teilschritte beinhaltet: das Speichern eines ersten Bildes, das von dem Videoausgang genommen wird, Anlegen eines oder mehrerer Filter an das erste gespeicherte Bild, um ein erstes gefiltertes Bild zu erhalten, das Identifizieren einer ersten Vielzahl von Kanten aus dem ersten gefilterten Bild, das Warten einer vorbestimmten Zeitperiode und Wiederholen der vorhergehenden Teilschritte auf einem zweiten Bild, das von dem Videoausgang genommen wird, sodass eine zweite Vielzahl von Kanten identifiziert wird, das Auswerten der ersten und zweiten Vielzahl von Kanten und das Bestimmen, ob sie konsistent sind, und das Bestimmen, dass das geschleppte Objekt die hintere Kamera blockiert, wenn eine ausreichende Konsistenz zwischen der ersten und der zweiten Vielzahl von Kanten vorhanden ist.
  5. Verfahren nach Anspruch 4, wobei der Teilschritt des Anwendens eines oder mehrerer Filter auf das erste gespeicherte Bild die Verwendung eines Canny-Filters, eines Histogramms des Oriented Gradienten-Filters (HOG) oder beides umfasst.
  6. Verfahren nach Anspruch 3, wobei der mehrstufige Algorithmus den folgenden Teilschritt beinhaltet: das Ermitteln eines Hinderniswinkels α, der auf einer geometrischen Beziehung zwischen der hinteren Kamera und mindestens einer der Vielzahl von Kanten basiert.
  7. Verfahren nach Anspruch 1, wobei der Schritt des Identifizierens des Weiteren das Identifizieren des interessierenden Bereichs hinter dem Trägerfahrzeug umfasst, durch das Erfassen einer Position des Trägerfahrzeugs von einer Navigationseinheit und zumindest teilweise das Definieren des interessierenden Bereichs basierend auf der Position des Trägerfahrzeugs.
  8. Verfahren nach Anspruch 7, wobei der interessierende Bereich zumindest teilweise durch eine Größe und/oder Form des gezogenen Objekts definiert ist.
  9. Verfahren nach Anspruch 1, wobei der Sammelschritt ferner das Sammeln von Informationen mit der V2V-Einheit umfasst, indem eine grundlegende Sicherheitsnachricht (BSM) von dem entfernten Fahrzeug empfangen wird, und das Extrahieren von mindestens einer Information aus der BSM, die ausgewählt ist aus der Gruppe bestehend aus: einer entfernten Fahrzeugposition, einer entfernten Fahrzeuggeschwindigkeit oder einer entfernten Fahrzeugfahrtrichtung.
  10. Verfahren nach Anspruch 9, wobei der Verwendungsschritt des Weiteren das Verwenden der erfassten Informationen umfasst, um zu bestimmen, ob das entfernte Fahrzeug innerhalb des interessierenden Bereichs ist, indem die Fahrzeugposition des entfernten Fahrzeugs mit einer Grenze des interessierenden Bereichs verglichen wird.
  11. Verfahren nach Anspruch 1, wobei der Erzeugungsschritt ferner das Erzeugen des Renderings des entfernten Fahrzeugs und das Hinzufügen des Renderings zum Videoausgangssignal der nach hinten gerichteten Kamera durch grafisches Überlagern des Renderings über den Videoausgang, um eine verbesserte Videoausgabe zu bilden, und der Anzeigeschritt ferner das Anzeigen der verbesserten Videoausgabe auf dem elektronischen Anzeigespiegel in Echtzeit umfasst.
  12. Verfahren nach Anspruch 11, wobei das Rendern des entfernten Fahrzeugs eine Grundform umfasst, die das entfernte Fahrzeug darstellt, und mindestens eine Metrik, die aus der Gruppe ausgewählt ist, bestehend aus: einem Abstand von dem Trägerfahrzeug zu dem entfernten Fahrzeug, einer Fahrzeug-Aufprallzeit oder eine Fernfahrzeuggeschwindigkeit.
  13. Verfahren nach Anspruch 11, wobei das Rendern des entfernten Fahrzeugs eine grafische Darstellung umfasst, das die Farbe ändert, abhängig davon, wie nahe das entfernte Fahrzeug zu dem Trägerfahrzeug ist.
  14. Verfahren nach Anspruch 11, wobei der Erzeugungsschritt ferner das Auswählen eines nächstgelegenen entfernten Fahrzeugs aus einer Vielzahl von entfernten Fahrzeugen, das Erzeugen des Renderings des nächstliegenden entfernten Fahrzeugs und das Hinzufügen der Wiedergabe des nächstliegenden entfernten Fahrzeugs zu dem Videoausgang von der hinteren Kamera, um eine verbesserte Videoausgabe zu erzeugen, wenn sich die Mehrzahl von entfernten Fahrzeugen im interessierenden Bereich befindet.
  15. Rückblicksystem zur Verwendung mit einem Trägerfahrzeug, umfassend: eine Rückblicksystem-Steuereinheit; eine nach hinten gerichtete Kamera, die mit der Steuereinheit gekoppelt ist und die Steuereinheit mit einem Videoausgang eines Bereichs hinter dem Trägerfahrzeug versorgt; eine Fahrzeug-zu-Fahrzeug-Einheit (V2V), die mit der Steuereinheit gekoppelt ist und die Steuereinheit mit einer Verkehrsausgabe in Bezug auf ein oder mehrere entfernte Fahrzeuge versorgt; und einen elektronischen Anzeigespiegel, der mit der Steuereinheit gekoppelt ist und eine verbesserte Videoausgabe von der Steuereinheit empfängt; wobei die Steuereinheit zur Ausführung des Verfahrens gemäß Anspruch 1 konfiguriert ist.
DE102017201717.1A 2016-02-03 2017-02-02 Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens Expired - Fee Related DE102017201717B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/014,883 2016-02-03
US15/014,883 US9975487B2 (en) 2016-02-03 2016-02-03 Rear vision system for a vehicle and method of using the same

Publications (2)

Publication Number Publication Date
DE102017201717A1 DE102017201717A1 (de) 2017-08-03
DE102017201717B4 true DE102017201717B4 (de) 2022-03-24

Family

ID=59327841

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017201717.1A Expired - Fee Related DE102017201717B4 (de) 2016-02-03 2017-02-02 Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens

Country Status (3)

Country Link
US (1) US9975487B2 (de)
CN (1) CN107031508B (de)
DE (1) DE102017201717B4 (de)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016111618B4 (de) * 2016-06-24 2019-05-16 Deutsche Post Ag Fahrzeug mit Rangiersystem
KR101737737B1 (ko) * 2016-09-06 2017-05-18 덴소코리아일렉트로닉스 주식회사 차량용 카메라 hud 통합 클러스터 시스템
US10207643B2 (en) * 2016-09-06 2019-02-19 Aptiv Technologies Limited Camera based trailer detection and tracking
GB2570238B (en) * 2016-09-27 2022-03-02 Towteknik Pty Ltd Device, method, and system for assisting with trailer reversing
US10196058B2 (en) 2016-11-28 2019-02-05 drive.ai Inc. Method for influencing entities at a roadway intersection
US10261513B2 (en) 2016-12-19 2019-04-16 drive.ai Inc. Methods for communicating state, intent, and context of an autonomous vehicle
JP6429413B2 (ja) * 2017-03-10 2018-11-28 株式会社Subaru 画像表示装置
JP6497818B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6465317B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6515125B2 (ja) 2017-03-10 2019-05-15 株式会社Subaru 画像表示装置
JP6593803B2 (ja) 2017-03-10 2019-10-23 株式会社Subaru 画像表示装置
JP6497819B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6465318B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
WO2019048046A1 (en) * 2017-09-07 2019-03-14 Volvo Lastvagnar Ab METHOD FOR USING AT LEAST ONE VEHICLE CAMERA TO VERIFY THAT CERTAIN VEHICLE ELEMENTS ARE IN A SAFETY CONDITION PRIOR TO STARTING
US10538199B2 (en) * 2017-09-28 2020-01-21 Nissan North America, Inc. System and method for monitoring an area surrounding a vehicle and vehicle trailer
US10625782B2 (en) * 2017-10-03 2020-04-21 Aisin Seiki Kabushiki Kaisha Surroundings monitoring apparatus
US11052913B2 (en) 2017-10-23 2021-07-06 Uatc, Llc Cargo trailer sensor assembly
US10588009B2 (en) * 2017-10-27 2020-03-10 Toyota Jidosha Kabushiki Kaisha PSM message-based device discovery for a vehicular mesh network
US10955540B2 (en) 2017-12-01 2021-03-23 Aptiv Technologies Limited Detection system
CN108490471B (zh) * 2018-01-08 2021-06-01 深圳市易成自动驾驶技术有限公司 车辆定位方法、装置及计算机可读存储介质
DE102018205694B3 (de) * 2018-04-16 2019-06-27 Zf Friedrichshafen Ag System und Verfahren zum Erfassen eines Umfelds eines Fahrzeugs, Fahrzeug mit einem System zur Umfelderfassung und Verfahren zum Notbremsen eines Fahrzeugs
US20190322317A1 (en) * 2018-04-18 2019-10-24 GM Global Technology Operations LLC System and method for automatically determining dimensions of a trailer
US20200001779A1 (en) 2018-06-27 2020-01-02 drive.ai Inc. Method for communicating intent of an autonomous vehicle
DE102018210877A1 (de) * 2018-07-03 2020-01-09 Robert Bosch Gmbh Verfahren zur Unterstützung bei einem Rangiermanöver eines Gespanns aus Zugfahrzeug und Anhänger, System und Gespann
US10838054B2 (en) 2018-10-08 2020-11-17 Aptiv Technologies Limited Detection system and method
CN109493383B (zh) * 2018-11-23 2022-02-11 深圳市威尔德医疗电子有限公司 超声图像中内中膜厚度的测量方法、服务器及存储介质
US11092668B2 (en) 2019-02-07 2021-08-17 Aptiv Technologies Limited Trailer detection system and method
US20200282909A1 (en) * 2019-03-07 2020-09-10 GM Global Technology Operations LLC Vehicle imaging system and method for a parking solution
CN109878419B (zh) * 2019-03-11 2020-07-17 重庆大学 一种基于惯性感应自动调节的汽车后视镜
US11287266B2 (en) 2019-03-13 2022-03-29 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11255680B2 (en) 2019-03-13 2022-02-22 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11402220B2 (en) 2019-03-13 2022-08-02 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11287267B2 (en) 2019-03-13 2022-03-29 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
US11096026B2 (en) * 2019-03-13 2021-08-17 Here Global B.V. Road network change detection and local propagation of detected change
US11280622B2 (en) 2019-03-13 2022-03-22 Here Global B.V. Maplets for maintaining and updating a self-healing high definition map
GB2582323B (en) * 2019-03-19 2022-02-09 Jaguar Land Rover Ltd Image processing system and method
US11001200B2 (en) * 2019-05-30 2021-05-11 Nissan North America, Inc. Vehicle occupant warning system
WO2021061430A1 (en) 2019-09-24 2021-04-01 Apple Inc. Systems and methods for hedging for different gaps in an interaction zone
WO2021151479A1 (de) 2020-01-29 2021-08-05 Zf Cv Systems Global Gmbh Verfahren zum austauschen von daten zwischen einem anhänger und einem verkehrsteilnehmer, anhänger-kommunikationsmodul sowie anhänger
US11408995B2 (en) 2020-02-24 2022-08-09 Aptiv Technologies Limited Lateral-bin monitoring for radar target detection
US20210263513A1 (en) * 2020-02-26 2021-08-26 Polaris Industries Inc. Environment monitoring system and method for a towed recreational vehicle
DE102020214514A1 (de) * 2020-11-18 2022-05-19 Zf Friedrichshafen Ag Verfahren zum Steuern eines Kraftfahrzeugs und Steuergerät

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013217434A1 (de) 2013-09-02 2015-03-05 Bayerische Motoren Werke Aktiengesellschaft Überholassistent
DE102015108268A1 (de) 2014-05-29 2015-12-03 Ford Global Technologies, Llc Anzeigesystem unter Verwendung von Fahrzeug- und Anhängerdynamiken

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212653B2 (en) * 2001-12-12 2007-05-01 Kabushikikaisha Equos Research Image processing system for vehicle
US20030214584A1 (en) * 2002-05-14 2003-11-20 Ross Bruce Eliot Side and rear vision enhancement for vehicles
JP4513318B2 (ja) * 2003-12-10 2010-07-28 日産自動車株式会社 後側方画像制御装置および方法
US7881496B2 (en) * 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
JP4707109B2 (ja) * 2006-03-02 2011-06-22 アルパイン株式会社 複数カメラ撮影画像処理方法及び装置
EP3480057B1 (de) * 2007-04-30 2022-07-06 Mobileye Vision Technologies Ltd. Erkennung rückseitiger hindernisse
US8013720B2 (en) * 2007-11-02 2011-09-06 Reverse Control, Inc. Signal apparatus for facilitating safe backup of vehicles
US9168871B2 (en) * 2011-10-28 2015-10-27 Ford Global Technologies Rear-view mirror with multi-mode display screen, system comprising same, and method of using same
US9139133B2 (en) * 2012-05-31 2015-09-22 GM Global Technology Operations LLC Vehicle collision warning system and method
US9280202B2 (en) * 2013-05-10 2016-03-08 Magna Electronics Inc. Vehicle vision system
TWI552897B (zh) * 2013-05-17 2016-10-11 財團法人工業技術研究院 影像動態融合方法與裝置
KR102124483B1 (ko) * 2014-05-12 2020-06-19 엘지전자 주식회사 비히클 및 그 제어 방법
US9661280B2 (en) * 2014-10-23 2017-05-23 Honda Motor Co., Ltd. Rearview obstruction camera system and associated method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013217434A1 (de) 2013-09-02 2015-03-05 Bayerische Motoren Werke Aktiengesellschaft Überholassistent
DE102015108268A1 (de) 2014-05-29 2015-12-03 Ford Global Technologies, Llc Anzeigesystem unter Verwendung von Fahrzeug- und Anhängerdynamiken

Also Published As

Publication number Publication date
US9975487B2 (en) 2018-05-22
DE102017201717A1 (de) 2017-08-03
CN107031508A (zh) 2017-08-11
US20170217368A1 (en) 2017-08-03
CN107031508B (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
DE102017201717B4 (de) Verfahren zur Verwendung eines Rückblicksystem für ein Trägerfahrzeug sowie Rückblicksystem zur Ausführung des Verfahrens
DE102017201852B4 (de) Parkassistenzsystem für ein Fahrzeug und ein Verfahren zu dessen Nutzung
DE102017106083B4 (de) Rückfahrsichtsystem für ein fahrzeug und verfahren zur verwendung desselben
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102010035772B4 (de) System und Verfahren zum Liefern von Leitinformation für einen Fahrer eines Fahrzeugs
DE102018105951A1 (de) System und verfahren zum dynamischen anzeigen von bildern auf einer elektronischen anzeigevorrichtung eines fahrzeugs
DE102016109592A1 (de) Kollisionsabschwächung und -vermeidung
DE102018218220A1 (de) Steuergerät für ein Fahrzeug
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
WO2008061890A1 (de) Verfahren zur drahtlosen kommunikation zwischen fahrzeugen
DE102013209418A1 (de) Fahrzeugkollisionswarnsystem und -verfahren
DE112019004554T5 (de) System und verfahren zur warnung vor vorhergesagten fahrzeugvorfällen und zum ausweichen
DE102014223247A1 (de) Autonomfahrzeugerkennung
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
DE102016007522A1 (de) Spiegelersatzsystem für ein Fahrzeug
DE102018120677A1 (de) Systeme und Verfahren für die Gleichmäßigkeitsanpassung der Fahrzeuggeschwindigkeitssteuerung
DE102018109951A1 (de) Erfassung von wasser auf der strasse
DE102019108645A1 (de) Verfahren und vorrichtung zur erzeugung von situationswahrnehmungsgrafiken unter verwendung von kameras von verschiedenen fahrzeugen
DE102019102980A1 (de) Verfahren und vorrichtungen zum vereinfachen einer umgebungssichtverhältnisbestimmung
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102018116106A1 (de) Videoübertragung für ein ankommendes linksabbiegendes fahrzeug
DE102011010860A1 (de) Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102021212088B4 (de) Rückfahrkamerasystem für ein anhängerkupplungssystem und verfahren zum erzeugen einer darstellung in heckrichtung eines fahrzeuges
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102017129713A1 (de) Verfahren zur Verringerung des Gefahrenpotentials infolge von eingeschränkter Sicht im Straßenverkehr

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee