DE102018207162A1 - Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels - Google Patents

Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels Download PDF

Info

Publication number
DE102018207162A1
DE102018207162A1 DE102018207162.4A DE102018207162A DE102018207162A1 DE 102018207162 A1 DE102018207162 A1 DE 102018207162A1 DE 102018207162 A DE102018207162 A DE 102018207162A DE 102018207162 A1 DE102018207162 A1 DE 102018207162A1
Authority
DE
Germany
Prior art keywords
image
split
environment
screen view
locomotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018207162.4A
Other languages
English (en)
Inventor
Philipp Hoffmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102018207162.4A priority Critical patent/DE102018207162A1/de
Publication of DE102018207162A1 publication Critical patent/DE102018207162A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3688Systems comprising multiple parts or multiple output devices (not client-server), e.g. detachable faceplates, key fobs or multiple output screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden eine Vorrichtung, ein Fortbewegungsmittel sowie ein Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels (10) vorgeschlagen. Das Verfahren umfasst die Schritte:
• Kameragestütztes Ermitteln einer ersten Abbildung (1) einer Umgebung des Fortbewegungsmittels (10) aus einer ersten Perspektive,
• Ermitteln einer zweiten Abbildung (2) der Umgebung des Fortbewegungsmittels (10) aus einer zweiten Perspektive mittels eines Abstandssensors, und
• Ausgeben einer Split-Screen-Ansicht (19) an den Anwender umfassend die erste Abbildung und die zweite Abbildung.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung, ein Fortbewegungsmittel sowie ein Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels. Insbesondere betrifft die vorliegende Erfindung eine verbesserte Darstellung von Umgebungsinformationen zur Vermittlung einer intuitiveren Darstellung eines Umgebungsabbildes.
  • Im Stand der Technik sind künstliche Rückspiegel bekannt, welche auch als Kamera-Monitor-System (KMS) bezeichnet werden. Hierbei werden mittels Kamera Umgebungsinformationen aufgenommen und auf Anzeigeeinrichtungen dargestellt, welche sich insbesondere an den Positionen herkömmlicher Rückspiegel befinden.
  • Überdies sind Umgebungssensoren bekannt, welche Abstandsmessungen ausführen und somit zur Kollisionsüberwachung von Fortbewegungsmitteln dienen können.
  • US 2014/0327775 A1 offenbart einen KMS-Rückspiegel mit einer Bild-im-BildFunktion.
  • DE 10 2016 203 662 A1 offenbart ein Fahrerassistenzsystem, welches eine Draufsicht auf die Verkehrssituation eines Ego-Fahrzeugs auch bei höheren Reisegeschwindigkeiten darstellt.
  • Ausgehend vom vorgenannten Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, die Informationslage für einen Führer eines Fortbewegungsmittels zu verbessern und insbesondere optisch darzustellende Umgebungsinformationen intuitiv erfassbar zu gestalten. Die vorgenannte Aufgabe wird erfindungsgemäß durch ein Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels gelöst. Der Anwender kann beispielsweise ein Führer des Fortbewegungsmittels sein. Das Fortbewegungsmittel kann beispielsweise ein PKW, Transporter, LKW, Motorrad, Luft- und/oder Wasserfahrzeug sein. In einem ersten Schritt wird eine erste Abbildung einer Umgebung des Fortbewegungsmittels kameragestützt ermittelt. Mit anderen Worten wird ein optischer Sensor verwendet, um zumindest einen Teil der Umgebung des Fortbewegungsmittels abzulichten und ggf. für eine Darstellung innerhalb des Fortbewegungsmittels aufzubereiten. Dies schließt nicht aus, dass mehrere Kameras verwendet werden, um z.B. Tiefeninformationen über die abgelichtete Umgebung zu ermitteln oder eine zusammengefügte Darstellung unterschiedlicher Teil-Abbildungen der Umgebung des Fortbewegungsmittels zu erzeugen. Zusätzlich wird eine zweite Abbildung der Umgebung des Fortbewegungsmittels mittels eines Abstandssensors ermittelt. Mit anderen Worten wird die Umgebung des Fortbewegungsmittels mittels mindestens eines Abstandssensors abgetastet und die dabei erhaltenen Informationen in Form einer zweiten Abbildung zur optischen Darstellung aufbereitet. Anschließend wird eine Split-Screen-Ansicht innerhalb des Fortbewegungsmittels an den Anwender ausgegeben, wobei die erste Abbildung und die zweite Abbildung als Teilbereiche der Split-Screen-Ansicht angezeigt werden. Mit anderen Worten erfolgt eine Darstellung der ersten und zweiten Abbildung nebeneinander, wobei eine Trennlinie die erste Abbildung und die zweite Abbildung gegeneinander optisch abgrenzt. Dies schließt nicht aus, dass die zweite Abbildung und die erste Abbildung als Bild-im-Bild-Darstellung angezeigt werden. Durch die erfindungsgemäße Darstellung der zwei Abbildungen kann der Anwender auf einen Blick eine umfassendere Informationslage erlangen, was ihn zu einer sicheren und/oder vorausschauenderen und/oder komfortableren Verwendung des erfindungsgemäß ausgestalteten Fortbewegungsmittels befähigt.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • Die erste Ansicht kann eine erste Perspektive auf einen rückwärtigen Bereich der Umgebung des Fortbewegungsmittels aufweisen. Die zweite Ansicht kann eine zweite Perspektive in Form einer Draufsicht auf das Fortbewegungsmittel umfassen. Durch die Darstellung eines rückwärtigen Bereiches der Umgebung des Fortbewegungsmittels kann zumindest anteilig die Ansicht eines herkömmlichen Rückspiegels generiert werden, während die Draufsicht eine für Entfernungsabschätzungen (z.B. zur Kollisionsvermeidung) besonders geeignete Anwenderinformation darstellt.
  • Der für die Ermittlung der zweiten Abbildung verwendete Abstandssensor kann beispielsweise einen Radarsensor und/oder einen Lidarsensor und/oder einen Laserscanner und/oder einen Ultraschallsensor und/oder eine Stereokamera umfassen. Zumindest jedoch wird eine Abstandsinformation mittels des Abstandssensors generiert, welche bei der Ermittlung der zweiten Abbildung Verwendung findet. Beispielsweise kann eine Hervorhebung eines kollisionstechnisch besonders relevanten Abstandes in der zweiten Abbildung enthalten sein. Alternativ oder zusätzlich kann die Abstandsinformation verwendet werden, um Piktogramme oder optische Hervorhebungen innerhalb der zweiten Abbildung zu platzieren. Insbesondere bei der Verwendung einer Animation als zweite Abbildung (keine fotorealistische Darstellung auf Basis sensorisch ermittelter Pixel) können der Aufbau und die Anordnung der enthaltenen Bildmerkmale auf der Abstandsinformation basieren. Die Verwendung einer animierten/gezeichneten zweiten Abbildung kann eine besonders aufgeräumte optische Darstellung der für den Anwender tatsächlich relevanten Informationen ermöglichen sowie einen hohen Kontrast und eine Reduzierung der weniger relevanten Umgebungsinformationen gewährleisten.
  • Bevorzugt kann mittels mindestens eines Sensors ein für das Fortbewegungsmittel kollisionsrelevanter Umstand (z.B. ein Umgebungsobjekt, ein Fremdverkehrsteilnehmer o.ä.) automatisch/sensorgestützt ermittelt werden, wobei insbesondere Entfernungen zu den kollisionsrelevanten Umständen ermittelt werden. Anschließend wird anhand vordefinierter Referenzen eine optische Hervorhebung der Umstände in der Split-Screen-Ansicht vorgenommen, um den Anwender auf besonders kollisionsrelevante Umstände aufmerksam zu machen. Die optische Hervorhebung kann in der ersten Abbildung, in der zweiten Abbildung oder in beiden Abbildungen erfolgen. Dies verbessert abermals die intuitive Erfassbarkeit der vorhandenen Umgebungsinformationen.
  • Bevorzugt können Umgebungsobjekte zur intuitiven Interpretation maschinell klassifiziert werden, und ein vordefiniertes Piktogramm repräsentierend das Umgebungsobjekt in Abhängigkeit eines Ergebnisses der Klassifikation zugeordnet werden. Beispielsweise kann ein Umgebungsobjekt ein PKW, Transporter, LKW, Motorrad (jeweils mit oder ohne Anhänger), ein Flugzeug, ein Hubschrauber, ein Ruderboot, ein Segelboot, ein Motorboot, ein Segelschiff, ein Motorschiff o.ä. sein. Für eine Vielzahl der vorgenannten Umgebungsobjektklassen können jeweilige Piktogramme vorgesehen werden, welche durch den Anwender in kurzer Zeit erlernt werden können. Hierdurch verringert sich die Zeit bis zur kollisionsrelevanten Einordnung des Umgebungsobjektes durch den Anwender. Das Piktogramm kann in der ersten Abbildung und/oder in der zweiten Abbildung der Split-Screen-Ansicht verwendet werden.
  • In Abhängigkeit unterschiedlichster Fahrzeugzustände und/oder -manöver kann sich die Relevanz der ersten Abbildung gegenüber der Relevanz der zweiten Abbildung verändern. Mit anderen Worten kann der Anwender in Abhängigkeit sensorgestützt ermittelter Umstände einen erhöhten Bedarf an einer vergrößerten ersten Abbildung oder an einer vergrößerten zweiten Abbildung haben. Dies kann so weit gehen, dass die erste Abbildung (temporär) die gesamte verwendete Anzeigefläche einnimmt und die zweite Abbildung (temporär) vollständig verschwindet (oder andersherum). Beispielsweise können ein Lenkeinschlag, eine Blickrichtung des Anwenders, ein Betriebszustand eines Fahrtrichtungsanzeigers, eine Abstandsinformation zu einem Umgebungsobjekt, eine Reisegeschwindigkeit, ein Beschleunigungszustand o.ä. zur Ermittlung einer veränderten Relevanz sensorgestützt ermittelt und herangezogen werden, um die Aufteilung des Split-Screens zu verändern. Beispielsweise kann die Position einer Trennlinie zwischen der ersten Abbildung und der zweiten Abbildung hierzu verschoben oder ohne Übergang an einer anderen Position der Split-Screen-Ansicht dargestellt werden. Je nachdem, ob weitere Ansichten verfügbar sind, kann auch eine dritte Abbildung der Split-Screen-Ansicht hinzugefügt werden, welche beispielsweise mittels eines weiteren Umgebungssensors aufweisend eine dritte Perspektive erstellt worden ist. Im Ergebnis können drei Abbildungen die Bestandteile einer Split-Screen-Ansicht auf einer einzigen Anzeigeeinrichtung darstellen. Für die jeweiligen Trennlinien gilt das oben Gesagte entsprechend.
  • Die Split-Screen-Ansicht kann beispielsweise im Bereich einer A-Säule und/oder im Bereich beider A-Säulen nach Art eines (jeweiligen) künstlichen Außenspiegels und/oder an einer zentralen oberen Position im Bereich einer Windschutzscheibe des Fortbewegungsmittels nach Art eines Innenrückspiegels ausgegeben werden. Auf diese Weise kann die erfindungsgemäß erstellte Split-Screen-Ansicht als Ersatz herkömmlicher (optischer) Rückspiegel verwendet werden und gleichzeitig die Informationslage des Anwenders verbessern.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Vorrichtung zur Unterstützung eines Anwenders eines Fortbewegungsmittels vorgeschlagen. Die Vorrichtung kann als Fahrerassistenzsystem verstanden werden, welches beispielsweise auf einem bereits für andere Funktionen verwendeten Steuergerät ausgeführt wird. Die Vorrichtung erfasst einen Dateneingang, welcher beispielsweise HDMI- und/oder DVI-Kabel umfassen kann. Durch diese kann eine optische Kamera an die erfindungsgemäße Vorrichtung angeschlossen werden. Alternativ oder zusätzlich kann ein Busteilnehmer im Dateneingang enthalten sein, mittels dessen vom Fahrzeugbus bereitgestellte Sensordaten eingelesen werden können. Der Dateneingang ist informationstechnisch mit einer Auswerteeinheit verbunden, welche als elektronisches Steuergerät, programmierbarer Prozessor o.ä. ausgestaltet sein kann. Zudem ist ein Datenausgang vorgesehen, welcher ein HDMI, DVI und/oder Monitorkabel umfassen kann. Auf diese Weise ist die Auswerteeinheit eingerichtet, die Split-Screen-Ansicht an eine Anzeigeeinrichtung oder mehrere Anzeigeeinrichtungen im Fortbewegungsmittel auszugeben. Auf diese Weise ist die Vorrichtung eingerichtet, kameragestützt eine erste Abbildung einer Umgebung des Fortbewegungsmittels zu ermitteln, eine zweite Abbildung der Umgebung des Fortbewegungsmittels zu ermitteln und schließlich eine Split-Screen-Ansicht an den Anwender auszugeben, welche die erste Abbildung und die zweite Abbildung (z.B. nebeneinander) darstellt. Die Darstellung kann beispielsweise auf Monitoren erfolgen, welche im Bereich der A-Säulen oder in einem oberen mittleren Bereich der Windschutzscheibe angeordnet sind. Diese Monitore können Bestandteil der Vorrichtung sein. Auf diese Weise ist die erfindungsgemäße Vorrichtung eingerichtet, die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenen Vorteile des erfindungsgemäßen Verfahrens derart ersichtlich in entsprechender Weise zu verwirklichen, das zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel (z.B. ein PKW, Transporter, LKW, Motorrad, Luft- und/oder Wasserfahrzeug) vorgeschlagen, welches eine Vorrichtung gemäß dem zweitgenannten Erfindungsaspekt aufweist. Die Vorrichtung kann integraler Bestandteil des Fortbewegungsmittels sein. Insbesondere kann die Vorrichtung eine dauerhaft mit der Fahrzeuginformations- und/oder Energieinfrastruktur verbundene, insbesondere verteilte, Anordnung sein, so dass eine robuste und energetisch sowie informationstechnisch unproblematische Verwendung im Fortbewegungsmittel erfolgen kann.
  • Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den Figuren. Es zeigen:
    • 1 eine perspektivische Darstellung eines Fahrerarbeitsplatzes eines Ausführungsbeispiels eines erfindungsgemäßen Fortbewegungsmittels;
    • 2 eine schematische Darstellung eines Ausführungsbeispiels eines erfindungsgemäßen Fortbewegungsmittels veranschaulichend Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung;
    • 3 eine erfindungsgemäß erzeugbare erste Split-Screen-Darstellung;
    • 4 eine erfindungsgemäß erzeugbare zweite Split-Screen-Darstellung; und
    • 5 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Unterstützung eines Anwenders eines Fortbewegungsmittels.
  • 1 zeigt den Fahrerarbeitsplatz eines Pkws 10 als Ausführungsbeispiel eines erfindungsgemäßen Fortbewegungsmittels. Im Bereich 4 der linken A-Säule des PKWs 10 ist ein Außenspiegel 5 mit einer Anzeigeeinrichtung angeordnet, auf welcher eine erfindungsgemäße, beispielsweise in den 3 und 4 gezeigte Split-Screen-Darstellung anzeigbar ist. Entsprechendes gilt für den Bereich 6 der rechten A-Säule und den dortigen Außenspiegel 7. In einem zentralen oberen Bereich 8 der Windschutzscheibe des PKWs 10 ist ein Innenrückspiegel 9 mit einer Anzeigeeinrichtung angeordnet, mittels welcher eine erfindungsgemäße Split-Screen-Ansicht beispielsweise entsprechend den 3 und 4, anzeigbar ist.
  • 2 zeigt eine schematische Darstellung von Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Vorrichtung in einem Ausführungsbeispiel eines erfindungsgemäßen PKWs 10. Der PKW 10 verfügt über einen Radarsensor 14 in der Fahrzeugfront, einen Ultraschallsensor 15 im Heckstoßfänger sowie eine Frontkamera 13 in einem zentralen oberen Bereich der Windschutzscheibe des PKWs 10, welche sämtlich mit einem Dateneingang 17 eines elektronischen Steuergerätes 16 informationstechnisch verbunden sind. Über einen Datenausgang 18 kann das elektronische Steuergerät 16 mit Hilfe der Sensoren 13, 14, 15 erstellte, erfindungsgemäße Split-Screen-Ansichten an die in den Bereichen der A-Säulen angeordneten Bildschirme 11, 12 sowie einen in einem zentralen oberen Bereich der Windschutzscheibe angeordneten Bildschirm 9 eines Innenrückspiegels senden.
  • 3 zeigt ein Ausführungsbeispiel einer erfindungsgemäß erzeugbaren Split-Screen-Darstellung 19, in deren linkem Bereich eine erste und in deren rechtem Bereich eine zweite dargestellt sind. Die erste und die zweite sind durch eine senkrecht verlaufende Trennlinie 22 gegeneinander abgegrenzt. Während die erste im Wesentlichen eine fotorealistische, auf Kameradaten basierende rückwärtige Ansicht nach Art eines Innenrückspiegels darstellt, in welcher durch ein Gefahrenzeichen auf die Präsenz eines herannahenden Fremdfahrzeugs 20 aufmerksam gemacht wird, basiert die zweite auf mittels Umgebungssensoren ermittelten Umgebungsdaten. Die zweite ist nicht fotorealistisch, sondern bedient sich zweier Piktogramme, von welchen ein erstes, im Bild oberes Piktogramm 10' den PKW 10 repräsentiert, während ein zweites Piktogramm 20' das Fremdfahrzeug 20 repräsentiert. Auf Basis der Abstandssensorik können die Piktogramme 10', 20' in der Abstandskala 21 derart angeordnet werden, dass die Draufsicht eine quantitative Einschätzung des tatsächlichen Abstandes zwischen dem PKW 10 und dem Fremdfahrzeug 20 ermöglicht. Hierbei sind die Piktogramme 10', 20' jeweils der Objektklasse „PKW“ zugeordnet, während eine jeweilige Farbgebung (schwarz das Piktogramm 10', weiß das Piktogramm 20') das Ego-Fahrzeug vom Fremdfahrzeug unterscheidet.
  • 4 zeigt eine Split-Screen-Ansicht 19 gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung, welche durch Einfügen einer dritten zur Bereitstellung einer Manöverassistenz zwischen der ersten und der zweiten situationsgerecht modifiziert worden ist. Im Ansprechen auf die Erkenntnis, dass das herannahende Fremdfahrzeug 20 eine grundsätzliche Kollisionsrelevanz haben könnte, wird eine zweite vertikale Trennlinie 23 zwischen der ersten und der dritten eingefügt, so dass nun drei , , in der Split-Screen-Ansicht 19 koexistieren. Ein geradeaus bzw. vertikal weisender Pfeil P ist als Hinweis an den Fahrer des Ego-Fahrzeugs zu verstehen, die Spur zu halten, um eine Kollisionsgefahr zu minimieren. Nachdem das Fremdfahrzeug 20 hinreichend weit am Ego-Fahrzeug vorbeigefahren ist, kann beispielsweise zur in 3 gezeigten Split-Screen-Ansicht 19 zurückgekehrt werden. Mit anderen Worten wird die dritte ebenso wie die zweite Trennlinie 23 aus der Split-Screen-Ansicht 19 entfernt und optional die Positionen der ersten und der zweiten vertauscht.
  • 5 zeigt Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Unterstützung eines Anwenders eines Fortbewegungsmittels. In Schritt 100 wird eine erste Abbildung einer Umgebung des Fortbewegungsmittels aus einer ersten Perspektive kameragestützt ermittelt. In Schritt 200 wird eine zweite Abbildung der Umgebung des Fortbewegungsmittels aus einer zweiten Perspektive mittels eines Abstandssensors ermittelt. In Schritt 300 wird eine Split-Screen-Ansicht an den Anwender ausgegeben, welche die erste Abbildung und die zweite Abbildung umfasst. In Schritt 400 wird ein sensorisch erkanntes Umgebungsobjekt automatisch klassifiziert, dass Umgebungsobjekt in Schritt 500 in Abhängigkeit eines Ergebnisses der Klassifikation automatisch einem vordefinierten Piktogramm zugeordnet und in Schritt 600 das Piktogramm zur optischen Repräsentation des Umgebungsobjektes in der Split-Screen-Ansicht verwendet. Dies bereinigt die Split-Screen-Ansicht um eine Informationsflut ohne Kollisionsrelevanz. In Schritt 700 werden für das Fortbewegungsmittel kollisionsrelevante Umstände in Form von Entfernungen zu Umgebungsobjekten automatisch und sensorgestützt ermittelt. In Schritt 800 werden die Abstände zwischen den Piktogrammen gemäß einer Skala in der Split-Screen-Ansicht optisch den tatsächlichen Abständen entsprechend gewählt. In Schritt 900 wird eine veränderte Relevanz der ersten Abbildung gegenüber der zweiten Abbildung automatisch und sensorgestützt ermittelt. Mit anderen Worten wird ermittelt, dass die erste Abbildung für die Informationslage des Anwenders bei der Führung des Fortbewegungsmittels eine erhöhte Priorität hat. Im Ansprechen darauf wird in Schritt 1000 eine Position einer bisherigen Trennlinie zwischen der ersten Abbildung und der zweiten Abbildung in der Split-Screen-Ansicht verändert, indem sie stufenlos verschoben wird. Zusätzlich wird in Schritt 1100 eine dritte Abbildung zu der Split-Screen-Ansicht hinzugefügt, indem die Teilflächen der ersten und der zweiten Abbildung zugunsten der dritten Abbildung verringert werden. Nachdem die Situation vorüber ist, welche die veränderte Relevanz begründet hat, wird im Ansprechen auf das Verstreichen einer vordefinierten Zeitdauer die dritte Abbildung wieder aus der Split-Screen-Ansicht entfernt, um die Detailtiefe der Anzeige zu verringern. Dies beruhigt die Anzeige und vereinfacht die Verarbeitung der dargestellten Informationen durch den Anwender.
  • Bezugszeichenliste
  • 1
    erste Abbildung
    2
    zweite Abbildung
    3
    dritte Abbildung
    4
    Bereich der linken A-Säule
    5
    linker Au ßenspiegel
    6
    Bereich der rechten A-Säule
    7
    rechter Au ßenspiegel
    8
    zentraler oberer Bereich der Windschutzscheibe
    9
    Innenrückspiegel
    10
    (Ego-) PKW
    10'
    Piktogramm
    11, 12
    Bildschirm
    13
    Frontkamera
    14
    Radarsensor
    15
    Ultraschallsensor
    16
    elektronisches Steuergerät
    17
    Dateneingang
    18
    Datenausgang
    19
    Split-Screen-Ansicht
    20
    Fremdfahrzeug
    20'
    Piktogramm
    21
    Skala
    22, 23
    Trennlinie
    100-1100
    Verfahrensschritte
    P
    Pfeil
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2014/0327775 A1 [0004]
    • DE 102016203662 A1 [0005]

Claims (10)

  1. Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels (10) umfassend die Schritte: • Kameragestütztes Ermitteln (100) einer ersten Abbildung (1) einer Umgebung des Fortbewegungsmittels (10) aus einer ersten Perspektive, • Ermitteln (200) einer zweiten Abbildung (2) der Umgebung des Fortbewegungsmittels (10) aus einer zweiten Perspektive mittels eines Abstandssensors (14, 15), und • Ausgeben (300) einer Split-Screen-Ansicht (19) an den Anwender umfassend die erste Abbildung (1) und die zweite Abbildung (2).
  2. Verfahren nach Anspruch 1, wobei die erste Perspektive einen rückwärtigen Bereich der Umgebung des Fortbewegungsmittels (10) erfasst und/oder die zweite Perspektive eine Draufsicht auf das Fortbewegungsmittel (10) umfasst.
  3. Verfahren nach Anspruch 1 oder 2, wobei der Abstandssensor (14, 15) - einen Radarsensor und/oder - einen Lidarsensor und/oder - einen Ultraschallsensor und/oder - eine Stereo-Kamera umfasst.
  4. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend die Schritte - automatisches Ermitteln (700) für das Fortbewegungsmittel (10) kollisionsrelevanter Umstände, insbesondere Entfernungen (21), und - optisches Hervorheben (800) der Umstände in der Split-Screen-Ansicht (19).
  5. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend die Schritte - Klassifizieren (400) eines Umgebungsobjektes (20), insbesondere eines Verkehrsteilnehmers, in der Umgebung des Fortbewegungsmittels (10), - Zuordnen (500) eines vordefinierten Piktogramms (20') zu dem Umgebungsobjekt (20) in Abhängigkeit eines Ergebnisses der Klassifikation und - Verwenden (600) des Piktogramms (20') zur optischen Repräsentation des Umgebungsobjektes (20) in der Split-Screen-Ansicht (19).
  6. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend die Schritte - automatisches Ermitteln (900) einer veränderten Relevanz der ersten Abbildung (1) gegenüber der zweiten Abbildung (2) und im Ansprechen darauf - Verändern (1000) einer Position einer Trennlinie (22, 23) zwischen der ersten Abbildung (1) und der zweiten Abbildung (2) in der Split-Screen-Ansicht (19) und/oder - Hinzufügen (1100) einer dritten Abbildung (3), insbesondere mit einer dritten Perspektive auf die Umgebung, zu der Split-Screen-Ansicht (19).
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei das Ausgeben der Split-Screen-Ansicht (19) im Bereich (4, 6) einer A-Säule und/oder an einer zentralen oberen Position im Bereich (8) einer Windschutzscheibe des Fortbewegungsmittels (10) erfolgt.
  8. Vorrichtung zur Unterstützung eines Anwenders eines Fortbewegungsmittels (10) umfassend: • einen Dateneingang (17), • eine Auswerteeinheit (16) und • einen Datenausgang (18), wobei • die Vorrichtung eingerichtet ist, kameragestützt eine erste Abbildung (1) einer Umgebung des Fortbewegungsmittels (10) aus einer ersten Perspektive zu ermitteln, • eine zweite Abbildung (2) der Umgebung des Fortbewegungsmittels (10) aus einer zweiten Perspektive zu ermitteln, und • eine Split-Screen-Ansicht (19) an den Anwender umfassend die erste Abbildung (1) und die zweite Abbildung (2) auszugeben.
  9. Vorrichtung nach Anspruch 8, welche eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche 1 bis 7 auszuführen.
  10. Fortbewegungsmittel umfassend eine Vorrichtung nach einem der vorstehenden Ansprüche 8 oder 9.
DE102018207162.4A 2018-05-08 2018-05-08 Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels Pending DE102018207162A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018207162.4A DE102018207162A1 (de) 2018-05-08 2018-05-08 Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018207162.4A DE102018207162A1 (de) 2018-05-08 2018-05-08 Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels

Publications (1)

Publication Number Publication Date
DE102018207162A1 true DE102018207162A1 (de) 2019-11-14

Family

ID=68336740

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018207162.4A Pending DE102018207162A1 (de) 2018-05-08 2018-05-08 Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels

Country Status (1)

Country Link
DE (1) DE102018207162A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104290B3 (de) 2021-02-23 2022-06-02 Audi Ag Verfahren zum zumindest teilautomatisierten Parken eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017233A1 (de) * 2011-04-15 2012-08-16 Daimler Ag Anzeigeeinrichtung für ein Kraftfahrzeug
US20140327775A1 (en) * 2013-12-04 2014-11-06 Kyu Hwang Cho Mirrorless Driving of Automotive Vehicle Using Digital Image Sensors and Touchscreen
DE112014007205T5 (de) * 2014-11-26 2017-08-03 Mitsubishi Electric Corporation Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102016203662A1 (de) * 2016-03-07 2017-09-07 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem und Verfahren zum Betreiben eines solchen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017233A1 (de) * 2011-04-15 2012-08-16 Daimler Ag Anzeigeeinrichtung für ein Kraftfahrzeug
US20140327775A1 (en) * 2013-12-04 2014-11-06 Kyu Hwang Cho Mirrorless Driving of Automotive Vehicle Using Digital Image Sensors and Touchscreen
DE112014007205T5 (de) * 2014-11-26 2017-08-03 Mitsubishi Electric Corporation Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102016203662A1 (de) * 2016-03-07 2017-09-07 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem und Verfahren zum Betreiben eines solchen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021104290B3 (de) 2021-02-23 2022-06-02 Audi Ag Verfahren zum zumindest teilautomatisierten Parken eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug

Similar Documents

Publication Publication Date Title
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
EP2603402B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung und fahrerassistenzsystem
EP2484558B1 (de) Anzeigeeinrichtung für Sichtfelder eines Nutzfahrzeugs
DE102012025322B4 (de) Kraftfahrzeug mit Kamera-Monitor-System
EP2483107B1 (de) Verfahren und vorrichtung zur kombinierten visuellen anzeige von video- und abstandsdaten einer verkehrssituation
DE102012102508A1 (de) Justierverfahren und System einer intelligenten Fahrzeugbildgebungsvorrichtung
DE102008046214A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102008006309A1 (de) Verfahren und Vorrichtung zur Fahrerunterstützung beim Rangieren eines Fahrzeuges oder Fahrzeuggespanns
DE102021212088B4 (de) Rückfahrkamerasystem für ein anhängerkupplungssystem und verfahren zum erzeugen einer darstellung in heckrichtung eines fahrzeuges
DE102019131942A1 (de) Umfeldüberwachungseinrichtung
DE102017117518A1 (de) Bild-Konvertierungs-Vorrichtung
DE102008060770A1 (de) Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges
DE102020126804A1 (de) Im fahrzeug befindliches bildgebungssystem
WO2013102508A1 (de) Verfahren und vorrichtung zur fahrerinformation
DE102015000794A1 (de) Verfahren zum Anzeigen einer Umgebung eines Fahrzeugs und Rundumsicht-Anzeigevorrichtung für ein Fahrzeug
DE102011077398A1 (de) Fahrzeugkamerasystem zur Bereitstellung eines lückenlosen Bildes der Fahrzeugumgebung und entsprechendes Verfahren
DE102009003220B4 (de) Verfahren zur Kollisionswarnung sowie Kollisionswarneinrichtung
DE112017004391T5 (de) Bilderzeugungsvorrichtung, Bilderzeugungsverfahren, Aufzeichungsmedium und Bildanzeigesystem
DE102016122756A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Abstellen des Kraftfahrzeugs auf einer Parkfläche, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018207162A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels
DE102020004215A1 (de) Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug
DE102010033786A1 (de) Verfahren zur Erfassung und Anzeige seitlich neben und seitlich hinter einem Fahrzeug befindlicher Bereiche und Fahrzeug mit mehreren Bilderfassungseinheiten zur Erfassung seitlich neben und seitlich hinter dem Fahrzeug befindlicher Bereiche
DE102019116836A1 (de) Einblendschnittstellen für rückspiegelanzeigen
DE102018207407A1 (de) Fahrerassistenzsystem, Fortbewegungsmittel und Verfahren zur Anzeige eines Abbildes eines Umgebungsbereiches eines Fortbewegungsmittels
DE102021126353A1 (de) Anzeigesteuervorrichtung, anzeigevorrichtung und anzeigesteuerprogrammprodukt

Legal Events

Date Code Title Description
R163 Identified publications notified