DE102022110020A1 - Verfahren zur schulung eines nutzers zum erlernen eines fahrmanövers und computerprogramm - Google Patents

Verfahren zur schulung eines nutzers zum erlernen eines fahrmanövers und computerprogramm Download PDF

Info

Publication number
DE102022110020A1
DE102022110020A1 DE102022110020.0A DE102022110020A DE102022110020A1 DE 102022110020 A1 DE102022110020 A1 DE 102022110020A1 DE 102022110020 A DE102022110020 A DE 102022110020A DE 102022110020 A1 DE102022110020 A1 DE 102022110020A1
Authority
DE
Germany
Prior art keywords
vehicle
driving maneuver
user
driving
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022110020.0A
Other languages
English (en)
Inventor
Daniel Liebau
Claudia Liebau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022110020.0A priority Critical patent/DE102022110020A1/de
Publication of DE102022110020A1 publication Critical patent/DE102022110020A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/048Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles a model being viewed and manoeuvred from a remote point

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Beispiele betreffen ein Verfahren (10) zur Schulung eines Nutzers zum Erlernen eines Fahrmanövers (26, 36) in einer vorbestimmten Fahrsituation (20, 30). Das Verfahren (10) umfasst die Schritte Auswählen (11) der vorbestimmten Fahrsituation (20, 30) durch den Nutzer, Bereitstellen (12) von zu dem Fahrmanöver korrespondierenden Fahrmanöverdaten (25a, 25b, 25c), die im Zusammenhang mit einem vom Nutzer entfernten Fahrzeug (21, 34) in der vorbestimmten Fahrsituation (20, 30) erfasst sind, und Ausgeben (13) einer Darstellung des Fahrmanövers (36) basierend auf den Fahrmanöverdaten (25a, 25b, 25c) für den Nutzer, sodass der Nutzer das Fahrmanöver (36) in der vorbestimmten Fahrsituation (20, 30) mitverfolgen kann.

Description

  • Technisches Gebiet
  • Ausführungsbeispiele betreffen ein Verfahren zur Schulung eines Nutzers zum Erlernen eines Fahrmanövers in einer vorbestimmten Fahrsituation. Dadurch kann ein bestimmtes Fahrmanöver vom Nutzer vor einer selbst durchgeführten Fahrt erlernt oder aufgefrischt werden, sodass der Nutzer dann in der tatsächlichen Fahrsituation als Fahrer mit dem Fahrmanöver vertrauter ist und dieses einfacher durchführen kann. Weiterhin wird ein Computerprogramm vorgeschlagen, das ein Ausführen des Verfahrens auf einer programmierbaren Hardware, z.B. einem Nutzerendgerät oder einem Fahrzeugsimulator, ermöglicht.
  • Hintergrund
  • In modernen Kraftfahrzeugen werden vermehrt Fahrerassistenzsysteme eingesetzt, die einem Fahrer oder einer Fahrerin des Fahrzeugs das Durchführen von Fahrmanövern vereinfachen können. Solche Assistenzsysteme sind jedoch nicht in allen Fahrzeugen gleichermaßen verfügbar und trotz maschineller Unterstützung kann z.B. bei einem ungeübten Fahrer in ungewohnten Fahrsituationen dennoch ein gewisser Stresslevel auftreten. In Stresssituationen können sich Verhaltensweisen von Fahrern bezüglich der Durchführung von Fahrmanövern negativ verändern, sodass es zu einem erhöhten Unfallrisiko kommen kann.
  • Gerade für Fahranfänger oder auch generell ungeübtere Fahrer kann es hilfreich sein, konkrete Praxisbeispiele betreffend Fahrmanövern zu erlernen oder aufzufrischen. Beispielsweise können manche Fahrer im Alltag nur Routinestrecken zurücklegen, welche diese für sich abgespeichert bzw. verinnerlicht hat, trauen sich jedoch aufgrund mangelnder Praxiserfahrung nicht zu, in die Stadt während der Rush Hour zu fahren. Ebenso kann es sein, dass sich eine ausländische Person im Urlaub (zum Beispiel in einem Land mit Linksverkehr statt Rechtsverkehr) ein Mietfahrzeug zur Rundreise gebucht hat und gerne von Zu Hause aus Verkehrsregeln und das Verkehrsgeschehen in Kapstadt kennenlernen möchte, um sich mental bereits darauf einzustellen.
  • Eine Möglichkeit, eine Schulung für einige solcher Situationen zu erhalten, kann sein, eine Stunde bei einem Fahrlehrer zu nehmen. Ebenso werden Videos als Tutorials für verschiedene Fahrsituationen im Internet angeboten, z.B. auch von Fahrschulen, wobei die Videos mit einer Kamera aus dem Fahrzeug heraus aufgenommen sind. Derartige Videos können Fahrsituationen auf der Autobahn oder auch in der Stadt zeigen. Damit kann der Nutzer jederzeit zwischen mehreren Fahrsituationen auswählen und diese wiederholt anschauen. Ebenfalls sind im Internet Video-Tutorials zu Fahrmanövern verfügbar, die mit externen Kameras aufgezeichnet wurden (z.B. Wendemanöver von außen gefilmt).
  • Jedoch können derartige Maßnahmen für eine erfolgreiche Schulung des Nutzers unzureichend sein, zum Beispiel kann es sein, dass keine genügend praxisrelevanten Videos zu erwünschten Fahrsituationen (z.B. Witterungsphänomene etwa tief stehende Sonne, Monsunregenfälle, Schneegestöber, Seitenwinde oder Lichtverhältnisse etwa Fahrten ohne Straßenbeleuchtung oder Hindernisse etwa hohes Passantenaufkommen, passierende Fahrrad- und Motorradfahrer, querende Hirsche, Kühe, Schafe) existieren. Ferner kann das Buchen von Fahrstunden kostenintensiv und zeitlich unflexibel sein. Es ist zum Beispiel praxisfern, als Deutscher in einem anderen Land mit Linksverkehr vor einer Fahrt mit einem eigenen Fahrzeug extra eine Fahrstunde zu nehmen.
  • Zusammenfassung
  • Es ist eine Aufgabe der vorliegenden Offenbarung, verbesserte Konzepte bereitzustellen, die es Nutzern ermöglichen, in verschiedenen Fahrsituationen bezüglich bestimmter Fahrmanöver geschult zu werden.
  • Diese Aufgabe wird gelöst gemäß den Gegenständen der unabhängigen Patentansprüche. Weitere vorteilhafte Ausführungsformen werden in den abhängigen Patentansprüchen, der folgenden Beschreibung sowie in Verbindung mit den Figuren beschrieben.
  • Entsprechend wird ein Verfahren zur Schulung eines Nutzers zum Erlernen eines Fahrmanövers in einer vorbestimmten Fahrsituation vorgeschlagen. Das Verfahren umfasst ein Auswählen der vorbestimmten Fahrsituation durch den Nutzer. Zum Beispiel kann dem Nutzer dazu eine Liste verfügbarer Fahrsituationen angezeigt werden, zum Beispiel thematisch sortiert. Die Fahrsituationen können dabei zum Beispiel nach den Schulungsbedürfnissen des Nutzers bereitgestellt und ausgewählt werden, z.B. können solche Fahrsituationen verkehrsreiche Situationen sein (z.B. Rush Hour), Nachtfahrten und/oder Fahrsituationen in unbekannten Regionen.
  • Das Verfahren umfasst ferner ein Bereitstellen von zu dem Fahrmanöver korrespondierenden Fahrmanöverdaten, die im Zusammenhang mit einem vom Nutzer entfernten Fahrzeug in der vorbestimmten Fahrsituation erfasst sind. Beispielsweise können die Fahrmanöverdaten vom Fahrzeug selbst erfasste Daten sein oder auch (z.B. zusätzlich) Daten von Smart-Wearables, die ein Fahrer des Fahrzeugs trägt. Eine Möglichkeit für das Bereitstellen der Fahrmanöverdaten ist, dass das Fahrzeug Videodaten des Fahrmanövers in der ausgewählten Fahrsituation aufzeichnet, speichert und/oder z.B. an einen Server überträgt, wobei die Videodaten mittels einer oder mehrerer Fahrzeugkameras aufgezeichnet werden können.
  • Es können zwei Aspekte bei der Erstellung der Fahrmanöverdaten besonders relevant sein, welche zu optimieren sind. Einerseits der Fahrzeugtyp, mit welchem die Fahrmanöverdaten aufgenommen oder erfasst wurden. Das Fahrzeug kann beispielsweise aufgrund von Sichteinschränkung durch die Karosserieform (A-B-/C-/D-Säule) eine mehr oder weniger gute Rundumsicht bzw. einen toten Winkel aufweisen bzw. die Motorisierung kann einen Spurwechsel schneller oder langsamer durchführbar machen. Zweitens kann die Fahrsituation möglichst gut der Zielvorstellung des Nutzers entsprechen. Somit kann verfahrensgemäß (z.B. gesteuert durch einen Algorithmus) nicht nur auf vorhandenes Material zurückgegriffen werden, sondern auch gezielt Fahrmanöverdaten aufgezeichnet werden. Hierbei können alle vernetzten Fahrzeuge, welche in Betrieb sind, nach Fahrzeugtyp und Fahrsituation hin abgefragt werden und die Fahrsequenz daraufhin gezielt erstellt werden. Zum Beispiel kann dann auch die benötigte Fahrsequenz gezielt in den Fahrtverlauf des Zielfahrzeugs integriert und erzwungen werden. Mit anderen Worten kann das Verfahren optional umfassen, eine Navigationsroute des entfernten Fahrzeugs anzupassen, um Fahrmanöverdaten für die ausgewählte Fahrsituation erfassen zu können (z.B. um einen bestimmten Streckenabschnitt erfassen zu können).
  • Das Verfahren umfasst ferner ein Ausgeben einer Darstellung des Fahrmanövers basierend auf den Fahrmanöverdaten für den Nutzer, sodass der Nutzer das Fahrmanöver in der vorbestimmten Fahrsituation mitverfolgen kann. In dem beispielhaften Fall, dass die Fahrmanöverdaten Videodaten umfassen, kann dem Nutzer zum Beispiel ein Video des Fahrmanövers in der ausgewählten Fahrsituation angezeigt werden. Durch das Verwenden von Fahrzeugkameras kann z.B. ein besonders detailreiches und praxisrelevantes Video als Darstellung des Fahrmanövers zur Verfügung gestellt werden (oder z.B. in Kürze verfügbar gemacht werden, wenn diese Fahrmanöversequenz noch durch ein Zielfahrzeug erstellt wird).
  • Das Auswählen der Fahrsituation, in der das Fahrmanöver erlernt werden soll, kann den Vorteil haben, dass der Nutzer sich ganz spezifisch entsprechend seiner individuellen Bedürfnisse auf das Durchführen des Fahrmanövers in genau der erwarteten Situation vorbereiten kann (oder ein Fahrmanöver am gleichen Ort mit unterschiedlichen Witterungen; bspw. will ein zukünftiger Pendler seine Wegstrecke bei diversen Witterungszuständen schon einmal erproben). Im Gegensatz zu anderen bekannten Konzepten kann zum Beispiel ausgewählt werden, ob die Darstellung eines Einparkmanövers bei viel Verkehr, in einer verkehrsruhigen Gegend oder z.B. auch bei Nacht mit schlechteren Sichtverhältnissen ausgegeben werden soll. Dadurch kann das vorgeschlagene Verfahren dem Nutzer eine verbesserte Vorbereitung bieten bzw. eine besser angepasste Schulung für das Durchführen von Fahrmanövern ermöglichen.
  • Beispielsweise können, wie bereits zuvor erwähnt, die Fahrmanöverdaten Videodaten des Fahrzeugs umfassen. Diese Videodaten können die Umgebung des Fahrzeugs und/oder auch den Fahrer des Fahrzeugs betreffen. Die Ausgabe der Darstellung des Fahrmanövers kann ein Video des Fahrmanövers umfassen, das sich der Nutzer ansehen kann, beispielsweise auf einem Nutzergerät wie einem Smartphone oder dergleichen. Mittels Innenraumkameras kann zum Beispiel eine Reaktion des Fahrers auf Vorfälle im das Fahrzeug umgebenden Verkehrsaufkommen nachvollzogen werden (zum Beispiel Blickrichtungswechsel des Fahrers bei Abbiegemanövern). Da mehrere verschiedene Fahrzeugkameras gleichzeitig das Fahrmanöver aufzeichnen können, kann es dem Nutzer verfahrensgemäß z.B. ermöglicht werden, zwischen verschiedenen Kameraperspektiven zu wechseln, sodass verschiedene Aspekte und Details des Fahrmanövers besser nachvollzogen und analysiert werden können. Beispielsweise kann die Blickrichtung des Fahrers als Fahrmanöverdaten in ein Video, das die Umgebung des Fahrzeugs darstellt, integriert werden, sodass der Blickfokus des Fahrers im Video hervorgehoben wird. Auf diese Art kann der Nutzer einfach erfassen und erlernen, worauf der Fahrer im entfernten Fahrzeug in welchem Moment fokussiert ist. Mit anderen Worten existiert mindestens ein räumlich vom Nutzer getrenntes Fremdfahrzeug (z.B. vom Nutzer entferntes Fahrzeug), welches Videomaterial aus dem Blickwinkel des Fahrers bereitstellt und um dieses Fremdfahrzeug herum können auch Hilfsfahrzeuge bzw. stationäre (Überwachungskameras) und/oder dynamische (z.B. Drohnen) Videokameras existieren, um ergänzendes Videomaterial bereitzustellen. Diese sind ebenso wie das vom Nutzer entfernte Fahrzeug auch räumlich getrennt zum Nutzer (und in räumlicher Nähe zum entfernten Fahrzeug).
  • Bei der Verwendung von Videodaten kann vorgesehen sein, dass die Videodaten von einer Mehrzahl unterschiedlicher Fahrzeugkameras und/oder externer stationärer Umfeldkameras aufgezeichnet sind. Beispielsweise kann vorgesehen sein, dass die Videodaten von einer Mehrzahl unterschiedlicher Fahrzeugkameras aufgezeichnet sind und verfahrensgemäß ein Bereitstellen einer Auswahl von Videos des Fahrmanövers aus verschiedenen Aufnahmeperspektiven der Mehrzahl unterschiedlicher Fahrzeugkameras für den Nutzer erfolgt, sodass der Nutzer daraus z.B. eine für ihn geeignete Perspektive zum Mitverfolgen des Fahrmanövers auswählen kann.
  • Alternativ zum Bereitstellen der Möglichkeit für Nutzer, zwischen verschiedenen Kameraperspektiven zu wählen, können die verschiedenen Videodaten auch mittels Bildfusionierung zu einem Gesamtvideo des Fahrmanövers zusammengefügt werden, wodurch z.B. die Sichtweise aus Fahrerperspektive oder Vogelperspektive ausgegeben werden kann. Zum Beispiel kann ein Fahrmanöver in der ausgewählten Verkehrssituation in 2D Vogelperspektive dargestellt werden oder als 3D Video, das z.B. mittels VR-Brille an den Nutzer ausgegeben werden kann. Dadurch kann es dem Nutzer ermöglicht werden, das Geschehen noch genauer und realistischer mitverfolgen zu können.
  • Gemäß einer bevorzugten Ausgestaltung des Verfahrens ist vorgesehen, dass die Fahrmanöverdaten Betätigungssignale des Fahrzeugs umfassen und bei der Darstellung des Fahrmanövers angezeigt wird, in welchen Momenten des Fahrmanövers welche Bedienelemente des Fahrzeugs betätigt werden. Derartige Bedienelemente, die berücksichtigt werden können, sind zum Beispiel Lenkrad, Kupplung, Blinker etc. Ein Betätigungssignal eines Blinkers kann zum Beispiel anzeigen, wann dieser aktiviert ist. So kann z.B. auch ein dynamischer Lenkradeinschlag während des Fahrmanövers dargestellt werden oder eine Aktivierung des Blinkers dargestellt werden. Auf diese Weise kann dem Nutzer zum Beispiel bei einem Abbiegemanöver angezeigt werden, wann der Fahrer des entfernten Fahrzeugs den Blinker betätigt und wann er ihn wieder deaktiviert. Zum Beispiel kann auch dargestellt werden, ab welchem Dämmerungsgrad der Fahrer, dessen Fahrmanöver der Nutzer mitverfolgt, das Autolicht einschaltet oder in welchen Situationen der Fahrer z.B. bei einer Nachtfahrt das Fernlicht aktiviert und deaktiviert.
  • Optional können derartige Betätigungssignale in einem Fahrzeugsimulator dargestellt werden, in dem das jeweilige Bedienelement des Fahrzeugsimulators synchronisiert mit einer korrespondierenden Videoanzeige des Fahrmanövers aktiviert wird. Beispielsweise kann ein eigenes Fahrzeug des Nutzers als Fahrzeugsimulator genutzt werden, sodass im eigenen Fahrzeug in einer simulierten Fahrt die Videodaten auf einem Bildschirm ausgegeben werden können und die Bedienelemente, die der Fahrer des entfernten Fahrzeugs bedient, in einem Simulationsmodus zeitlich zum Video synchronisiert aktiviert werden können. Beispielsweise kann in einem solchen Simulationsmodus dann, wenn auf dem Video eines Abbiegevorgangs der Fahrzeugblinker des entfernten Fahrzeugs aktiviert ist auch der Fahrzeugblinker des eigenen Fahrzeugs des Nutzers aktiviert werden oder die Pedale synchron zum entfernten Fahrzeug bewegt werden, sofern ein Pedalaktuator im Fahrzeug des Nutzers vorhanden ist. Dadurch kann eine multimodale Ausgabe der Darstellung des zu erlernenden Fahrmanövers erfolgen. Auf diese Weise kann eine noch realistischere Darstellung des Fahrmanövers erfolgen und der Nutzer kann wichtige Handlungsschritte, die beim zu erlernenden Fahrmanöver ausgeführt werden, multimodal erleben.
  • Beispielsweise können die Fahrmanöverdaten ferner Informationen zu Reaktionen des Fahrers umfassen (z.B. körperliche Reaktionen; z.B. Bewegungen), die von Smart-Wearables des Fahrers des Fahrzeugs aufgezeichnet sind. Beispielsweise können Bewegungen wie ein Schulterblick oder eine Kopfbewegung des Fahrers im entfernten Fahrzeug als Fahrmanöverdaten erfasst werden und dem Nutzer dargestellt werden, damit er diese Bewegungen dann selbst durchführen kann, wenn er später sein eigenes Fahrzeug selbst steuert. Beispielsweise kann die Herzfrequenz des Fahrers dargestellt werden; so kann z.B. nachvollzogen werden, in welchen Fahrsituationen es normal sein kann, z.B. aufgrund erhöhter Konzentration eine erhöhte Herzfrequenz zu haben. Mit einer solchen Information kann der Nutzer besser auf das selbst durchzuführende Fahrmanöver vorbereitet werden, da er z.B. schon mit einem gewissen Stresslevel rechnen kann und nicht unvermittelt davon überrascht wird. Die Fahrerreaktionen können z.B. dem Nutzer visuell neben einem Video dargestellt werden (z.B. zeitsynchron zum Video); z.B. können die Fahrerreaktionen zum einfacheren Verständnis des Nutzers durch schematische Symbole angezeigt werden (z.B. eine animierte Figur, die entsprechend einen Schulterblick durchführt oder den Kopf bewegt; zum Beispiel kann eine Bewegung einer solchen Figur auch basierend auf einer Videoaufzeichnung des Fahrers animiert werden).
  • Bezüglich der Darstellung des Fahrmanövers kann vorgesehen sein, dass die Fahrmanöverdaten Informationen zu Reaktionen des Fahrers umfassen und das Ausgeben der Darstellung des Fahrmanövers umfasst, die Reaktionen des Fahrers mittels Smart-Wearables des Nutzers oder auch zusätzlich oder alternativ mittels eines Exoskeletts an den Nutzer auszugeben. Beispielsweise kann eine Smart-Watch des Fahrers Aktivitäten einer Hand des Fahrers aufzeichnen, an der der Fahrer die Smart-Watch trägt. Zum Beispiel kann eine Fahrerreaktion auch per Video erfasst werden, mittels Bildanalysesoftware analysiert und abstrahiert werden und mittels Smart Wearables und/oder Exoskelett an den Nutzer ausgegeben werden. Zum Beispiel kann eine Bewegung des Fahrers beim Betätigen des Blinkers oder Scheibenwischers erfasst werden und bei der Ausgabe der Darstellung an den Nutzer durch Aktivieren eines Aktuators in einer Smart-Watch des Nutzers signalisiert werden. Dasselbe Konzept kann z.B. durch die Verwendung von Smart-Shoes oder Smart-Socks beim Betätigen von Fußpedalen eine realistischere Darstellung des Fahrmanövers hinsichtlich der notwendigen Bedienung der Fußpedale beim Fahrmanöver ermöglichen. Somit können dem Nutzer haptisch erlebbare Reaktionen des Fahrers in der Fahrsituation vermittelt werden. Beispielsweise kann auch die Verwendung eines Exoskeletts für die Darstellung des Fahrmanövers z.B. ein besonders intensives Erlebnis von haptisch erlebbaren Reaktionen des Fahrers in der Fahrsituation ermöglichen. Damit kann es möglich sein, dass Gliedmaßen sowie Hände und Füße des Nutzers zum Beispiel in einem Fahrsimulator zeitsynchron zu einem Video des Fahrmanövers an die jeweils zu bedienenden Bedienelemente eines Fahrzeugsimulators geführt werden können.
  • Gemäß einem Aspekt kann vorgesehen sein, dass die Fahrmanöverdaten in Echtzeit an den Nutzer ausgegeben werden. Somit kann das Verfahren eine Live-Aufschaltung auf ein Fahrzeug (beispielweise ein Fahrzeug aus einer Fahrzeugflotte eines Anbieters von Software, die ein Ausführen des vorgeschlagenen Schulungsverfahrens anbietet) ermöglichen, wobei der Nutzer z.B. das Fahrzeug oder den Fahrzeugtyp in der Fahrsituation auswählen kann. Alternativ kann eine Ausgabe von gespeicherten Fahrmanöverdaten an den Nutzer erfolgen, z.B. um eine zeitlich unabhängige Verfügbarkeit verschiedener Fahrsituationen und/oder Fahrzeugtypen zu gewährleisten. Durch ein Auswählen des Fahrzeugs zusätzlich zur Fahrsituation kann ein bestimmter Fahrzeugtyp gewählt werden (sowohl bei Echtzeitbetrachtung als auch bei gespeicherten Fahrmanöverdaten), z.B. ein großes oder kleines Fahrzeug, je nachdem, für welchen Fahrzeugtyp der Nutzer geschult werden möchte. Beispielsweise kann sogar die Fahrzeugmarke und/oder das Fahrzeugmodell ausgewählt werden, sodass der Nutzer das Fahrmanöver passgenau für sein eigenes Fahrzeug mitverfolgen kann (z.B. kann ein BMW-Fahrer das Fahrmanöver anhand eines baugleichen BMW-Fahrzeugs mitverfolgen und somit speziell für sein eigenes Fahrzeug geschult werden). Darüber hinaus können Nutzer z.B. auch schon für Pre-Drives freigeschaltet werden (z.B. für noch nicht auf dem Markt verfügbare Premiummodelle). Es können bereits Daten von Entwicklungsfahrten an zukünftige Nutzer bereitgestellt wer-den, um die Fahrzeugcharakteristik eines zukünftigen Modells auszuprobieren bevor dieses auf dem Markt ist.
  • Das Verfahren kann für verschiedene Fahrzeuge eingesetzt werden, z.B. Land-, Wasser- oder Luftfahrzeuge. Insbesondere kann es zur Schulung von Fahrmanövern bei Personenkraftwagen mit und ohne Anhänger oder Motorrädern verwendet werden, ebenso jedoch auch zur Schulung von Lastkraftwagenfahrern oder Bussen mit und ohne Anhänger.
  • Ein weiterer Aspekt der Offenbarung betrifft ein Computerprogramm mit einem Programmcode, um das zuvor oder nachfolgend beschriebene Verfahren auszuführen, wenn das Computerprogramm auf einem Prozessor, einem Computer, oder einer programmierbaren Hardware ausgeführt wird. Ein solches Computerprogramm kann vorteilhafterweise zum Ausführen des Verfahrens auf einem Nutzerendgerät, z.B. Smartphone, Tabletcomputer o.ä., in einem Fahrzeug mit Simulationsmodus, in einem Simulator mit Exoskelett und Videoanzeige, und/oder unter Verwendung einer Virtual-Reality (VR)-Brille verwendet werden.
  • Figurenkurzbeschreibung
  • Ausführungsbeispiele werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert. Es zeigen:
    • 1 ein Flussdiagramm eines Verfahrens zur Schulung eines Nutzers;
    • 2 ein schematisches Beispiel eines Fahrzeugs, das Fahrmanöverdaten eines Einparkvorgangs bereitstellt und über einen Server an ein mobiles Endgerät übermittelt; und
    • 3 ein schematisches Beispiel eines Fahrzeugs, das Fahrmanöverdaten eines Abbiegevorgangs in einer verkehrsreichen Fahrsituation bereitstellt.
  • Beschreibung
  • Verschiedene Ausführungsbeispiele werden nun ausführlicher unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind. In den Figuren können die Dickenabmessungen von Linien, Schichten und/oder Regionen um der Deutlichkeit Willen übertrieben dargestellt sein. Bei der nachfolgenden Beschreibung der beigefügten Figuren, die lediglich einige exemplarische Ausführungsbeispiele zeigen, können gleiche Bezugszeichen gleiche oder vergleichbare Komponenten bezeichnen.
  • Ein Element, das als mit einem anderen Element „verbunden“ oder „verkoppelt“ bezeichnet wird, mit dem anderen Element direkt verbunden oder verkoppelt sein kann oder dass dazwischenliegende Elemente vorhanden sein können. Solange nichts anderes definiert ist, haben sämtliche hierin verwendeten Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen) die gleiche Bedeutung, die ihnen ein Durchschnittsfachmann auf dem Gebiet, zu dem die Ausführungsbeispiele gehören, beimisst.
  • 1 zeigt ein Flussdiagramm eines Verfahrens 10 zur Schulung eines Nutzers zum Erlernen eines Fahrmanövers in einer vorbestimmten Fahrsituation. Das Verfahren 10 umfasst ein Auswählen 11 der vorbestimmten Fahrsituation durch den Nutzer sowie ein Bereitstellen 12 von zu dem Fahrmanöver korrespondierenden Fahrmanöverdaten, die im Zusammenhang mit einem vom Nutzer entfernten Fahrzeug in der vorbestimmten Fahrsituation erfasst sind. Anschließend erfolgt ein Ausgeben 13 einer Darstellung des Fahrmanövers basierend auf den Fahrmanöverdaten für den Nutzer, sodass der Nutzer das Fahrmanöver in der vorbestimmten Fahrsituation mitverfolgen kann.
  • Es existieren zahlreiche Konzepte hinsichtlich Car-to-Car und Car-to-Infrastruktur Kommunikation, um Daten miteinander auszutauschen. In Bezug auf die On-Board Sensorik existiert eine Vielzahl von unterschiedlichen Technologien zur Identifikation der Umwelt. Das vorgeschlagene Verfahren kann z.B. ein Aufschalten einer fremden/nicht im Fahrzeug sitzenden Person (d.h. des Nutzers, der geschult wird) mittels ihres Endgeräts (z.B. Smartphone o.ä.) auf ein Fahrzeug im Straßenverkehr ermöglichen, um sich z.B. über eine On-Board Kamera des Fahrzeugs (z.B. in Echtzeit) auf das Fahrzeug aufzuschalten bzw. im Nachgang retrospektiv gespeicherte Filmsequenzen des Fahrzeugs anzuschauen (und zusätzlich zum Beispiel eine zeitsynchrone Betätigung von Bedienelementen des Fahrzeugs wie Lenker oder Blinker mitverfolgen zu können, die ebenso von der Fahrzeugelektronik aufgezeichnet und als Fahrmanöverdaten bereitgestellt werden kann). Dabei können die Filmsequenzen unter anderem aus Perspektiven der On-Board-Kameras aufgenommen werden.
  • Das Verfahren kann ermöglichen, dass die externe Person anhand der Bildsequenzen die Verkehrssituationen (z.B. Überqueren einer Kreuzung, Einfädeln, Abfahren Autobahn) z.B. live miterlebt und z.B. die Fahrsituationen (z.B. Vorfahrtsregeln) und/oder adäquate Fahrerreaktionen einüben kann. Ein Vorteil dieses Aufschaltens oder Mitverfolgens als Schulungsmethode kann darin gesehen werden, dass Fahrzeugnutzer z.B. in jungen oder älteren Jahrgängen durch den vorgeschlagenen Simulator anhand von realen Praxisbeispielen lernen können, die selbst ausgewählte Verkehrssituation besser einzuüben bzw. aufzufrischen. So kann es bspw. sein, dass eine Person im Alltag nur Routinestrecken fährt, welche diese für sich abgespeichert bzw. verinnerlicht hat, sich jedoch aufgrund mangelnder Praxiserfahrung nicht zutraut während der Rush Hour in die Stadt zu fahren. Ebenso kann es sein, dass sich eine ausländische Person (z.B. Chinesischer Autofahrer) im Urlaub in Südafrika ein Mietfahrzeug zur Rundreise gebucht hat und gerne von zu Hause (Ort in China) Verkehrsregeln und das Verkehrsgeschehen in Kapstadt kennenlernen möchte, um sich mental bereits darauf einzustellen. Beispielsweise können kulturell im Verkehrsgeschehen befindliche Hindernisse berücksichtigt werden, welche vor Fahrtantritt durch eine Remote-Simulation besser eingeübt werden können und somit eine mentale Vorbereitung auf das Führen eines Fahrzeugs im Ausland darstellt: z.B. möchte sich ein Deutscher vor Reiseantritt nach Indien auf den indischen Berufsverkehr mit Kühen auf der Straße vertraut machen.
  • Es können verschiedene Fahrsituationen und Fahrmanöver, z.B. kritische Manöver, berücksichtigt werden, welche etwa länderspezifisch für Nichtgeübte eine Herausforderung darstellen können. Dies kann zum Beispiel umfassen: Mehrspurigen Fahrstreifenwechsel beherrschen bei hohem Verkehrsaufkommen; Spezielle Hindernisse sicher umfahren; Rangiermanöver (Quer-, Längsparken vorwärts und rückwärts, auf offenem Gelände/mit Barrieren); Ein-/Ausfahrten (Garagen, /Einfahrtshöhen/Beschrankungen/Ticketschaltern zum Kartelösen); Regen-/Gischtfahrten; Fahrten in Nebel; Fahrten in Dunkelheit mit/ohne Blendung Gegenverkehr; Fahrten bei Geschwindigkeitsbeschränkungen (viel/wenig wechselnden Geschwindigkeiten; unbegrenzt); unterschiedliche Durchschnittsgeschwindigkeiten; Fahrten in Links-/Rechtsverkehr; Fahrten mit vielen Kurven (Serpentinen); Steigungsfahrten.
  • Das vorgeschlagene Verfahren kann es ermöglichen, Fahrer auf bestimmte Fahrmanöver in selbst gewählten Fahrsituationen vorzubereiten und im Durchführen des jeweiligen Fahrmanövers zu schulen. Das Verwenden von Fahrmanöverdaten, die über eine reine Videoanzeige hinausgehen, kann eine realistischere Darstellung für die Schulung ermöglichen. So kann einem Nutzer z.B. angezeigt werden, wann genau welche Bedienelemente des Fahrzeugs betätigt werden müssen, um das Fahrmanöver erfolgreich durchzuführen und welche Körperbewegungen dabei hilfreich sein können oder erforderlich sind.
  • 2 zeigt ein schematisches Beispiel 20 eines Fahrzeugs 21, das Fahrmanöverdaten eines Einparkvorgangs 26 bereitstellt und über einen Server 24 an ein mobiles Endgerät 25 übermittelt. Die Fahrmanöverdaten können z.B. vom Fahrzeug 21 an den Server 24 gesendet werden und von dort (z.B. live oder als auf dem Server gespeicherte Datensätze) an das mobile Endgerät 25 weitergeleitet werden.
  • Beim dargestellten Einparkvorgang fährt das Fahrzeug 21 rückwärts in eine Parklücke zwischen weiteren Fahrzeugen 22, 23. Das Fahrzeug weist Fahrzeugkameras auf, z.B. eine Rückfahrkamera 21a, eine Frontkamera 21b und eine Seitenkamera 21c. Diese Kameras können Videodaten 25c aufzeichnen, die als Fahrmanöverdaten während des Einparkvorgangs 26 aufgezeichnet und/oder übertragen werden können.
  • Die Videodaten 25c können z.B. einzeln oder zusammengefügt (z.B. zu Vogelperspektive fusioniert; z.B. Surround-View) als Video vom mobilen Endgerät 25 abgespielt werden. Weiterhin können als Fahrmanöverdaten auch ein Lenkeinschlag 25a des Lenkrads des Fahrzeugs und/oder eine Blinkeraktivierung 25b von Fahrzeugblinkern des Fahrzeugs 21 übertragen werden. Der Lenkradeinschlag 25a und die Blinkeraktivierung können z.B. auf dem mobilen Endgerät 25 dargestellt werden (z.B. als abstrahierte bewegte Symbole neben einem korrespondierenden Video des Fahrmanövers). Alternativ können z.B. in einem Fahrzeugsimulator mittels Aktuatorik der Lenkeinschlag eines Lenkrads des Fahrzeugsimulator und der Blinker des Fahrzeugsimulators entsprechend den Fahrmanöverdaten 25a, 25b gesteuert werden.
  • Beispielsweise kann ein Nutzer des mobilen Endgeräts 25 (z.B. Smartphone) eine Fahrsituation in einer verkehrsreichen Gegend auswählen (z.B. Einparken auf einer mehrspurigen Straße während einer Hauptverkehrszeit) und dort das Fahrmanöver Längsparken (z.B. rückwärts) auswählen. Zum Beispiel kann daraufhin ein Aufschalten auf das Fahrzeug 21 (z.B. in Kapstadt während der Rushhour; z.B. mit Linksverkehr) erfolgen, das sich gerade in der Fahrsituation befindet und das Manöver durchführt. Die vorgeschlagene Software (oder System bestehend aus Server 24, mobilem Endgerät 25 und Fahrzeugflotte mit dem dargestellten Fahrzeug 21) schaltet das Smartphone 25 auf das Fahrzeug 21, z.B. in Kapstadt, frei und erlaubt dem Nutzer die virtuelle On-Board Mitfahrt zum Mitverfolgen des Fahrmanövers. Zum Beispiel kann sich so ein ausländischer Fahrer (der z.B. nur mit Rechtsverkehr vertraut ist) in Fahrmanövern in Linksverkehr schulen und sucht sich in seiner App ein entsprechendes Land aus und wählt das gewünschte Fahrmanöver aus.
  • Beispielsweise können Kamerabilder bildsynchron zu Lenkparametern, Befehlen an Fußpedalerie (z.B. Bremspedal; Gaspedal) sowie Betätigungsschaltern und -hebeln (z.B. Blinker; Schalthebel; Licht; Hupe) während des Fahrmanövers. „Längseinparken im Linksverkehr“ an einen Server übertragen werden (z.B. als multimodale Fahrmanöverdaten). Das Fahrmanöver wird z.B. mit seinen Kameraansichten und Parametern auf dem Smartphone bequem von Zuhause nachvollzogen. So können Kamerabilder der Fahrsituation übertragen werden, ebenso wie Lenkbefehle, Blinkeraktivierung, und Pedalerie etc. bildsynchron angezeigt werden (z.B. in einer App mittels gesondert dargestellten Symbolen, die den Lenkeinschlag und/oder die Aktivierung des Blinkers realistisch darstellen).
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vor- oder nachstehend beschriebenen Ausführungsbeispielen erwähnt. Das in 2 gezeigte Ausführungsbeispiel kann ein oder mehrere optionale zusätzliche Merkmale aufweisen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder mit einem oder mehreren vorstehend (z.B. 1) oder nachstehend (z.B. 3) beschriebenen Ausführungsbeispielen erwähnt sind.
  • 3 zeigt ein schematisches Beispiel 30 eines Fahrzeugs 34, das Fahrmanöverdaten eines Abbiegevorgangs 36 in einer verkehrsreichen Fahrsituation bereitstellt. Auf einer mehrspurigen Straße mit Linksabbiegespur 31, Geradeausspur 32 und Rechtsabbiegespur 33 befindet sich das zu beobachtende Fahrzeug 34 auf der linken Spur 31, möchte jedoch den Abbiegevorgang 36 durchführen, um eine rechts dargestellte Ausfahrt zu nehmen. Zwischen dem Fahrzeug 34 und der Ausfahrt befinden sich auf den weiteren Fahrspuren weitere Fahrzeuge 35a, 35b, 35c. Es kann aufgrund eines hohen Verkehrsaufkommens und den zwischen Fahrzeug 34 und der Ausfahrt liegenden Fahrspuren 32, 33 sehr anspruchsvoll sein, das Abbiegemanöver sicher durchzuführen.
  • Das Fahrzeug 34 möchte z.B. wie dargestellt kurzfristig vor einer Kreuzung mehrere Fahrspuren nach rechts überqueren, um die Abbiegespur zu erreichen. Dies kann eine Stresssituation bei mehrfachem Spurwechsel und überfüllten Fahrspuren sein. Wenn das Fahrzeug 34 dieses Fahrmanöver erfolgreich absolviert, kann z.B. ein Nutzer, der sich in der Fahrsituation schulen möchte, die Fahrmanöverdaten des Fahrzeugs 34 verwenden, um das Fahrmanöver nachzuvollziehen. Eine solche Situation kann als Übungssituation z.B. für Fahrer, die Linksverkehr gewöhnt sind, besonders hilfreich sein. Ein Engländer ist z.B. Linkverkehr gewöhnt und möchte sich bei Bedarf mit Rechtsverkehr vertraut machen, da in den nächsten Tagen z.B. eine Reise nach Deutschland ansteht. Das vorgeschlagene Verfahren kann es nun ermöglichen, dass er sich live auf ein Fahrzeug (z.B. Fahrzeug 34) aufschaltet, welches aktuell ein schwieriges Manöver bei hohem Verkehrsaufkommen durchführt - da der Engländer zu einer ähnlichen Rush Hour Zeit eine ähnliche Fahrsituation begegnen wird. Wenn er dann das Fahrmanöver selbst durchführen muss, kann er dabei z.B. sicherer sein. Das Beispiel bezüglich Rechtsabbiegen ist rein illustrativ gewählt, es können verfahrensgemäß zu allen denkbaren Fahrmanövern Daten aufgezeichnet und an einen Nutzer zur Schulung übertragen werden (z.B. mittels eines Servers wie auch in 2 dargestellt).
  • Weitere Einzelheiten und Aspekte sind in Verbindung mit den vor- oder nachstehend beschriebenen Ausführungsbeispielen erwähnt. Das in 3 gezeigte Ausführungsbeispiel kann ein oder mehrere optionale zusätzliche Merkmale aufweisen, die einem oder mehreren Aspekten entsprechen, die in Verbindung mit dem vorgeschlagenen Konzept oder mit einem oder mehreren vorstehend (z.B. 1-2) oder nachstehend beschriebenen Ausführungsbeispielen erwähnt sind.
  • Beispiele beziehen sich auf ein Verfahren zur On-Board-Aufschaltung auf ein Fahrzeug (z.B. Fahrzeug 21 aus 2), welches eine Schulung eines Nutzers ermöglichen kann: eine App/Softwareprogramm kann entweder a) eine Liveschaltung auf ein gerade weltweit in einem für das Verfahren System angemeldetes Fahrzeug (z.B. in einem Fahrzeugpool registriert) anzeigen; oder b) eine Aufzeichnung eines bereits in der Vergangenheit erledigten Fahrmanövers als Alternative anbieten. Das Softwareprogramm/App kann Zugriff auf verschiedene Kameraansichten des Fahrzeugs erhalten (Front-/Heckkamera, Surroundview über Außenspiegelkameras). Gleichzeitig können die durch den Fahrer betätigten Signale aus dem Fahrzeug in die App übertragen werden: z.B. Blinker setzen, die Lenkradbewegung, Gas-/Kupplung-/Bremspedalbetätigung, Scheibenwischer betätigen, Lichtanschaltung, Hupe etc.). Die Software-App zeigt z.B. verschiedene Sichtweisen an, z.B. aus Sicht des Fahrers (um sich in die Fahrsituation hineinzuversetzen), aus Vogelperspektive (wenn Surroundview vorhanden), und/oder aus externer Sicht (z.B. wenn ein zweites Fahrzeug (z.B. weiteres Fahrzeug 22 oder 35b in 2 oder 3) in unmittelbarer Nähe des Fahrzeugs das Fahrmanöver über seine On-Board Sensorik aufnehmen und sein Bild direkt an das Fahrzeug oder eine entsprechende Infrastruktur streamen kann).
  • Verfahrensgemäß wird neben den auswahlbaren Fahrmanövern vorteilhaft auch der zeitliche Aspekt der Fahrsituation berücksichtigt: hohes Verkehrsaufkommen liegt oft bei Stoßzeiten wie Berufspendelfahrten vor oder z.B. dem Ende eines Großevents (z.B. Leeren eines Fußballstadions). Die Softwareanwendung/App kann z.B. verschiedene Fahrmanöver auf dem Server auch als Filmsequenzen nachträglich verfügbar machen, da bspw. ein Live-Aufschalten eines asiatischen Nutzers zu einer Morgenzeit in Peking eine Nachtfahrt in Kapstadt/Sudafrika bedingt; unter Umständen soll aber eine Rush-Hour Zeit in Kapstadt/Südafrika einstudiert werden, da der asiatische Nutzer auch zu eben dieser Rush Hour Zeit in einigen Tagen durch den Kapstadter Verkehr fahren möchte.
  • Auch Smart Wearables des Fahrers im entfernten Fahrzeug können die Fahrerreaktionen (Körperbewegungen: Lenkbewegung/Drehen zum Schulterblick) aufnehmen und diese können als weitere Parameter (z.B. weitere Fahrmanöverdaten) für Fahrerreaktionen in die Softwareanwendung/App übernommen werden.
  • Die Softwareanwendung/App kann zu verschiedenen Zeitpunkten auch wiederholbar sein - bereits absolvierte Fahrmanöver können beliebig oft wiederholt werden (so lässt sich z.B. die Fahrstrecke vom Flughafen in ein Hotel mehrfach vorab durchsimulieren, um die Strecke bei Fahrtantritt verinnerlicht zu haben - z.B. zu Hause, auf dem Weg zum Flughafen, im Flugzeug oder direkt vor Fahrtantritt)
  • Ein Aspekt des Verfahrens bezieht sich auf Videoübertragung der Fahrsituationen (live oder aufgezeichnet) von mindestens einer Aufnahmequelle (z.B. Stereokamera) auf mindestens ein stationäres oder mobiles Endgerät. Weiterhin kann eine Übertragung einer Vielzahl von Parametern und Stellsignalen, welche zur Fahrzeugführung und Beherrschung des Fahrzeugs im Straßenverkehr notwendig sind, erfolgen, z.B. -Lenkwinkel und -geschwindigkeit; -Kupplungsbetätigung; - Bremspedalbetätigung, Bremskraft, und -geschwindigkeit; -Gaspedalbetätigung, Gaspedalkraft, -geschwindigkeit; -Blinkerbetätigung; -Scheibenwischerbetätigung; -Lichtbetätigung (z.B. Lichthupe, Fernlicht, Nebellicht).
  • Ein Aspekt betrifft die Übertragung der Fahrerreaktion (z.B. ermittelt über Stereokamera (z.B. Innenraumkamera) oder Smart Wearables). Demnach können Smart Wearables des Fahrers im Fahrzeug die Reaktionen (Körperbewegungen: Lenkbewegung/Drehen zum Schulterblick) aufnehmen und diese können als weitere Parameter für Fahrerreaktionen in die Softwareanwendung/App übernommen werden (z.B. als Fahrmanöverdaten). Diese Fahrmanöverdaten betreffend die Fahrerreaktion können wiederum mittels Smart Wearables an den Nutzer ausgegeben werden, z.B. können Vibrationen an Handgelenk (Smart Watch des Nutzers) oder Füßen (Smart Shoes oder Smart Socks des Nutzers) jeweilige Bewegungen des Fahrers signalisieren.
  • Gemäß einem Aspekt ist es verfahrensgemäß möglich, die Bildübertragung aus dem Fahrzeugnetzwerk zu bündeln, z.B. in eine Vogelperspektive. Die Bildübertragung des On-Board Fahrzeugs (z.B. ausgewähltes Egofahrzeug, z.B. Fahrzeug 34 aus 3) kann z.B. unter Verwendung von Kamerabildern der umgebenden Fahrzeuge (z.B. weitere Fahrzeuge 35a, 35b, 35c aus 3) und/oder stationärer Überwachung zu einer dreidimensionalen Bildwolke fusioniert werden. So kann beispielweise angefangen von den Größenverhältnissen Straßen, Gehwege, parkende/fahrende Fahrzeuge, Personenverkehr eine realistische Gesamtverkehrssituation erfasst werden und an einen zentralen Server gesendet werden.
  • Diese Daten können einerseits z.B. mittels VR-Brille in 3D erlebbar gemacht werden. Andererseits kann die Verkehrssituation in 2D über eine Vogelperspektive z.B. durch eine über einer Person fliegenden Drohne auf einen Untergrund projiziert werden, so dass die Person ein realistisches Bild des eigenen (beobachteten) fahrenden Fahrzeugs und der umliegenden geparkten und bewegten Hindernisse erhält. Dabei kann beispielsweise die Person auf der Stelle stehen bleiben, während sich das 2D-Bild am Boden entsprechend bewegt (z.B. fließender Verkehr zieht durch das Bild bzw. die Umgebung bewegt sich aufgrund des fahrenden Egofahrzeugs)
  • Durch das vorgeschlagene Verfahren können die Fahrerreaktionen einer Person im Egofahrzeug (z.B. vom Nutzer entferntes Fahrzeug) für eine örtlich getrennte zweite Person (d.h. den Nutzer des Verfahrens zur Schulung von Fahrmanövern) z.B. haptisch erlebbar und nachvollziehbar gemacht werden. Smart Wearables am Körper des Nutzers können durch Vibration beispielsweise die Bewegung der Gliedmaße der ersten Person, z.B. des Fahrers des Fahrzeugs, das sich in der Fahrsituation befindet und das Fahrmanöver ausführt, simulieren: So lässt sich die Betätigung von Kupplung, Bremse, Gaspedal, etc. durch Vibration in dem linken oder rechten Smart Shoe/Smart Socks (z.B. Smart Wearables) in Dauer und Intensität stellvertretend für die Betätigungsdauer und -kraft simulieren. Eine Smart Watch kann den Nutzer anweisen beispielsweise eine Lenkbewegung von Anfang bis Ende durchzuführen, indem sie solange vibriert bis der Lenkwinkel korrekt eingeschlagen wurde.
  • Des Weiteren lassen sich Körperbewegungen z.B. der Beine, des Oberkörpers, der Arme besonders intensiv durch Verwendung eines Exoskeletts nachempfinden, z.B. der korrekte Schulterblick. Gerade Exoskelette setzen sich zunehmend mehr durch, um z.B. die Ergonomie am Arbeitsplatz zu erhöhen (z.B. in Werkstätten). Ebenso ist es möglich, dass diese auch im privaten Bereich verfügbar sind und vorteilhafterweise zur Verwendung im vorgeschlagenen Verfahren zur Verfügung stehen können. Mit derartigen Maßnahmen wird der Nutzer nicht nur durch die Beobachtung von Videos, sondern auch durch die Ausführung von Betätigungselementen in Fahrsituationen angelernt oder geschult, welche durch weitere haptische und/oder akustische Hilfsmittel der Smart Wearables/Exoskelette das Fahrgefühl steigern.
  • Geeignete Verfahren zur Bildfusionierung sind beispielsweise unter anderem in der Druckschrift WO 2016/12044 A1 beschrieben. Dort wird ein Verfahren zur Messung mindestens zweier Punkte im Raum mittels den on-board Fahrerassistenzsystemen eines Fahrzeugs vorgeschlagen, um eine Punktewolke von mindestens einem Objekt bzw. Innenräumen zu erhalten. Die Bildfusionierung kann z.B. auf alle am Verkehr teilnehmen Fahrzeuge angewendet werden, um so die Punktewolken aus Straßensichtperspektive zu erhalten, welche anhand von Referenzmarkierungen im Raum zu einem regionalen Datensatz zusammengefügt werden können. Sind die Referenzmarkierungen im Raum bekannt und für die stationäre Kameraüberwachung einsehbar, so lässt sich dies über die stationäre Kameraüberwachung mit ihren bekannten Koordinaten im Raum ebenfalls zu der Punktewolke aus Straßensichtperspektive synchronisieren. Bildfusionierung kann eine besonders realistische Wiedergabe des Fahrmanövers für den Nutzer ermöglichen.
  • Das vorgeschlagene Verfahren kann strengen Datenschutzrichtlinien genügen. Bei der Bildgenerierung können z.B. Kennzeichen, Personen etc. unkenntlich gemacht werden. Sofern die Kamerabilder die Umgebung aufnehmen und Remote an verschiedene Nutzer weiterleiten, wäre der Fahrer nicht einsehbar, es wären nur Rückschlüsse auf seinen Fahrstil und sein Fahrverhalten möglich, z.B. anonymisiert. Bei der Verwendung von Innenraumkameras oder Bildem von Insassen kann besonderer Datenschutz berücksichtigt werden, z.B. wie auch beim Einsatz von Innenraumkameras für Gesichtserkennung/Emotionserkennung/Müdigkeitswarnung. Die Bewegungen des Fahrers können z.B. durch Bildanalysesoftware extrahiert und über eine neutrale Animation dargestellt werden, ohne dass der konkrete Fahrer erkennbar ist. Bezüglich der Datenübermittelung kann eine verschlüsselte Datenverbindung verwendet werden.
  • Es werden in dieser Offenbarung Konzepte sowohl zur Live-Aufschaltung auf Fremdfahrzeuge und Online-Mitfahrt als auch Darstellung von Datenaufzeichnungen zur Personenschulung von Fahrsituationen und Fahrmanövern vorgeschlagen. Dadurch kann ein Nutzer vor Antritt einer eigenen Fahrt bestimmte Fahrmanöver, die er in ausgewählten Situationen erwartet, genau analysieren und studieren, sodass der Nutzer beim nachfolgenden tatsächlichen Durchführen desselben Fahrmanövers sicherer agieren kann. Das Verfahren kann eine individuelle Schulung des Nutzers in verschiedenen Fahrmanövern ermöglichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2016/12044 A1 [0050]

Claims (10)

  1. Verfahren (10) zur Schulung eines Nutzers zum Erlernen eines Fahrmanövers (26, 36) in einer vorbestimmten Fahrsituation (20, 30), das Verfahren (10) umfassend: - Auswählen (11) der vorbestimmten Fahrsituation (20, 30) durch den Nutzer; - Bereitstellen (12) von zu dem Fahrmanöver korrespondierenden Fahrmanöverdaten (25a, 25b, 25c), die im Zusammenhang mit einem vom Nutzer entfernten Fahrzeug (21, 34) in der vorbestimmten Fahrsituation (20, 30) erfasst sind; und - Ausgeben (13) einer Darstellung des Fahrmanövers (36) basierend auf den Fahrmanöverdaten (25a, 25b, 25c) für den Nutzer, sodass der Nutzer das Fahrmanöver (36) in der ausgewählten, vorbestimmten Fahrsituation (20, 30) mitverfolgen kann.
  2. Verfahren (10) gemäß Anspruch 1, wobei die Fahrmanöverdaten (25c) Videodaten (25c) des Fahrzeugs (21) umfassen und die Ausgabe der Darstellung des Fahrmanövers (26, 36) eine Videoausgabe des Fahrmanövers (26, 36) umfasst, die sich der Nutzer ansehen kann.
  3. Verfahren (10) gemäß Anspruch 2, wobei die Videodaten (25c) von einer Mehrzahl unterschiedlicher Fahrzeugkameras (21a, 21b, 21c) und/oder externer stationärer Umfeldkameras aufgezeichnet sind und mittels Bildfusionierung zu einem Gesamtvideo des Fahrmanövers (26, 36) zusammengefügt sind, welche die Sichtweise aus Fahrerperspektive, Vogelperspektive oder 3D-Video ausgeben können.
  4. Verfahren (10) gemäß Anspruch 2 oder 3, wobei die Videodaten (25c) von einer Mehrzahl unterschiedlicher Fahrzeugkameras (21a, 21b, 21c) aufgezeichnet sind, wobei das Verfahren (10) ferner umfasst: - Bereitstellen einer Auswahl von Videos des Fahrmanövers (26, 36) aus verschiedenen Aufnahmeperspektiven der Mehrzahl unterschiedlicher Fahrzeugkameras (21a, 21b, 21c) für den Nutzer, sodass der Nutzer eine für ihn individuell geeignete Aufnahmeperspektive zum Mitverfolgen des Fahrmanövers (26, 36) auswählen kann.
  5. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, wobei die Fahrmanöverdaten (25a, 25b, 25c) Betätigungssignale von Bedienelementen des Fahrzeugs (21, 34) umfassen und bei der Darstellung des Fahrmanövers (26, 36) angezeigt wird, in welchen Momenten des Fahrmanövers (26, 36) welche Bedienelemente des Fahrzeugs (21, 34) betätigt werden.
  6. Verfahren (10) gemäß Anspruch 5, wobei die Betätigungssignale in einem Fahrzeugsimulator für den Nutzer dargestellt werden, in dem das jeweilige Bedienelement des Fahrzeugsimulators synchronisiert mit einer korrespondierenden Videoanzeige (25c) des Fahrmanövers (26, 36) aktiviert wird.
  7. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, wobei die Fahrmanöverdaten (25a, 25b, 25c) Informationen zu Reaktionen eines Fahrers des Fahrzeugs (21, 34) umfassen, die von Smart-Wearables des Fahrers aufgezeichnet sind.
  8. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, wobei die Fahrmanöverdaten (25a, 25b, 25c) Informationen zu Reaktionen des Fahrers umfassen und das Ausgeben der Darstellung des Fahrmanövers (26, 36) umfasst, die Reaktionen des Fahrers mittels Smart-Wearables des Nutzers und/oder mittels eines Exoskeletts an den Nutzer auszugeben.
  9. Verfahren (10) gemäß einem der vorhergehenden Ansprüche, wobei die vom entfernten Fahrzeug (21, 34) erfassten Fahrmanöverdaten (25a, 25b, 25c) in Echtzeit bereitgestellt und an den Nutzer ausgegeben werden.
  10. Ein Computerprogramm mit einem Programmcode, um das Verfahren (10) gemäß einem der vorhergehenden Ansprüche auszuführen, wenn das Computerprogramm auf einem Prozessor, einem Computer, oder einer programmierbaren Hardware ausgeführt wird.
DE102022110020.0A 2022-04-26 2022-04-26 Verfahren zur schulung eines nutzers zum erlernen eines fahrmanövers und computerprogramm Pending DE102022110020A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022110020.0A DE102022110020A1 (de) 2022-04-26 2022-04-26 Verfahren zur schulung eines nutzers zum erlernen eines fahrmanövers und computerprogramm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022110020.0A DE102022110020A1 (de) 2022-04-26 2022-04-26 Verfahren zur schulung eines nutzers zum erlernen eines fahrmanövers und computerprogramm

Publications (1)

Publication Number Publication Date
DE102022110020A1 true DE102022110020A1 (de) 2023-10-26

Family

ID=88238624

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022110020.0A Pending DE102022110020A1 (de) 2022-04-26 2022-04-26 Verfahren zur schulung eines nutzers zum erlernen eines fahrmanövers und computerprogramm

Country Status (1)

Country Link
DE (1) DE102022110020A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009058491A1 (de) 2009-12-16 2011-06-22 Audi Ag, 85057 Verfahren zur Präsentation und/oder Simulation wenigstens einer Funktionalität wenigstens eines Fahrerassistenzsystems für ein Kraftfahrzeug gegenüber einem Kunden und zugehörige Einspeisevorrichtung
WO2016012044A1 (en) 2014-07-24 2016-01-28 Deutsche Telekom Ag Method and system for augmenting television watching experience
US20180277011A1 (en) 2011-10-31 2018-09-27 Lifelong Driver Llc Driver training
DE102018008112A1 (de) 2018-10-11 2020-04-16 Dietmar Gude Verfahren und Vorrichtung zur Unterstützung der Beobachtung und Nachahmung von Verhalten
DE102020212564A1 (de) 2020-10-06 2022-04-07 Volkswagen Aktiengesellschaft Kraftfahrzeug mit einem Fahrsimulator und Fahrsimulator

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009058491A1 (de) 2009-12-16 2011-06-22 Audi Ag, 85057 Verfahren zur Präsentation und/oder Simulation wenigstens einer Funktionalität wenigstens eines Fahrerassistenzsystems für ein Kraftfahrzeug gegenüber einem Kunden und zugehörige Einspeisevorrichtung
US20180277011A1 (en) 2011-10-31 2018-09-27 Lifelong Driver Llc Driver training
WO2016012044A1 (en) 2014-07-24 2016-01-28 Deutsche Telekom Ag Method and system for augmenting television watching experience
DE102018008112A1 (de) 2018-10-11 2020-04-16 Dietmar Gude Verfahren und Vorrichtung zur Unterstützung der Beobachtung und Nachahmung von Verhalten
DE102020212564A1 (de) 2020-10-06 2022-04-07 Volkswagen Aktiengesellschaft Kraftfahrzeug mit einem Fahrsimulator und Fahrsimulator

Similar Documents

Publication Publication Date Title
DE102018108200B4 (de) Systeme und Verfahren zur Verringerung von Aufmerksamkeitsverminderung während die Bereitschaft beibehalten wird mittels Augmented Reality in einem Fahrzeug
EP3454013B1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-display-vorrichtung für ein kraftfahrzeug
DE102012222053B4 (de) Verfahren zum Anzeigen eines Geisterbilds an einer transparenten Frontscheiben-Head-Up-Anzeige in einem Quellenfahrzeug
CN105788401B (zh) 基于实车体的防御性驾驶模拟体验训练系统
DE102017200149A1 (de) Verfahren und Vorrichtung zum Erlernen und Überprüfen eines Fahrverhaltens eines Fahrzeugführers sowie Fahrzeug mit einer solchen Vorrichtung
EP2762988A1 (de) Bedarfsweise aktivierbares Fernsteuerungssystem für Kraftfahrzeuge
DE102013201169B4 (de) Fernüberwachungs- und/oder Fernsteuerungssystem für Kraftfahrzeuge
DE102014208973A1 (de) Vorrichtung für ein Fahrerassistenzsystem, Verfahren und Computerprogramm
CN109658519B (zh) 基于现实路况信息图像处理的车载多模式增强现实系统
EP3318441A1 (de) Vorrichtung zur unterstützung eines fahrers eines fahrzeugs mit einer projektionseinrichtung
DE102020128224A1 (de) Anzeigesystem
WO2019084583A1 (de) Vorrichtung zur projektion von virtuellen informationen auf eine fahrbahn
DE102022003079A1 (de) Verfahren zu einer automatisierten Generierung von Daten für rasterkartenbasierte Prädiktionsansätze
DE10309934A1 (de) Fahrsimulator und Verfahren zum Simulieren des Fahrzeugstands eines Fahrzeuges
DE102017122543A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem
DE102014208352A1 (de) System und Verfahren zum Instruieren eines Teilnehmers eines Fahrertrainings
DE102006050549A1 (de) Verfahren zur Unterstützung des Fahrers eines Kraftfahrzeugs
DE102022110020A1 (de) Verfahren zur schulung eines nutzers zum erlernen eines fahrmanövers und computerprogramm
DE102010043310A1 (de) Verfahren und Vorrichtung zum zeitsynchronen Anzeigen einer aktuellen Position bezüglich einer virtuellen Fahrt eines virtuellen Referenzfahrzeugs und einer aktuellen Position bezüglich einer realen Fahrt eines realen Fahrzeugs
JP2003263099A (ja) 運転シミュレータを使用した運転教習システム
WO2019048623A1 (de) Assistenzsystem für ein fahrzeug
DE102019116711A1 (de) Verfahren, Vorrichtung und Fortbewegungsmittel zur Kinetosevermeidung während einer Verwendung einer Datenbrille im Fortbewegungsmittel
Jian-you et al. Driving Behavior Theory and Computer Simulation System of Driver's Risk Perception Based on 3D
WO2022101076A1 (de) Trainiertes parken eines fahrzeugs unter vorgabe eines zielparkbereichs
DE102021208738A1 (de) Computerimplementiertes Verfahren und Computerprogramm zur Generierung von virtuellen Fahrstrecken und Entwicklung und/oder Validierung von Funktionalitäten eines automatisierten Fahrsystems auf den generierten Fahrstrecken

Legal Events

Date Code Title Description
R163 Identified publications notified