-
Technisches Gebiet
-
Das technische Gebiet betrifft allgemein Systeme und Methoden für ein Spielesystem, welches zur Unterhaltung während der Fahrt in einem Fahrzeug dient, und insbesondere ein Spielesystem mit erweiterter Realität (so genannter ”Augmented Reality”), wobei das Fahrzeug eine aktive Rolle in dem Spiel spielt.
-
Hintergrund
-
Es ist heutzutage üblich, an Bord von Fahrzeugen elektrische Steuer-, Kommunikations- und Sicherheitssysteme zu verbauen. Beispielsweise umfassen neuerdings viele Fahrzeuge Navigationssysteme, welche drahtlose globale Positioniersystem-(GPS)Technologie verwenden, welche eine Fahrzeugstandortinformation bereitstellen kann, um bei der Planung und Routenführung von Fahrstrecken behilflich zu sein. Ebenso sind bildgebende Systeme bekannt, welche Echtzeit-Ansichten bereitstellen, während Radar-, Sonar- und Laser-basierte Systeme bekannt sind, welche eine nach vorne, nach hinten und zur Seite gerichtete Hindernis-Erkennung bzw. -Detektion bereitstellen können. Es werden Fahrzeug-zu-Fahrzeug- und Straßendienst-zu-Fahrzeug-Kommunikationssysteme entwickelt, und zwar mit Adhoc-Drahtlos-Netzwerkverhalten, was eine Basis für dezentralisierte Sensor-Datenaustausch- und erweiterte Warn-Systeme bereitstellt, welche bei der Reduzierung bzw. Vermeidung von Kollisionen nützlich sind. Während solche Systeme dem Fahrzeugnutzer wertvolle Information hinsichtlich des sicheren Betriebes des Fahrzeuges bereitstellen, wurde diese Information bisher nicht zur Verwendung für Passagiere des Fahrzeuges nutzbar gemacht, welche im Allgemeinen einfach dasitzend mitfahren oder sich selber unterhalten müssen, bis das Fahrzeug am beabsichtigten Ziel ankommt.
-
Virtuelle Realität ist eine Technologie, welche allgemein in Spielesystemen verwendet wird, um Unterhaltung bereitzustellen, und zwar dadurch, dass Personen verschiedene Situationen erleben können, welche sie aufgrund räumlicher und physischer Einschränkungen niemals im realen Leben erfahren bzw. erleben würden, und zwar durch Erzeugen einer Computer-basierten künstlichen Umgebung. Im Gegensatz dazu ist die sogenannte „Augmented Reality” (erweiterte Realität) ein System, welches sich mit der Kombination von Real-Welt-Bildern und Virtuelle-Welt-Bildern beschäftigt, wie zum Beispiel Computergraphikbilder. Mit anderen Worten, Augmented Reality-Systeme kombinieren eine reale Umgebung mit virtuellen Objekten, wodurch sie in effektiver Weise mit Nutzern in Echtzeit interagieren. Passagiere könnten durch Verwenden von Echtzeit-, Realwelt-, Fahrzeug-Information in einem Augmented Reality-System sowohl für Unterhaltungs- als auch für Lernzwecke profitieren.
-
Dementsprechend ist es wünschenswert, ein „Augmented Reality Game”-System, bzw. Spielesystem mit erweiterter Realität, zur Verwendung in einem Fahrzeug bereitzustellen. Ebenso ist es wünschenswert, ein Augmented Reality Game-System unter Verwendung des Fahrzeuges in einer aktiven Rolle der Augmented Reality für Lern- und Unterhaltungs-Zwecke für die Fahrzeugpassagiere bereitzustellen. Zusätzlich werden weitere wünschenswerte Merkmale und Eigenschaften der vorliegenden Erfindung aus der nachfolgenden Beschreibung in Verbindung mit den begleitenden Zeichnungen und dem vorangegangenen technischen Gebiet und Hintergrund ersichtlich.
-
Zusammenfassung
-
Gemäß einer beispielhaften Ausführungsform wird ein Augmented Virtual Reality-Spiel für ein Fahrzeug bereitgestellt. Ein Verfahren zur Bereitstellung des Augmented Reality-Spieles umfasst ein Empfangen eines Echtzeit-Videobildes während eines Betriebes eines Fahrzeuges von einer auf dem Fahrzeug befestigten Kamera und Zusammenführen des Echtzeit-Videobildes mit einem oder mehreren virtuellen Bildern, um ein Augmented-Reality-Bild bereitzustellen. Das Augmented-Reality-Bild wird dann auf eine Anzeige bzw. Display einer Spielevorrichtung bzw. Spielekonsole während des Betriebes des Fahrzeuges übertragen.
-
Gemäß einer beispielhaften Ausführungsform wird ein Augmented Virtual Reality-Spiel für ein Fahrzeug bereitgestellt. Ein Verfahren zur Bereitstellung des Augmented Reality-Spieles umfasst eine Kamera, welche ein Echtzeit-Videobild bereitstellt, sowie eine mit der Kamera gekoppelte Steuerung. Zusätzlich stellt eine Datenbank der Steuerung eines oder mehrere virtuelle Bilder bereit, so dass die Steuerung ein Augmented-Reality-Bild durch Zusammenführen des Echtzeit-Videobildes mit einem oder mehreren virtuellen Bildern bereitstellen kann. Schließlich ist ein Transmitter bzw. Sende/Empfangseinheit zum Übermitteln des Augmented-Reality-Bildes auf eine Anzeige bzw. Display einer Spielevorrichtung während des Betriebes des Fahrzeuges mit umfasst.
-
Beschreibung der Zeichnungen
-
Der erfindungsgemäße Gegenstand wird hiernach in Verbindung mit den folgenden Zeichnungsfiguren beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bedeuten, und:
-
1 die Betriebsumgebung eines Hauptfahrzeuges zeigt, welches das Augmented-Reality-Spielesystem gemäß beispielhafter Ausführungsformen verwendet;
-
2 ein alternatives Hauptfahrzeug gemäß beispielhafter Ausführungsformen darstellt;
-
3 ein funktionelles Blockdiagramm eines Augmented-Reality-Spielesystems gemäß beispielhafter Ausführungsform ist;
-
4 eine Darstellung einer mobilen Computereinrichtung ist, welche für eine Verwendung mit dem Augmented-Reality-Spielesystem nach beispielhaften Ausführungsformen geeignet ist; und
-
5 ein Flussdiagramm eines Verfahrens zur Bereitstellung eines Augmented-Reality-Spielesystems nach beispielhaften Ausführungsformen ist.
-
Detaillierte Beschreibung
-
Die folgende detaillierte Beschreibung hat lediglich darstellenden Charakter und soll die Ausführungsformen des Gegenstandes oder die Anwendung und Verwendungen solcher Ausführungsformen nicht beschränken. Wie hierin verwendet, hat das Wort „beispielhaft” die Bedeutung „als ein Beispiel, Umstand oder Darstellung dienend”. Jede hierin als beispielhaft beschriebene Umsetzung ist nicht notwendigerweise als bevorzugt oder vorteilhaft gegenüber anderen Umsetzungen gedacht. Weiterhin soll es keine Beschränkung durch irgendeine ausdrücklich oder implizit in dem vorangegangenen technischen Gebiet, Hintergrund, kurzen Zusammenfassung oder der folgenden detaillierten Beschreibung dargestellten Theorie geben.
-
Techniken und Technologien können hierin hinsichtlich funktionaler und/oder logischer Blockkomponenten beschrieben werden, und mit Bezug auf symbolische Darstellungen von Betriebsvorgängen, Bearbeitungsschritten und Funktionen, welche durch verschiedene Computerkomponenten oder -Einrichtungen ausgeführt werden können. Solche Betriebsvorgänge, Aufgaben und Funktionen werden manchmal als Computer-ausgeführt, computerisiert, Software-implementiert oder Computer-implementiert bezeichnet. In der Praxis können eine oder mehrere Prozessor-Einrichtungen die beschriebenen Betriebsvorgänge, Aufgaben, und Funktionen durch Manipulieren elektrischer Signale ausführen, welche Datenbits an Speicherorten in dem Systemspeicher darstellen, als auch durch eine andere Bearbeitung der Signale. Die Speicherorte, wo Datenbits abgelegt sind, sind physische Orte, welche bestimmte elektrische, magnetische, optische oder organische Eigenschaften entsprechend der Art der Datenbits aufweisen. Es wird bevorzugt, dass die verschiedenen in den Figuren gezeigten Blockkomponenten durch eine beliebige Anzahl von Hardware-, Software- und/oder Firmware-Komponenten ausgebildet sein können, welche dazu eingerichtet sind, die spezifizierten Funktionen auszuführen. Beispielsweise kann eine Ausführungsform eines Systems oder einer Komponente verschiedene integrierte Schaltkreiskomponenten verwenden, zum Beispiel Speicherelemente, digitale Signalbearbeitungselemente, Logikelemente, Look-Up-Tabellen oder dergleichen, welche eine Vielzahl von Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuereinrichtungen ausführen können.
-
Die folgende Beschreibung bezieht sich auf Elemente oder Knoten oder Merkmale, welche miteinander „verbunden” bzw. „gekoppelt” sind. Wie hierin verwendet, es sei denn, es wird ausdrücklich auf sonstige Weise darauf hingewiesen, bedeutet „verbunden”, dass eine Element/Knoten/Merkmal direkt mit einem anderen Element/Knoten/Merkmal verbunden ist (oder in direkter Kommunikation steht), und zwar nicht notwendigerweise in mechanischer Hinsicht. Ebenso bedeutet, es sei denn, dass ausdrücklich auf sonstige Weise darauf hingewiesen wird, „gekoppelt”, dass ein Element/Knoten/Merkmal direkt oder indirekt mit einem anderen Element/Knoten/Merkmal verbunden ist (oder direkt oder indirekt damit in Kommunikation steht), und zwar nicht notwendigerweise in mechanischer Hinsicht. Somit können, obwohl die Zeichnungen eine beispielhafte Ausführungsform von Elementen darstellen, zusätzliche wechselwirkende Elemente, Einrichtungen, Merkmale oder Komponenten in einer Ausführungsform des dargestellten Gegenstandes vorhanden sein.
-
Zusätzlich kann ebenso eine bestimmte Terminologie in der folgenden Beschreibung lediglich zum Zwecke der Bezugnahme verwendet werden, wobei diese Terminologie nicht beschränkend sein soll. Beispielsweise beziehen sich Ausdrücke wie „oberer”, „unterer”, „oben”, und „unten” auf Richtungen in den Zeichnungen, auf welche Bezug genommen wird. Ausdrücke, wie zum Beispiel „vorne”, „hinten”, „rückwärtig”, „seitlich”, „außen” und „innen”, beschreiben die Ausrichtung und/oder den Ort von Abschnitten der Komponente innerhalb eines konsistenten, jedoch beliebigen Bezugsrahmens, welcher durch den Textzusammenhang und den entsprechenden Zeichnungen, welche die in Frage stehende Komponente beschreiben, deutlich gemacht wird. Eine solche Terminologie kann die insbesondere oben erwähnten Worte beinhalten, Abstammungen davon und sinngemäße Wörter. Ebenso implizieren die Ausdrücke „erster”, „zweiter” und weitere solcher numerischen Ausdrücke, welche sich auf Strukturen beziehen, keine Sequenz oder Reihenfolge, es sei denn, es wird eindeutig durch den Zusammenhang darauf hingewiesen.
-
Aus Gründen der Kürze sollen herkömmliche Techniken, welche sich auf drahtlose Datenübertragung, Radar und andere Detektionssysteme, GPS-Systeme, Vektoranalyse, Verkehrsführung und weitere funktionale Aspekte der Systeme (und der individuellen Betriebskomponenten der Systeme) hierin nicht im Detail beschrieben werden. Weiterhin sollen die Verbindungslinien, welche in den hierin enthaltenen verschiedenen Figuren gezeigt sind, beispielhafte funktionale Beziehungen und/oder physische Kopplungen zwischen den verschiedenen Elementen darstellen. Es wird darauf hingewiesen, dass viele alternative oder zusätzliche funktionale Beziehungen oder physische Verbindungen in einer Ausführungsform des Gegenstandes vorhanden sein können.
-
1 ist eine schematische Darstellung einer beispielhaften Betriebsumgebung für eine Ausführungsform eines Augmented-Reality-Spielesystems, wie es hierin beschrieben ist. In beispielhaften Ausführungsformen umfasst das Augmented-Reality-Spielesystem ein Hauptfahrzeug 10, welches entlang einer Straße 12 fährt. Aus Gründen der Einfachheit und Übersichtlichkeit wird das System hier mit Bezug auf ein Hauptfahrzeug 10 und eine Mehrzahl von benachbarten Fahrzeugen 22, 24, 26, 28 und 30 beschrieben, welche sich in der Nähe des Hauptfahrzeuges 10 befinden. Zum Sammeln von Realwelt-Bildern und -Daten für das Augmented Reality-Spiel umfasst das Hauptfahrzeug 10 ein an Bord befindliches Fahrzeug-zu-Fahrzeug-Positionserkennungssystem, wobei benachbarte Fahrzeuge 22, 24, 26, 28 und 30 kompatible Positionserkennungssysteme haben können, jedoch nicht müssen. Zusätzlich haben einige der benachbarten Fahrzeuge 22, 24, 26, 28 und 30 die Fähigkeit für eine Kommunikation mit dem Hauptfahrzeug 10, welche als Fahrzeug-zu-Fahrzeug(V2V)-Benachrichtigung bzw. -Kommunikation bekannt ist. Das Hauptfahrzeug 10 und die entsprechenden benachbarten Fahrzeuge, welche die Fähigkeit zur Kommunikation untereinander haben, senden periodisch auf drahtlose Weise Nachrichten einander zu, und zwar über ein entsprechendes zwischen den Fahrzeugen bestehendes Kommunikationsnetzwerk, wie zum Beispiel, jedoch nicht darauf beschränkt, ein dediziertes Kurzbereichs-Kommunikationsprotokoll (DSRC), wie es im Stand der Technik bekannt ist. Auf diese Weise kann das Hauptfahrzeug 10 zusätzliche Daten zur Erzeugung virtueller Bilder erhalten, um die Realität der Echtzeit-Bilder des Augmented Reality-Spieles der vorliegenden Offenbarung zu erweitern.
-
Weiterhin mit Bezug auf 1 ist das Hauptfahrzeug 10 ebenso mit Sicht- und Objekterkennungs-Sensier-Einrichtungen ausgestattet. Objekterkennungs-Sensier-Einrichtungen umfassen, jedoch nicht in beschränkender Weise, Radar-basierte Erkennungseinrichtungen, Sicht-basierte Erkennungseinrichtungen und Licht-basierte Erkennungseinrichtungen. Beispiele solcher Einrichtungen können Radar-Detektoren umfassen (zum Beispiel mit langer Reichweite und mit kurzer Reichweite), Kameras und Laser-Einrichtungen (zum Beispiel Licht-Erkennung und Abstands-Messung (LIDAR) oder Laser-Erkennung und Abstandsmessung (LADAR)). Jedes entsprechende Sensier-System detektiert bzw. nimmt ein Bild in dem entsprechenden Gesichtsfeld des Sensors auf. Das Gesichtsfeld hängt von der Richtung ab, in welche die Objekterkennungs-Sensoren gerichtet sind. In diesem Beispiel werden benachbarte Fahrzeuge 22 und 24 durch eine nach vorne gerichtete Kamera detektiert, wobei sich die Objekterkennungssensoren des Hauptfahrzeuges 10 in einem Gesichtsfeld 25 für einen sensierten Bereich vor dem Hauptfahrzeug 10 befinden. In dem dargestellten Beispiel umfasst das benachbarte Fahrzeug 30 ebenso Sicht- und Objekt-Erkennungs-Sensier-Einrichtungen. Daher kann das benachbarte Fahrzeug 30 das benachbarte Fahrzeug 28 unter Verwendung seiner Objekterkennungssensoren detektieren und Bild- und Positions-Information des benachbarten Fahrzeuges 28 übermitteln (V2V), welche sich nicht im Gesichtsfeld 25 des Hauptfahrzeuges 10 befindet. Als ein Ergebnis kann ein zusammenführen der Bild- und Objekt-Daten, welche vom benachbarten Fahrzeug 30 detektiert wurden, dem Hauptfahrzeug 10 gestatten, ein ”stabileres” Augmented-Reality-Bild zu bilden, welches das Hauptfahrzeug 10 umgibt. Jedoch werden in der grundsätzlichen Ausführungsform des Augmented-Reality-Spielesystems der vorliegenden Offenbarung lediglich ein nach vorne gerichtetes Kamerabild und einige die virtuelle Realität erweiternde Elemente zum Ausführen eines entsprechenden Spieles von Interesse für die Passagiere benötigt. In einer Ausführungsform umfasst ein Spiel ein lehrhaftes Fahrübungsspiel, wo ein Passagier ein virtuelles Fahrzeug bedient, welches dem Hauptfahrzeug im Verkehr folgt. Spielpunkte können zu einem Spielpunktestand addiert oder von einem Spielpunktestand subtrahiert werden, und zwar abhängig von den Fahrgewohnheiten, welche der spielende Passagier erkennen lässt. Beispielsweise gibt es Punkte für das vorschriftsmäßige Abstandhalten zu einem Fahrzeug, Einhalten der Fahrgeschwindigkeit und vorschriftsmäßigen Spurwechsel, während zu schnelles Fahren, ein Nicht-Anzeigen von Fahrmanövern im Verkehr zu einem Punktabzug führen würden. Alternativ können verschiedene Icons ein sicheres, riskantes oder gefährliches Fahrverhalten dem spielenden Passagier anzeigen. Ein Bereitstellen eines Augmented Reality-Fahrerlebnisses auf Grundlage des Echtzeit-Hauptfahrzeugbetriebes stellt dem spielenden Passagier ein Lebens-nahes Fahrerlebnis zum Zwecke des Lernens und der Unterhaltung bereit. Überdies ist, da der Nutzer (Fahrer) des Hauptfahrzeuges weiß, dass das Augmented Reality-Fahrspiel im Gange ist, der Fahrer motiviert, vorsichtig zu fahren, um für den spielenden Passagier ein Vorbild zu sein.
-
Nunmehr mit Bezug auf 2 ist eine Draufsicht auf eine alternative Ausführungsform des Hauptfahrzeuges 10' dargestellt, wobei eine beispielhafte Sensorerkennungszone 32 für das Hauptfahrzeug 10' gezeigt ist. Zur Darstellung ist die Erkennungszone 32 in vier Unterzonen unterteilt, und zwar entsprechend einer vorderen Sensorzone 32a, einer hinteren Sensorzone 32b, einer Fahrerseiten-Sensorzone 32c und einer Passagierseiten-Sensorzone 32d. Diese Anordnung entspricht Ausführungsformen mit vier Sensoren für das Detektions- und Abstandsmessungssystem, obwohl eine Ausführungsform des Hauptfahrzeuges 10' mehr oder weniger als vier Sensoren umfassen kann. Es wird bevorzugt, dass im Betrieb jede dieser Sensorzonen einem dreidimensionalen Raum entspricht, welcher keine bestimmte Form oder Größe aufweisen muss, wie es in 2 dargestellt ist, wobei diese Sensorzonen einander überlappen können. Überdies kann die spezifische Größe, Gestalt und Reichweite jeder Sensorzone (welche in der Praxis einstellbar ist) derart ausgewählt werden, um sie den Anforderungen der besonderen Anwendung anzupassen und sicherzustellen, dass das Hauptfahrzeug 10' in der Lage sein wird, alle in Frage kommenden benachbarten Fahrzeuge zu detektieren.
-
Nunmehr mit Bezug auf 3 wird ein Funktionsblockdiagramm des Augmented-Reality-Spielesystems zur Verwendung in einem Hauptfahrzeug 10 dargestellt, welches eine Mehrzahl an Sensier-Systemen 34 zum Bereitstellen einer Vielzahl von auf die Umgebungen des Fahrzeugs bezogenen Daten umfasst. Signale und Daten von den Sensier-Systemen werden einer computerbasierten Steuereinheit 36 bereitgestellt. Die Steuereinheit 36 kann einzelne oder mehrfache Steuerungen umfassen, welche unabhängig voneinander oder zusammen oder als ein Netzwerk arbeiten, und umfassen solche gemeinsamen Elemente, wie zum Beispiel einen Mikroprozessor, einen Read-Only-Speicher ROM, einen Random-Access-Speicher RAM, einen elektrisch programmierbaren Read-Only-Speicher EPROM, einen Hochgeschwindigkeitszeitnehmer, Analog-zu-Digital (A/D) und Digital-zu-Analog(D/A)-Schaltkreise sowie Eingangs-/Ausgangs-Schaltkreise und -Einrichtungen (I/O) und geeignete Signalbearbeitungs- und Puffer-Schaltkreise. Ebenso kann die Steuereinheit 36 einer Fahrzeug-Dynamikdaten-Bearbeitungseinheit zugeordnet sein, einschließlich beispielsweise Echtzeitdaten hinsichtlich einer Fahrzeuggeschwindigkeit, Beschleunigung/Verzögerung, Gier-Rate, Lenkradposition, Bremspedal- und Drosselklappenposition und die Getriebestellung des Fahrzeuges. Schließlich sind in der Steuereinheit 36 in der Form von einem computerausführbaren Programmcode, Algorithmen zum Ausführen von Schritten, Vorgänge und Verfahren bezogen auf das Augmented-Reality-Spielesystem der beispielhaften Ausführungsformen der vorliegenden Offenbarung gespeichert.
-
In Fortführung der Beschreibung der verschiedenen Systeme des Hauptfahrzeuges 10 umfasst ein erstes und grundlegendes Sensier-System ein Abbildungssystem 38 mit einer oder mehreren Videokameras oder einer weiteren ähnlichen Abbildungsvorrichtung, einschließlich beispielsweise Infrarot- und Nachtsicht-Systeme, oder zusammenwirkende Kombinationen davon für eine Echtzeit-Objekterkennung. Allgemein wird wenigstens eine nach vorwärts gerichtete Kamera verwendet, welche dem spielenden Passagier eine Darstellung aus der Sicht des Fahrers zum Spielen des Fahrunterrichtsspieles bietet. Jedoch können andere Kamerapositionen verwendet werden, um dem spielenden Passagier die Möglichkeit zu geben, die Ansicht des virtuellen Fahrzeuges des Augmented Reality-Fahrspieles zu ändern.
-
Wie hierin verwendet, umfasst der Ausdruck „Abbildungssystem” beispielsweise einer Abbildungsvorrichtung, wie zum Beispiel Videokameras, Infrarot- und Nachtsicht-Systeme. Beispielhafte Abbildungshardware umfasst eine Schwarz-/Weiß- bzw. Farb-CMOS- oder CCD-Videokamera und eine Analog-zu-Digital-Umwandler-Schaltkreisanordnung, oder das gleiche Kamerasystem mit einer digitalen Datenschnittstelle. Eine solche Kamera ist an geeigneter Stelle für die gewünschte Ansicht befestigt, welche vorzugsweise eine Frontalansicht (das heißt, nach vorne gerichtet) umfasst, und welche weiterhin eine rückwärtige und im Allgemeinen zu den Seiten gerichtete Ansicht umfasst (siehe 2). Mehrere Kameras sind ideal zur Bereitstellung eines weitgehendst unterschiedlichen Augmented-Reality-Spieles, und zwar dahingehend, dass eine volle 360°-Ansicht für den spielenden Passagier aufgenommen und angezeigt werden kann. Daher wird bevorzugt, dass mehrere Positionssensoren an verschiedenen unterschiedlichen Stellen entlang des Umfangs des Hauptfahrzeuges 10 angebracht sind, um das Aufnehmen von Bildern in jede Richtung zu ermöglichen. Alternativ wird bevorzugt, dass eine partielle Umfangsabdeckung (oder lediglich eine nach vorwärts gerichtete Sicht) völlig akzeptabel ist und in der Tat hinsichtlich Kosten/Preis-Leistungsverhältnis aus der Sicht des Fahrzeugherstellers bevorzugt werden kann. In einigen Ausführungsformen umfasst das Abbildungssystem eine Objekt-Erkennungsfunktionalität, einschließlich beispielsweise: Straßenmerkmalserkennung, wie zum Beispiel Fahrspurmarkierungen, Seitenstreifenmarkierungen, Überholspurmarkierungen oder Kreuzungsmarkierungen, Rampen und dergleichen; allgemeine Straßenobjekterkennung für Signalschilder; und Erkennen von Fahrzeugen, wie zum Beispiel Passagierfahrzeuge, Lastwagen und andere einigermaßen wahrnehmbare Fahrzeuge, welche sich die Straße mit dem Hauptfahrzeug 10 teilen. Solche Sensier-Systeme sind bei der Bereitstellung einer Objekterkennung wirkungsvoll, insbesondere in Bezug auf eine Azimut-Position und, mit entsprechendem Training, eine deterministische Objekterkennung. Ebenso sind Abbildungsbearbeitungssysteme mit einer einzelnen Kamera bekannt, welche einen Abstand bzw. eine Abstandsänderung von Objekten zusätzlich zu einer Winkelposition abschätzen können. Stereo-Abbildungssysteme sind in der Lage, in genauer Weise den Abstand von Objekten zu bestimmen und können ebenso eine Abstandsänderungsinformation berechnen. Farbkamerasysteme bestimmen die Farbe der Objekte/Fahrzeuge im Gesichtsfeld, und können zur Erzeugung virtueller Objekte in entsprechenden Farben verwendet werden, wenn sie auf dem Augmented-Spielesystem dargestellt werden.
-
Ein weiteres Sensier-System, welches für eine Verwendung mit einem Augmented-Reality-Spielesystem geeignet ist, umfasst ein oder mehrere Radar-basierte, Sonar-basierte oder Laser-basierte Systeme 40 für eine Echtzeit-Objekterkennung und Ermittlung von Abstands-/Abstandsänderung-/Winkelpositions-Information. Wie hierin verwendet, umfasst der Ausdruck „Abstandssystem” beispielsweise jedes anpassbare Erkennungs- und Abstands-System, einschließlich beispielsweise Radar-basierte, Sonar-basierte oder Laser-basierte Systeme (zum Beispiel Lichtdetektion und Abstandsmessung (LIDAR) oder Laserdetektion und Abstandsmessung (LADAR)). Obwohl andere herkömmliche Arten von Sensoren verwendet werden können, verwendet Sensier-System 40 vorzugsweise entweder einen elektromagnetischen Radar-Typ-Sensor, einen Laser-Radar-Typ-Sensor oder einen gepulsten Infrarot-Laserartigen-Sensor. Der Sensor bzw. das Sensor-Array ist vorzugsweise an oder nahe dem Umfang (zum Beispiel Front) des Fahrzeuges angeordnet, um ein optimales Sichtlinien-Positions-Sensieren (25 in 1) zu ermöglichen, wenn ein Objekt in einen Sensier-Bereich und Bereich des in Frage stehenden Fahrzeugumfanges kommt. Wiederum ist es ideal für ein optimales Spiel-Erlebnis, die möglichst unterschiedliche situationsbedingte Wahrnehmung in einem vollen 360°-Gesichtsfeld zu haben (siehe 2). Daher soll davon ausgegangen werden, dass mehrere Positionssensoren an verschiedenen unterschiedlichen Stellen und Ausrichtungen entlang des Umfanges des Fahrzeuges angeordnet sein können, um dadurch ein Sensieren von Objekten, ihrer Abstände, Abstandsraten und Winkelpositionen in bzw. aus jeder beliebigen Richtung zu ermöglichen. Es wird jedoch davon ausgegangen, dass eine teilweise Umfangs-Abdeckung völlig akzeptierbar ist und in der Tat hinsichtlich Kosten-/Preis-Leistungsverhältnis aus der Sicht des Fahrzeugherstellers bei der Umsetzung von Produktionssystemen bevorzugt werden kann.
-
Ein weiteres Sensier-System, welches für ein Bereitstellen von Daten für ein Augmented-Reality-Spielesystem nützlich ist, umfasst ein globales Positioniersystem (GPS). Ein GPS-System umfasst typischerweise einen globalen Positionier-Empfänger 42 und eine GPS-Datenbank 44, welche detaillierte Straßen- und Autobahn-Karteninformation in der Form von digitalen Kartendaten enthält. Das GPS (42 und 44) versetzt eine Steuerung 36 in die Lage, Echtzeit-Fahrzeugpositionsdaten von GPS-Satelliten in der Form von Längs- und Breitengrad-Koordinaten zu erhalten. Die Datenbank 42 stellt detaillierte Information bezüglich Straßen und Fahrspuren bereit, Identität und Position verschiedener Objekte oder Landschaftsmerkmale, welche entlang oder in der Nähe von Straßen und topologischen Daten positioniert sind. Einige dieser Datenbankobjekte können beispielsweise Zeichenschilder, Pfosten, Hydranten, Schranken, Brücken, Brückenpfeiler und Überholspuren umfassen. Zusätzlich ist die von dem GPS 42 verwendete Datenbank 44 auf einfache Weise über Fernübertragungen (zum Beispiel über Mobilfunknetzwerke, direkte Satellitenverbindungsnetzwerke oder andere Telematik-Netzwerke) von einem GPS-Kundendienstcenter auf einfache Weise aktualisierbar, so dass auch detaillierte Information hinsichtlich sowohl der Identität als auch Position von selbst zeitlich begrenzten Zeichenschildern oder Absperrungen abrufbar sind, welche während kurzer Perioden von Straßenbauarbeiten eingerichtet sind. Ein Beispiel eines solchen Kundendienstcenters umfasst ein Telematik-Service-System (nicht dargestellt). Solche Sensier-Systeme sind für eine Erzeugung von Straßenbildern und festen Strukturen auf oder in der Nähe von der Straße und ein Überlagern derselben bezogen auf die in Frage stehende Fahrzeugposition nützlich. Das GPS 42 wird ebenso für seine Verwendbarkeit hinsichtlich Fahrbedingungen mit reduzierter Sicht aufgrund von Wetter bzw. Umgebungshelligkeit bevorzugt, welche eine abträgliche Wirkung auf andere Sensier-Systeme haben können.
-
Ein weiteres Sensiersystem, welche ein zuverlässigeres Spielerlebnis ermöglicht, umfasst ein Fahrzeug-zu-Fahrzeug (V2V) und Straßendienst-zu-Fahrzeug(R2V)-Kommunikationssystem 46. Das Kommunikationssystem 46 kommuniziert mit anderen Fahrzeugen (beispielsweise entfernten Fahrzeugen 22, 24, 26, 28 und 30 in 1 mit entsprechenden Kommunikationsmöglichkeiten) innerhalb eines begrenzten Bereiches bzw. Gebietes. Solche Systeme dürften besser als dedizierte Kurzbereich-Kommunikations-(DSRC)-Systeme bekannt sein. Auf diese Weise können sowohl das Hauptfahrzeug als auch die entfernt angeordneten Fahrzeuge entsprechende Fahrzeugdaten übermitteln und empfangen, einschließlich Größendaten, Fahrzeugdynamikdaten (zum Beispiel Geschwindigkeit, Beschleunigung, Gier-Rate, Lenkradeinschlag/Radeinschlag, Zustand/Position des Bremspedalschalters usw.) und Positionsdaten zu- und voneinander über ihre entsprechenden Kommunikationssysteme übermitteln und empfangen.
-
Die Kommunikationssysteme 46 können ebenso mit Straßendienst-zu-Fahrzeug-Kommunikationssystemen kommunizieren. Solche Systeme stellen Daten bereit, wie zum Beispiel aufkommende Verkehrsbedingungen, Straßenbauarbeiten, Unfälle, Straßenbehinderungen oder Umleitungen. Zusätzlich kann eine Information, wie zum Beispiel die momentane und bevorstehende Geschwindigkeitsbegrenzung, befahrbare oder nicht-befahrbare Gebiete und andere Information, welche typischerweise durch Straßenzeichenschilder bereitgestellt wird, lokal für vorbeifahrende Fahrzeuge übermittelt werden, um die Information zu empfangen und weiter zu bearbeiten.
-
Die durch die Radar-basierten, Sonar-basierten oder Laser-basierten Systeme 40 bereitgestellten Daten und das V2V- und R2V-Kommunikationssystem 46 werden von einer virtuellen Bild-(Icon)-Datenbank 48 für die Bereitstellung von virtuellen Bildern (zum Beispiel Icons, Avatars) für eine Eingliederung in das durch die Kamera 38 bereitgestellte Live-Videobild bearbeitet. Ein Zusammenführen des Live-Bildes mit virtuellen Bildern stellt das Augmented-Reality-Bild für das Augmented-Reality-Spielesystem der vorliegenden Offenbarung bereit. Wie hierin verwendet, ist ein „Augmented-Reality-Bild” eine Zusammenführung eines Live-Videobildes mit virtuellen Bildern (zum Beispiel Icons), welche ein simuliertes Modell der vorausliegenden Umgebung oder allgemein der Umgebung des Hauptfahrzeuges bildet. Im Allgemeinen kann ein Augmented-Reality-Bild Vektorberechnungen für jedes Fahrzeug von Interesse innerhalb des in Frage stehenden Gebietes umfassen, wobei ein Vektor für ein Fahrzeug die momentane Fahrtrichtung, die Position bzw. den Ort, die Geschwindigkeit und die Beschleunigung/Verzögerung des Fahrzeuges definiert. Ein Augmented-Reality-Bild kann ebenso projizierte, vorhergesagte oder extrapolierte Eigenschaften für entfernte Fahrzeuge umfassen, welche von dem Fahrzeug-zu-Fahrzeug-Kommunikationssystem 46 empfangen wurden, um die Fahrtrichtung, Position, Geschwindigkeit und möglicherweise andere Parameter eines oder mehrerer entfernter Fahrzeuge zu irgendeiner Zeit in der Zukunft vorherzusagen bzw. zu antizipieren. In bestimmten Ausführungsformen kann ein Augmented-Reality-Bild Information über das Hauptfahrzeug selber und über die Umgebung enthalten, in welcher sich das Hauptfahrzeug befindet, einschließlich, jedoch ohne Beschränkung, datenbezogen auf: die umgebende Landschaft bzw. das Straßenbild; die Straße, Schnellstraße oder Autobahn, auf welcher das Hauptfahrzeug fährt (zum Beispiel Navigations- oder Kartendaten); Fahrspurinformation; Geschwindigkeitsbegrenzungen für die Straßen, Schnellstraße oder Autobahn, auf welcher das Hauptfahrzeug fährt; und weitere Objekte in dem betreffenden Gebiet, wie zum Beispiel Bäume, Gebäude, Zeichen, Leuchteinrichtungen usw.
-
Dementsprechend werden das Live-Videobild 50, das bzw. die virtuellen Bilder 52 und die GPS-Daten (zum Beispiel Fahrzeug-Kompassrichtung, lokale Einrichtungen) der Steuerung 36 bereitgestellt, welche ein Zusammenführungsmodul 56 enthält, welches die Daten und Information zusammenführt, um das Augmented-Reality-Bild zu erzeugen. Das heißt, die Mehrzahl an gesammelten Daten von den verschiedenen Sensoren 34 werden in ein einzelnes Gesamtbild zusammengeführt, welches ein zusammengeführtes Echtzeit (oder Fast-Echtzeit) Augmented-Reality-Bild für das Augmented-Reality-Spielesystem der vorliegenden Offenbarung bereitstellt. Optional kann eine Echtzeit-Fahrzeuginformation 58 (zum Beispiel momentane Geschwindigkeit) ebenso in das Augmented-Reality-Bild eingefügt werden, um Zusatzinformation für den spielenden Passagier bereitzustellen.
-
So wie das Augmented-Reality-Bild erzeugt worden ist, wird das Augmented-Reality-Bild in Echtzeit (oder so gut wie Echtzeit aufgrund einer gewissen Bearbeitungszeit durch die Steuerung) für den spielenden Passagier entweder über eine im Fahrzeug befindliche verdrahtete Verbindung 60 (zum Beispiel ein innerhalb des Fahrzeuges befindlicher Datenbus) oder über eine Drahtlos-Verbindung 62 auf einem Display 64 bereitgestellt. In einer verdrahteten Ausführungsform kann das Display 64 in die Rückseite eines Sitzes vor dem Passagier oder in ein herausklappbares oder herabschwenkbares Überkopf-Videodisplaysystem (nicht dargestellt) eingebaut sein. In einer Drahtlos-Ausführungsform kann das Display 64 ein beliebiger mobiler Laptoprechner oder Tablet-Computer (zum Beispiel ein iPad® von Apple®) oder ein tragbares dediziertes Spielesystem sein. In einer alternativen oder zusätzlichen Ausführungsform kann das Augmented-Reality-Bild zu einem entfernt befindlichen Spieler über ein Kommunikationssystem 66 mit einer hohen Bandbreite und geringer Verzögerung übermittelt werden, wie zum Beispiel ein Mobilfunkkommunikationssystem einer dritten Generation (3G) oder vierten Generation (4G). Auf diese Weise kann ein entfernt befindlicher Spieler (zum Beispiel zu Hause) entlang der von dem Fahrer des Hauptfahrzeuges gefahrenen Route folgen und ebenso das Augmented-Reality-Spiel spielen. Spielesteuerungen für ein interaktives Spiel können von dem spielenden Passagier (oder dem entfernt befindlichen Spieler) über eine herkömmliche Spielekonsole (ein Touchscreen-Display oder eine andere Spieleingabeeinrichtung) eingegeben werden.
-
4 zeigt einen beispielhaften mobilen Tablet-Computer 400, welcher dazu geeignet ist, dass ein Passagier das Augmented-Reality-Spiel der vorliegenden Offenbarung spielen kann. Typischerweise umfasst ein mobiler Tablet-Computer 400 ein Gehäuse 402 und eine Displayfläche 404. Während des Spieles ist für den Bildschirm 404 eine Live-Kamera-Fläche 406 bereitgestellt, in welche verschiedene virtuelle Bilder (Icons) 416 zusammengeführt werden können. In einigen Ausführungsformen ist ein Abschnitt 408 des Displays 404 (zum Beispiel ein virtuelles Armaturenbrett) für eine Spielinformation reserviert, wie zum Beispiel Spielstand 410, ein virtueller Rückspiegel (unter der Annahme, dass eine nach hinten gerichtete Kamera im Hauptfahrzeug vorhanden ist) oder weitere Spielinformation 414 (beispielsweise einen Hinweis darauf, ob der Spieler ein sicheres, rücksichtsloses oder gefährliches Fahrverhalten aufzeigt). Die Icons 416 können beliebige von den Sensoren (34 aus 3) erhaltene Information darstellen, einschließlich eines Icons bzw. Avatars (d. h. eine virtuelle Figur), welcher das von dem Spieler gefahrene virtuelle Fahrzeug darstellt. Um das Avatar-Fahrzeug des Spielers zu steuern, kann der Tablet-Computer 400 Beschleunigungsmesser (nicht dargestellt) umfassen, welche ein Lenken durch Drehen des Tablet-Computers 400 nach rechts (418) oder links (420) bereitstellen. Eine Beschleunigung kann durch ein leichtes Kippen (422) weg vom Spieler gesteuert werden, während eine Verzögerung durch ein entgegengesetzt gerichtetes Kippen (424) hin zu dem Spieler gesteuert werden kann. Abbiegen oder Fahrspurwechsel können durch Knöpfe oder berührungsempfindliche Sensoren 426 und 428 erzeugt werden, um jeweils ein nach rechts oder links gerichtetes Manöver anzudeuten.
-
In einer Ausführungsform ist das Augmented-Reality-Spiel als ein Fahrunterrichts-Lernspiel ausgeführt, wo ein Passagier ein virtuelles Fahrzeug bedient, welches dem Hauptfahrzeug im Verkehr folgt. Spielpunkte können zu dem Spielstand (410) hinzuaddiert bzw. davon abgezogen werden, und zwar in Abhängigkeit von dem durch den spielenden Passagier aufgezeigten Fahrverhalten. Beispielsweise werden Punkte für ordnungsgemäßes Abstandhalten zu einem Fahrzeug, Fahrgeschwindigkeit und Fahrspurwechsel zu dem Punktestand hinzuaddiert, während zu schnelles Fahren, ein Nicht-Anzeigen von Fahrmanövern oder ein beliebiges Hin- und Herfahren im Verkehr einen Punktabzug zur Folge hätte. Alternativ können verschiedene Icons (414) sichere, risikohafte oder gefährliche Fahreigenschaften dem spielenden Passagier anzeigen. Ein Bereitstellen eines Augmented-Reality-Fahrerlebnisses aufgrund des Echtzeit-Hauptfahrzeuges-Betriebes vermittelt dem spielenden Passagier ein lebensechtes Fahrerlebnis zum Lernen bzw. zur Unterhaltung. Überdies, da der Fahrer des Hauptfahrzeuges weiß, dass das Augmented-Reality-Fahrspiel gerade abläuft, ist der Fahrer motiviert, in sicherer Weise zu fahren, um für den spielenden Passagier ein gutes Vorbild zu sein.
-
Nunmehr mit Bezug auf 5 wird ein Flussdiagramm gezeigt, welches ein Verfahren 500 zur Bereitstellung eines Augmented-Reality-Spielesystems zeigt. Die verschiedenen in Verbindung mit dem Verfahren 500 aus 5 ausgeführten Schritte können durch Software, Hardware, Firmware oder einer beliebigen Kombination davon ausgeführt werden. Zum Zwecke der Darstellung kann sich die folgende Beschreibung des Verfahrens aus 5 auf oben in Verbindung mit 1 bis 4 erwähnte Elemente beziehen. In der Praxis können Abschnitte des Verfahrens aus 5 durch verschiedene Elemente des beschriebenen Systems ausgeführt werden. Es wird ebenso bevorzugt, dass das Verfahren aus 5 eine beliebige Anzahl von zusätzlichen oder alternativen Aufgaben enthalten kann und dass das Verfahren aus 5 in eine umfassendere Prozedur bzw. Verfahren mit zusätzlicher hier nicht im Detail beschriebener Funktionalität eingegliedert sein kann. Überdies können eine oder mehrere der in 5 dargestellten Aufgaben bzw. Schritte von einer Ausführungsform des Verfahrens aus 5 weggelassen werden, solange die beabsichtigte Gesamtfunktionalität erhalten bleibt.
-
Das Verfahren 500 beginnt bei Schritt 502, wo das Echtzeit-Videobild (50 in 3) für eine Zusammenführung (Fusion) mit in Schritt 504 bereitgestellten virtuellen Bildern aufgenommen wird. Wie oben erwähnt, können die virtuellen Bilder von einer Datenbank (48 in 3) oder von GPS-Daten (54 in 3) oder weiteren Informationsquellen kommen. Als Nächstes können in Schritt 506 den Betrieb des Hauptfahrzeuges betreffende Daten (58 in 3) für eine Zusammenführung mit dem Echtzeit-Videobild und den virtuellen Bildern gesammelt werden. Entscheidungsschritt 508 bestimmt, ob zusätzliche Information bzw. Daten erhältlich sind, wie zum Beispiel von V2V- oder R2V-Quellen (zum Beispiel vom Kommunikationssystem 46 in 3). Falls ja, enthält Schritt 510 solche Information bzw. Daten, welche mit anderen Informationen zusammengeführt werden. Weiterhin fährt das Verfahren zu Schritt 512 fort, welches das Echtzeit-Videobild mit allen anderen virtuellen Bildern und Daten zusammenfügt. Das nunmehr erzeugte Augmented-Reality-Bild wird an den Spieler übermittelt (60, 62 oder 66 in 3). Schließlich wird in Schritt 516 eine Spielereingabe während des Spieles angenommen.
-
Dementsprechend wird ein Augmented-Reality-Spielesystem für ein Fahrzeug bereitgestellt, welches dem spielenden Passagier ein lebensechtes Fahrerlebnis zum Lernen bzw. zur Unterhaltung bereitstellt. Überdies, da der Fahrer des Hauptfahrzeuges weiß, dass das Augmented-Reality-Fahrspiel gerade abläuft, ist der Fahrer motiviert, auf sichere Weise zu fahren, um für den spielenden Passagier ein gutes Vorbild zu sein.
-
Während wenigstens eine beispielhafte Ausführungsform in der vorangegangenen detaillierten Beschreibung dargestellt worden ist, wird bevorzugt, dass eine große Anzahl von Variationen existiert. Es wird ebenso bevorzugt, dass die beispielhafte Ausführungsform oder Ausführungsformen lediglich Beispiele sind, und den Umfang, die Anwendbarkeit oder Konfiguration der Offenbarung in keinster Weise beschränken sollen. Vielmehr soll die vorangegangene detaillierte Beschreibung dem Fachmann eine nützliche Anleitung zur Umsetzung der beispielhaften Ausführungsform bzw. Ausführungsformen bereitstellen. Es wird davon ausgegangen, dass verschiedene Änderungen hinsichtlich Funktion und Anordnung der Elemente vorgenommen werden können, ohne den wie in den beigefügten Ansprüchen definierten Umfang der Offenbarung und der rechtlichen Äquivalente davon zu verlassen.
-
Weitere Ausführungsformen
-
- 1. Verfahren, umfassend:
Empfangen eines Echtzeit-Videobildes während eines Betriebes eines Fahrzeuges von einer auf dem Fahrzeug montierten Kamera;
Zusammenführen der Echtzeit-Videobild-Fahrzeug-Betriebsdaten von einem oder mehreren virtuellen Bildern, um ein erweitertes Real-Bild bereitzustellen; und
Übertragen des erweiterten Real-Bildes während des Betriebes des Fahrzeuges.
- 2. Verfahren nach Ausführungsform 1, wobei das Übermitteln weiterhin ein Übermitteln des erweiterten Real-Bildes auf eine innerhalb des Fahrzeuges befestigte Anzeige umfasst.
- 3. Verfahren nach Ausführungsform 1, wobei das Übermitteln weiterhin ein Übermitteln des Augmented-Reality-Bildes auf ein Display eines mobilen Computers oder Spielesystems während des Betriebs im Fahrzeug umfasst.
- 4. Verfahren nach Ausführungsform 1, wobei das Übermitteln weiterhin ein Übermitteln des Augmented-Reality-Bildes auf ein Display eines mobilen Computers oder Spielesystems während des Betriebs des Fahrzeugs umfasst.
- 5. Verfahren nach Ausführungsform 1, wobei die Fahrzeugbetriebsdaten wenigstens eine der folgenden Gruppen umfassen: Fahrzeuggeschwindigkeit, Fahrzeugrichtung; oder Fahrzeugbeschleunigung.
- 6. Verfahren nach Ausführungsform 1, weiterhin umfassend:
Empfangen von Daten von einem Radar- oder Sonar-System während eines Betriebes des Fahrzeuges; und
Zusammenführen wenigstens eines Abschnitts der Daten mit dem Echtzeit-Videobild und dem einen oder den mehreren virtuellen Bildern, um das Augmented-Reality-Bild bereitzustellen.
- 7. Verfahren nach Ausführungsform 1, weiterhin umfassend:
Empfangen von globalen Positionierdaten während des Betriebs des Fahrzeugs; und
Zusammenführen wenigstens eines Abschnitts der globalen Positionierdaten mit dem Echtzeit-Videobild und dem einen oder den mehreren virtuellen Bildern, um das Augmented-Reality-Bild bereitzustellen.
- 8. Verfahren nach Ausführungsform 1, weiterhin umfassend:
Empfangen von Information von einer Straßendienst-Informationsquelle während des Betriebs des Fahrzeugs; und
Zusammenführen wenigstens eines Abschnitts der Information mit dem Echtzeit-Videobild und dem einen oder den mehreren virtuellen Bildern, um das Augmented-Reality-Bild bereitzustellen.
- 9. Verfahren nach Ausführungsform 1, weiterhin umfassend:
Empfangen eines zweiten Echtzeit-Videobildes von einem anderen Fahrzeug; und
Zusammenführen wenigstens eines Abschnitts des zweiten Echtzeit-Videobildes mit dem Augmented-Reality-Bild vor der Übertragung.
- 10. Verfahren nach Ausführungsform 1, weiterhin umfassend:
Empfangen von Information von einem anderen Fahrzeug während eines Betriebes des Fahrzeuges, wobei die Information von wenigstens einer der folgenden Gruppe von Informationsquellen stammt: Echtzeit-Video; Radar; Laser; Sonar; GPS; oder Straßendienst-Informationen; und
Zusammenfassen wenigstens eines Abschnittes der Information mit dem Echtzeit-Videobild und dem einen oder mehreren virtuellen Bildern, um das erweiterte Real-Bild bereitzustellen.
- 11. Verfahren, umfassend:
Empfangen eines Echtzeit-Videobildes während eines Betriebes eines Fahrzeuges von einer auf dem Fahrzeug befestigten Kamera;
Empfangen von Information von einer anderen Informationsquelle während eines Betriebes des Fahrzeuges, wobei die Information von wenigstens einer der folgenden Gruppe von Informationsquellen stammt: Radar; Laser; Sonar; GPS; oder Straßendienstinformation;
Erzeugen eines oder mehrerer virtueller Bilder unter Verwendung der Information;
Zusammenfassen des Echtzeit-Videobildes mit einem oder mehreren virtuellen Bildern, um ein erweitertes Reality-Spiel-Bild bereitzustellen; und
Übermitteln des erweiterten Reality-Spiel-Bildes während des Betriebes des Fahrzeuges.
- 12. Verfahren nach Ausführungsform 11, wobei das Übermitteln weiterhin ein Übermitteln des erweiterten Reality-Spiel-Bildes auf eine Anzeige eines mobilen Computers oder eines Spielesystems umfasst, welche in dem Fahrzeug betreibbar sind.
- 13. Verfahren nach Ausführungsform 12, weiterhin umfassend Empfangen von Anweisungen für das erweiterte Reality-Spiel-Bild von dem in dem Fahrzeug betreibbaren Computer oder Spiel-System.
- 14. Verfahren nach Ausführungsform 13, weiterhin umfassend ein Einfügen eines Spielstandes in das erweiterte Reality-Spiel-Bild vor Übermitteln des erweiterten Reality-Spiel-Bildes auf die Anzeige des innerhalb des Fahrzeuges betreibbaren mobilen Computers oder Spiele-Systems.
- 15. Verfahren nach Ausführungsform 11, weiterhin umfassend:
Empfangen von Fahrzeugbetriebsdaten während des Betriebes des Fahrzeuges; und
Zusammenführen wenigstens eines Abschnitts der Fahrzeugbetriebsdaten mit dem Echtzeit-Videobild und dem einen oder den mehreren virtuellen Bildern, um das Augmented-Reality-Bild bereitzustellen.
- 16. Fahrzeug, umfassend: Eine Kamera, welche ein Echtzeit-Videobild bereitstellt;
eine Steuerung, welche mit der Kamera gekoppelt ist und mit einer Datenbank, welche eines oder mehrere virtuelle Bilder aufweist und dazu eingerichtet ist, durch Zusammenführen von Fahrzeugbetriebsdaten mit dem Echtzeit-Videobild und dem einen oder den mehreren virtuellen Bildern ein erweitertes Reality-Bild bereitzustellen; und
einen Transmitter zum Übermitteln des erweiterten Reality-Bildes während des Betriebes des Fahrzeuges.
- 17. Fahrzeug nach Ausführungsform 16, wobei die Steuerung ebenso mit wenigstens einer der folgenden Gruppe von Informationsquellen gekoppelt ist: Radar; Laser; Sonar; GPS; oder Straßendienstinformation.
- 18. Fahrzeug nach Ausführungsform 16, wobei die Steuerung von der wenigstens einen Quelle von der Gruppe von Informationsquellen bereitgestellte Information bearbeitet, um das eine oder die mehreren virtuellen Bilder bereitzustellen.
- 19. Fahrzeug nach Ausführungsform 16, wobei der Transmitter das Augmented-Reality-Bild auf ein innerhalb des Fahrzeuges befestigtes Display überträgt.
- 20. Fahrzeug nach Ausführungsform 16, wobei der Transmitter das Augmented-Reality-Bild auf ein Display eines innerhalb des Fahrzeuges betriebenen mobilen Computers oder Spielesystem überträgt.