-
Die Erfindung betrifft ein System zur Projektion eines Projektionsbildes auf eine Oberfläche eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein entsprechendes Verfahren.
-
Aus der
WO 2017/157863 A1 ist ein System bekannt, dass eine oder mehrere Unterstützungsoperationen für ein Landfahrzeug unter Verwendung eines unbemannten autonomen Fahrzeugs, wie einer Drohne, durchführt.
-
Aus der
WO 2017/041303 A1 sind Systeme, Verfahren und Vorrichtungen bekannt, zum Detektieren und Verfolgen von einem oder mehreren beweglichen Objekten.
-
Aus der
US 2018/0029522 A1 sind Techniken zur Steuerung für Drohnenvorrichtungen bekannt. Die Techniken enthalten das Überwachen durch eine Drohnenvorrichtung, die operativ mit einem Prozessor verbunden ist und einem Fahrzeug zugewiesen ist.
-
Derzeit gibt es keine Möglichkeit, das Fahrzeug von oben zu beleuchten oder durch Projektoren dessen Konturen nachzufahren. 3D Projektionsmapping wird bei Fahrzeugen oft als Showeffekt von Originalausrüstungsherstellern (Original Equipment Manufacturer, OEM) oder Zulieferern genutzt, um die Vielfältigkeit des Fahrzeugs darzustellen oder dessen Konturen hervorzuheben.
-
Das Projektionsmapping ist nur in abgedunkelten Räumen und mit professionellem Equipment realisierbar. Für Projektionsmapping ist eine Positionierung der Beamer (d.h. Projektoren) außerhalb des zu projizierenden Fahrzeugs notwendig, dies ist aktuell nur im Stand möglich. Der Erfindung liegt die Aufgabe zugrunde, Projektionsmapping für fahrende Fahrzeuge bereitzustellen.
-
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren offenbart.
-
Durch die Erfindung ist ein System mit einem Kraftfahrzeug und einem unbemannten Luftfahrzeug, sowie einer Projektoreinheit in/an dem unbemannten Luftfahrzeug, die dazu ausgebildet ist, ein Projektionsbild auf eine Oberfläche zu projizieren, bereitgestellt. Das System umfasst ferner eine Sensorik in oder an dem Kraftfahrzeug und/oder dem unbemannten Luftfahrzeug, die dazu ausgebildet ist, eine relative Position des Kraftfahrzeugs zu dem unbemannten Luftfahrzeug oder umgekehrt zu bestimmen und eine Berechnungseinheit in oder an dem Kraftfahrzeug oder dem unbemannten Luftfahrzeug, die dazu ausgebildet ist, mit der relativen Position und fahrzeugbezogenen Daten das Projektionsbild zu berechnen, wobei sich die Oberfläche auf dem Kraftfahrzeug befindet und die fahrzeugbezogenen Daten diese Oberfläche charakterisieren und die Projektoreinheit dazu ausgebildet ist, das Projektionsbild auf die Oberfläche des Kraftfahrzeugs zu projizieren. Mit anderen Worten ist in dem System ein unbemanntes Luftfahrzeug mit einer Projektoreinheit ausgestattet, die ein Projektionsbild auf eine Oberfläche eines Fahrzeugs projiziert. Für die Berechnung des Projektionsbildes auf die Oberfläche des Kraftfahrzeugs ist die relative Position des Kraftfahrzeugs zu dem unbemannten Luftfahrzeug beziehungsweise umgekehrt zu bestimmen, das heißt zum Beispiel die Entfernung, der Höhenunterschied oder allgemein die Koordinaten, wie beispielsweise die kartesischen Koordinaten oder sphärischen Koordinaten, in einem Bezugssystem des Kraftfahrzeugs oder des unbemannten Luftfahrzeugs. Des Weitern sind für die Berechnung des Projektionsbildes fahrzeugbezogene Daten, wie beispielsweise Karosserieabmessungen des Fahrzeugs notwendig. Das unbemannte Luftfahrzeug, das auch als Drohne bezeichnet wird, kann insbesondere ein Quadrocopter oder ein Multicopter sein, der in der Lage ist eine Projektoreinheit zu tragen.
-
Durch die Erfindung ergibt sich der Vorteil, dass Projektionsmapping auf ein Fahrzeug, insbesondere auf ein fahrendes Fahrzeug, angewendet werden kann und so Konturen des Fahrzeugs, beispielsweise bei Präsentationen und im Straßenverkehr, hervorgehoben und in Szene gesetzt werden können. Zusätzlich ist keine feste Positionierung und Ausrichtung von Projektoren notwendig, was Zeit und Kosten spart.
-
Zu der Erfindung gehören auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben.
-
Eine Ausführungsform sieht vor, dass die Projektoreinheit ein Videoprojektor oder Laserprojektor ist. Der Videoprojektor, der auch als Beamer bezeichnet wird, kann ein Röhrenprojektor, LCD Projektor (Flüssigkristallprojektor), DLP-Projektor (Digital Light Processing), LED Projektor (Light Emitting Diode) oder LCoS Projektor (Liquid Crystal on Silicon) sein. Der Vorteil eines Videoprojektor oder Laserprojektors ist es, dass auch farbige und bewegliche Bilder, Videos und Animationen kostengünstig auf einer Oberfläche dargestellt werden können.
-
In einer weiteren Ausführungsform ist die Projektoreinheit ferner in einer automatisch verstellbaren dreh- und/oder neigbaren Vorrichtung des unbemannten Luftfahrzeugs angeordnet. Mit anderen Worten ist die Projektoreinheit in einer verstellbaren Vorrichtung, wie beispielsweise einem Gehäuse, angeordnet, sodass die Projektionsrichtung der Projektoreinheit durch die verstellbare Vorrichtung eingestellt werden kann. Das hat den Vorteil, dass die Projektionsrichtung nicht von einer Flugbewegung des unbemannten Luftfahrzeugs abhängig ist. Das heißt, dass bei Flugbewegungen oder beispielsweise einem Windstoß die Projektoreinheit mit der automatisch verstellbaren Vorrichtung so gesteuert werden kann, dass die Bewegungen des unbemannten Luftfahrzeugs ausgeglichen werden und Verwackelungen des Projektionsbildes minimiert werden.
-
Vorzugsweise ist vorgesehen, dass ein Teil der Sensorik in dem Kraftfahrzeug und ein anderer Teil der Sensorik in dem unbemannten Luftfahrzeug angeordnet ist, wobei die relative Position über eine Sensordatenfusion aus den beiden Teilen der Sensorik bestimmt wird. Anders ausgedrückt wird die relative Position aus einer Kombination der Sensoren des Fahrzeugs und des unbemannten Luftfahrzeugs berechnet. Hierdurch ergibt sich der Vorteil, dass sich die relative Position viel genauer bestimmten lässt, was zu einer erhöhten Genauigkeit des Projektionsbildes beiträgt. Die Sensorik kann dabei Satellitendaten eines globalen Navigationssatellitensystems, wie beispielsweise GPS, GLONASS, Galileo oder BEIDOU, optische oder elektromagnetische Sensoren, wie beispielsweise Kameras, Radar oder Lidar umfassen. Auch kann die Sensorik die relative Position aus Funkkommunikationsdaten, wie beispielsweise Bluetooth, WLAN oder Mobilfunkdaten, bestimmen.
-
Vorzugsweise ist vorgesehen, dass die fahrzeugbezogenen Daten rechengestützte Konstruktionsdaten des Kraftfahrzeugs umfassen. Anders ausgedrückt, können die fahrzeugbezogenen Daten Computer Aided Design (CAD) Daten des Kraftfahrzeugs sein. Das hat den Vorteil, dass über die Konstruktionsdaten die genauen Abmessungen des Fahrzeugs bekannt sind, was die Genauigkeit der Berechnung des Projektionsbildes verbessert und so zu einem besseren Projektionsbild führt.
-
Eine Ausführungsform sieht vor, dass die Sensorik eine Bildstabilisierungseinrichtung, insbesondere einen Gyrosensor, umfasst, um eine optische Bildstabilisierung des Projektionsbildes zu erreichen. Mit anderen Worten umfasst die Sensorik, insbesondere die Sensorik des unbemannten Luftfahrzeugs, Bewegungs- und Beschleunigungssensoren, deren Daten für eine optische und/oder digitale Bildstabilisierung des Projektionsbildes verwendet werden. Das hat den Vorteil, dass ein Verwackeln des Projektionsbildes verhindert werden kann und so ein stabileres Projektionsbild entsteht.
-
Eine weitere Ausführungsform sieht vor, dass die Sensorik des unbemannten Luftfahrzeugs eine Kamera umfasst, mit der der Berechnungseinheit Bilddaten des Kraftfahrzeugs bereitstellbar sind, die bei dem Berechnen des Projektionsbildes berücksichtigt werden. Das heißt, dass die Sensorik, insbesondere die Sensorik des unbemannten Luftfahrzeugs, eine Kamera aufweist, mit Hilfe derer Bilder das Projektionsbild an die Fahrzeuggeometrie angepasst wird. Die Kamera ist dabei vorzugsweise eine digitale Videokamera. Das hat den Vorteil, dass das Projektionsbild direkt auf Echtzeitdaten berechnet und angepasst werden kann und so ein verbessertes Projektionsbild entsteht.
-
Vorzugsweise ist vorgesehen, dass durch die Berechnungseinheit das Projektionsbild mit Hilfe von einem oder mehreren Fahrzeugmerkmalen und/oder Markern berechenbar ist. Anders formuliert wird das Projektionsbild an vorhandene Fahrzeugmerkmale und/oder anhand von angebrachten Markern an das Fahrzeug angepasst. Fahrzeugmerkmale sind insbesondere die Fahrzeugscheiben, eine Fahrzeugantenne, Fahrzeuglichter oder Fugen zwischen Türen, der Motorhaube oder dem Kofferraum. Marker an dem Fahrzeug sind vorzugsweise Motion Capture Marker, die für optisches Tracking verwendet werden. Der Vorteil davon ist, dass die Berechnungseinheit Bewegungen mit relativ geringem zeitlichen Aufwand erfassen kann und so zu einer Verbesserung des Projektionsbildes beiträgt.
-
Eine weitere Ausführungsform sieht vor, dass Bewegungen des Kraftfahrzeugs mit Bewegungen des unbemannten Luftfahrzeugs synchronisierbar sind. Mit anderen Worten bewegt sich das unbemannten Luftfahrzeug mit gleicher Geschwindigkeit und in die gleiche Richtung wie das Kraftfahrzeug. Das heißt, dass bei einer Beschleunigung des Kraftfahrzeugs das unbemannte Luftfahrzeug mitbeschleunigt und auch Kurven des Kraftfahrzeugs derart mit bewegt, dass der Projektionswinkel der Projektoreinheit auf das Kraftfahrzeug gleich bleibt. Das hat den Vorteil, dass die Projektion durch die Projektoreinheit konstant bleibt und daher kein neues Projektionsbild berechnet werden muss. Hierdurch kann eine Rechenleistung für die Berechnung des Projektionsbildes verringert werden und eine weitere Stabilisierung des Projektionsbildes auf dem Kraftfahrzeug erreicht werden.
-
Erfindungsgemäß ist auch ein Verfahren zur Projektion eines Projektionsbildes auf eine Oberfläche vorgesehen. Durch das Verfahren wird eine relative Position eines Kraftfahrzeugs zu einem unbemannten Luftfahrzeug bestimmt und mit der relativen Position und fahrzeugbezogenen Daten das Projektionsbild berechnet, wobei sich die Oberfläche auf dem Kraftfahrzeug befindet und die fahrzeugbezogenen Daten diese Oberfläche charakterisieren. In dem Verfahren wird weiterhin das Projektionsbild von dem unbemannten Luftfahrzeug auf die Oberfläche des Kraftfahrzeugs projiziert. Hierbei ergeben sich gleiche Vorteile und Variationsmöglichkeiten wie bei dem System.
-
Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen.
-
Zu der Erfindung gehören auch Weiterbildungen des erfindungsgemäßen Verfahrens, die Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Weiterbildungen des erfindungsgemäßen Systems beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen des erfindungsgemäßen Verfahrens hier nicht noch einmal beschrieben.
-
Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
- 1 eine schematische Darstellung einer Seitenansicht einer Ausführungsform des Systems mit einem Kraftfahrzeug und einem unbemannten Luftfahrzeug;
- 2 ein Verfahrensdiagramm einer Ausführungsform.
-
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
-
In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.
-
1 zeigt beispielhaft ein Kraftfahrzeug 10 und ein unbemanntes Luftfahrzeug 12, welches beispielhaft eine Drohne sein kann. Vorzugsweise ist für das unbemannte Luftfahrzeug 12 ein Multicopter vorgesehen, der auch in der Lage ist, einen Schwebeflug durchzuführen. Das unbemannte Luftfahrzeug 12 kann mit einer Projektoreinheit 14 ausgestattet sein, mit der ein Bild projiziert werden kann. Des Weiteren kann das unbemannte Luftfahrzeug eine Sensorik 16 umfassen. Diese kann aber auch in dem Kraftfahrzeug 10 vorhanden sein. Die Komponenten der Sensorik 16 können sich im Kraftfahrzeug 10 und in dem unbemannten Luftfahrzeug 12 unterscheiden, gleich sein oder teilweise gleich sein. Zum Beispiel kann die Sensorik im Fahrzeug einen GPS Sensor und eine Radarvorrichtung aufweisen und die Sensorik 16 in dem unbemannten Luftfahrzeug 12 ein GPS Sensor, ein Lidar und eine Kamera.
-
Durch die Sensorik 16 kann insbesondere die relative Position des unbemannten Luftfahrzeugs 12 zu dem Kraftfahrzeug 10 bestimmt werden. Beispielsweise kann eine minimale Entfernung einen Meter betragen. Eine maximale Entfernung kann sich aus einem Verhältnis der Helligkeit der Projektoreinheit 14 und der Helligkeit der Umgebung ergeben.
-
Das unbemannte Luftfahrzeug 12 kann insbesondere von einer elektronischen Steuervorrichtung (beispielsweise einem Navigationssystem) des Kraftfahrzeugs 10 gesteuert werden, sodass das unbemannte Luftfahrzeug 12 dem Kraftfahrzeug 10 automatisch folgt. Das Kraftfahrzeug 10 steht insbesondere mit dem unbemannten Luftfahrzeug 12 in ständiger Kommunikation. Die Kommunikation kann beispielsweise über Bluetooth oder WLAN erfolgen. Über die Kommunikation können beispielsweise auch Daten, wie beispielsweise Sensordaten zur Bestimmung der relativen Position, ausgetauscht werden und es können Steuerbefehle gesendet werden, die die Projektoreinheit 14 dazu veranlassen können, ein Projektionsbild 18 auf eine Oberfläche des Kraftfahrzeugs 10 zu projizieren.
-
Für die Projektion des Projektionsbildes 18 durch die Projektoreinheit 14 kann eine Berechnungseinheit (nicht gezeigt) in dem Kraftfahrzeug 10 oder dem unbemannten Luftfahrzeug 12 vorgesehen sein, die mit der durch die Sensorik 16 bestimmten relativen Position und fahrzeugbezogenen Daten das Projektionsbild 18 berechnet. Die fahrzeugbezogenen Daten können dabei CAD Daten des Kraftfahrzeugs 10 sein, sodass das Projektionsbild 18 genau auf eine Oberfläche des Kraftfahrzeugs 10 angepasst werden kann. Zusätzlich kann die Sensorik 16 des unbemannten Luftfahrzeugs 12 eine Kamera umfassen, die Bilder des Fahrzeugs, vorzugsweise in Echtzeit, aufnimmt und der Berechnungseinheit zur Verfügung stellt. Die Kamera kann dabei die gleiche Ausrichtung wie die Projektoreinheit 14 haben. Zusätzlich zu den CAD Daten des Kraftfahrzeugs 10 kann die Berechnungseinheit mit Hilfe der Kamerabilder ein digitales Projektionsbild berechnen, welches die Projektoreinheit 14 auf die Oberfläche des Kraftfahrzeugs 10 projizieren kann.
-
Die Projektoreinheit 14 und/oder die Kamera kann bzw. können dabei in einer automatisch verstellbaren Vorrichtung des unbemannten Luftfahrzeugs 12 angeordnet sein. Hierdurch können Flugbewegungen des unbemannten Luftfahrzeugs 12 leichter ausgeglichen werden. Beispielsweise können das Kraftfahrzeug 10 und das unbemannte Luftfahrzeug 12 synchronisierbar sein, das heißt, dass das unbemannte Luftfahrzeug 12 bei einer Kurve des Kraftfahrzeugs 10 auch eine Kurve fliegt, damit das Projektionsbild 18 weiterhin auf die Oberfläche des Kraftfahrzeugs 10 projiziert wird. Eine eventuelle Neigung des unbemannten Luftfahrzeugs 12 durch den Kurvenflug kann dabei von der automatisch verstellbaren Vorrichtung, die dreh- und/oder neigbar ist, ausgeglichen werden. Des Weiteren können Verwackelungen, die zum Beispiel durch einen Windstoß entstehen, ausgeglichen werden. Für die Stabilisierung des Projektionsbildes 18 kann in der Sensorik 16 auch eine Bildstabilisierungseinrichtung vorgesehen sein, die Geschwindigkeits- und Beschleunigungssensoren umfasst, zum Beispiel einen Gyrosensor. Hiermit kann dann eine optische Bildstabilisierung des Projektionsbildes 18 erreicht werden. Um das Projektionsbild 18 zu verbessern, beispielsweise zu stabilisieren, kann die Berechnungseinheit das Projektionsbild 18 auch anhand von Fahrzeugmerkmalen, wie beispielsweise den Scheinwerfern, den Seitenspiegeln, den Fahrzeugscheiben oder den Fahrzeugtüren berechnen.
-
Mit dem unbemannten Luftfahrzeug 12 und der Projektoreinheit 14 kann auf der Oberfläche des Kraftfahrzeugs 10 3D Projektionsmapping, insbesondere bei einem fahrenden Kraftfahrzeug 10, realisiert werden. Dies kann als Showeffekt auf Messen und Präsentationen angewendet werden, um die Vielfältigkeit des Fahrzeugs darzustellen oder dessen Konturen hervorzuheben. Das Projektionsbild 18 kann aber auch dazu vorgesehen sein, die Sicherheit des Kraftfahrzeugs 10 zu erhöhen.
-
Zum Beispiel könnte der Fall eintreten, dass eine lichttechnische Anlage des Kraftfahrzeugs 10, wie beispielsweise ein Blinker oder Bremsleuchten ausfallen. Wenn beispielsweise die hinteren Bremsleuchten ausfallen, kann sich das unbemannte Luftfahrzeug 12 derart hinter dem Kraftfahrzeug 10 positionieren, dass die Projektoreinheit 14 bei einem Bremsvorgang ein Projektionsbild 18 der Bremsleuchten auf die hintere Fahrzeugoberfläche projiziert. Hiermit können nachfolgende Fahrzeuge auch bei ausgefallenen Bremsleuchten gewarnt werden. Somit kann auch eine erhöhte Sicherheit erreicht werden.
-
Es könnten jedoch auch andere funktionale Lichtelemente des Kraftfahrzeugs 10, zum Beispiel eine Heckleuchte, mit einem Projektionsbild 18 realisiert werden, um die gesetzlichen Bestimmungen zur Fahrzeugbeleuchtung und dessen Signalanlagen zu erfüllen. Hierzu könnte insbesondere eine Umlenkoptik auf der Karosse des Kraftfahrzeugs 10 vorgesehen sein, die ein Projektionsbild 18 an die entsprechenden Stellen des Fahrzeugs 10 umleitet. Das hat den Vorteil, dass im Beispiel der Heckleuchte das unbemannte Luftfahrzeug 12 auch vor und neben dem Kraftfahrzeug 10 fliegen kann und das Projektionsbild 18, das auf das Kraftfahrzeug 10, bzw. die Umlenkoptik des Kraftfahrzeugs, projiziert wird, in das Fahrzeugheck umgelenkt wird. Des Weiteren kann mit der Umlenkoptik die Abstrahlrichtung des Lichts besser gelenkt werden, was zu einer besseren Sichtbarkeit führt.
-
Auch kann vorgesehen sein, dass das System mit dem unbemannten Luftfahrzeug 12 für die Projektion von Kommunikationszeichen für eine Mensch-Maschinen Kommunikation von einem autonom fahrenden Kraftfahrzeug 10 und einem menschlichen Verkehrsteilnehmer eingesetzt wird. Im Gegensatz zu einem Mensch als Fahrer bekommt bei einem autonom fahrenden Fahrzeug ein Fußgänger keine Rückmeldung aus dem Blickkontakt mit dem Fahrer, ob dieser den Fußgänger beispielsweise an einem Zebrastreifen gesehen hat und bremst. Hier kann bei einem autonom fahrenden Kraftfahrzeug 10 ein Projektionsbild 18 auf der Oberfläche des Kraftfahrzeug 10 anzeigen, ob das Fahrzeug den Fußgänger erkannt hat und einen Bremsvorgang einleitet.
-
In 2 ist ein Verfahrensdiagramm einer Ausführungsform dargestellt. In dem Schritt S10 wird eine relative Position eines Kraftfahrzeugs 10 zu einem unbemannten Luftfahrzeug 12 bestimmt. Mit dieser relativen Position kann anschließend im Schritt S12 mit fahrzeugbezogenen Daten, insbesondere bekannten Oberflächendaten, die aus CAD Daten bekannt sind, ein Projektionsbild 18 auf die Oberfläche des Kraftfahrzeugs 10 berechnet werden. Anschließend kann im Schritt S14 das Projektionsbild 18 von dem unbemannten Luftfahrzeug 12 auf die Oberfläche des Kraftfahrzeugs 10 projiziert werden.
-
In einer anderen beispielhaften Ausführungsform wird es durch eine mit einem oder mehreren Beamern (Projektoreinheit 14) ausgestattete Lichtfunktionsdrohne (unbemanntes Luftfahrzeug 12) möglich, nicht nur neue Lichtfunktionen rund um das Fahrzeug (Kraftfahrzeug 10) zu realisieren. Durch einen Projektor (Projektoreinheit 14) können auch verschiedenste Lichtinszenierungen durch Light Mapping auf das Fahrzeug (Kraftfahrzeug 10) projiziert werden. Hierdurch ergibt sich ein modernes, neuartiges Designelement und einige Inszenierungen sind möglich, wie beispielsweise eine Erweiterung von einer Leaving und Coming Home-Funktion. Des Weiteren können Konturen durch das Light Mapping auf das Fahrzeug hervorgehoben werden, je nach Kundenwunsch ein verändertes Design, die eine erhöhte Personalisierung des Fahrzeugs erzeugen, ein Projizieren von Kommunikationssymbolen und Warnhinweisen für die Kommunikation mit Fußgängern und Radfahrern bei autonom fahrenden Fahrzeugen und das Kennzeichnen von Einsatzfahrzeugen, wie zum Beispiel „Polizei“ und „Notarzt“ ermöglicht werden. Ferner können Lichtelemente ohne Bauraum in das Fahrzeug integriert werden, wie zum Beispiel ein wischender Blinker als Projektion, ohne diesen verbauen zu müssen.
-
Eine vorteilhafte technische Umsetzung ist, dass die Drohne (unbemanntes Luftfahrzeug 12) mit einem oder mehreren Projektormodulen (Projektoreinheit 14) beziehungsweise einer Kamera ausgestattet werden kann, die Position der Drohne (unbemanntes Luftfahrzeug 12) und des Fahrzeugs (Kraftfahrzeug 10) und dessen Verhältnis zueinander bekannt ist, die CAD Abmessungen (Konturen) des Fahrzeugs (Kraftfahrzeug 10) bekannt sind, eine Kommunikation zwischen der Drohne und dem Fahrzeug gewährleistet ist (zum Beispiel Bluetooth, WLAN) und das anhand markanter Punkte (zum Beispiel Fugen, der Antenne) ständig eine neue Berechnung des durch die Kamera aufgenommenen Bildes stattfindet. Anhand von diesem kann dann ein starkes Verwackeln abgemildert werden. Die Intelligenz des Systems beziehungsweise die Verarbeitung der Kameradaten und das Generieren des zu projizierenden Bildes kann beispielsweise im Fahrzeug stattfinden.
-
Insgesamt zeigen das Beispiel, wie durch die Erfindung Projektionsmapping durch einen fliegenden Lichtassistenten zur in Szene Setzung des eigenen Fahrzeugs erreicht werden kann.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- WO 2017/157863 A1 [0002]
- WO 2017/041303 A1 [0003]
- US 2018/0029522 A1 [0004]