DE102004044718A1 - Augmented Reality Autoren System - Google Patents

Augmented Reality Autoren System Download PDF

Info

Publication number
DE102004044718A1
DE102004044718A1 DE102004044718A DE102004044718A DE102004044718A1 DE 102004044718 A1 DE102004044718 A1 DE 102004044718A1 DE 102004044718 A DE102004044718 A DE 102004044718A DE 102004044718 A DE102004044718 A DE 102004044718A DE 102004044718 A1 DE102004044718 A1 DE 102004044718A1
Authority
DE
Germany
Prior art keywords
signal
control unit
auxiliary
central control
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004044718A
Other languages
English (en)
Inventor
André TEGTMEIER
Andreas Oppermann
Ralf Höppner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102004044718A priority Critical patent/DE102004044718A1/de
Publication of DE102004044718A1 publication Critical patent/DE102004044718A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft ein System (1) zum Erzeugen wenigstens einer Augmented Reality Hilfsanweisung (10) für ein Objekt, insbesondere ein Fahrzeug, umfassend eine zentrale Steuereinheit (2), eine mit der zentralen Steuereinheit (2) verbundene Bildwiedergabeeinheit (24), eine mit dem System (1) wirkverbundene 3-D-Datenbank (14), wobei die 3-D-Datenbank (14) eine Vielzahl von 3-D-Datensätzen (16) aufweist, wobei die 3-D-Datensätze (16) zusammen ein Modell in drei Dimensionen wenigstens von einem Teil des Objekts repräsentieren, und die zentrale Steuereinheit (2) ausgebildet ist, aus wenigstens einem 3-D-Datensatz (16) ein 2-D-Bildsignal zu erzeugen, wobei das 2-D-Bildsignal eine zweidimensionale Abbildung von wenigstens einem Teil des Objekts aus einem zuvor bestimmten Betrachungswinkel repräsentiert, und das 2-D-Bildsignal an die Bildwiedergabeeinheit (24) zu senden.
Es ist vorgesehen, dass das System (1) eine Benutzerschnittstelle (26) aufweist, welche ausgebildet ist, in Abhängigkeit von einer Benutzerinteraktion ein Benutzerinteraktionssignal zu erzeugen, und die zentrale Steuereinheit (2) ausgebildet ist, in Abhängigkeit von dem Benutzerinteraktionssignal mindestens ein, insbesondere grafisches oder akustisches Hilfsanweisungssignal zu erzeugen, wobei das Hilfsanweisungssignal eine Hilfsanweisung und einen räumlichen Ort repräsentiert, wobei der räumliche Ort auf das Modell in drei Dimensionen bezogen ist.
Die Erfindung betrifft ferner ein Verfahren zum Erzeugen ...

Description

  • Die Erfindung betrifft ein System, insbesondere ein Autoren-System zum Erzeugen wenigstens einer Augmented Reality Hilfsanweisung für ein Objekt, insbesondere ein Fahrzeug, mit den im Oberbegriff des Anspruchs 1 genannten Merkmalen sowie ein Verfahren zum Erzeugen einer Hilfsanweisung mit dem im Oberbegriff des Anspruchs 7 genannten Merkmalen.
  • Aus der WO 00/52539 ist ein Augmented Reality System zur situationsgerechten Unterstützung der Interaktion zwischen einem Anwender und einer technischen Vorrichtung bekannt. Bei einem solchen System, sowie bei aus dem Stand der Technik bekannten Augmented Reality Systemen, muss zum Erstellen einer Augmented Reality Hilfsanweisung jede Hilfsanweisung manuell in eine Textdatei eingetippt werden. Dieses Verfahren ist sehr zeitaufwendig, zusätzlich ergibt sich die Schwierigkeit, Hilfsanweisungen in einem virtuellen Raum zu platzieren.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein System anzugeben, welches die Erstellung einer Folge von Hilfsanweisungen für ein Augmented Reality System erleichtert. Diese Aufgabe wird durch ein System der Eingangs genannten Art gelöst, welches eine Benutzerschnittstelle aufweist, die ausgebildet ist, in Abhängigkeit von einer Benutzerinteraktion ein Benutzerinteraktionssignal zu erzeugen. Bei diesem System ist die zentrale Steuereinheit ausgebildet, in Abhängigkeit von dem Benutzerinteraktionssignal mindestens ein Hilfsanweisungssignal zu erzeugen, welches eine Hilfsanweisung und einen räumlichen Ort repräsentiert, wobei der räumliche Ort auf das Modell in drei Dimensionen referenziert ist. Die Hilfsanweisung kann eine graphische oder eine akustische Hilfsanweisung sein.
  • Die zentrale Steuereinheit ist weiter bevorzugt ausgebildet, das Hilfsanweisungssignal, welches einen räumlichen Ort repräsentiert, in Form eines Datensatzes abzuspeichern.
  • Dazu kann das System einen dafür vorgesehenen, mit der zentralen Steuereinheit wirkverbundenen Speicher aufweisen.
  • Alternativ dazu kann die zentrale Steuereinheit ausgebildet sein, ein der Hilfsanweisung entsprechendes Hilfsanweisungssignal an einen Empfänger zu senden. Hierzu kann das System eine Schnittstelle, beispielsweise eine mit der zentralen Steuereinheit wirkverbundene LAN-Schnittstelle (LAN = Local Area Network), aufweisen.
  • Eine graphische Hilfsanweisung, im Folgenden auch Video-Hilfsanweisung genannt, kann beispielsweise durch ein VRML-Modul (VRML = virtuell reality modelling language) oder ein APRIL-Modul (Augmented presentation and Interaktion Authoring Language) erzeugt werden und ist beispielsweise auf einem Bildschirm darstellbar.
  • Eine akustische Hilfsanweisung, im Folgenden auch Audio-Hilfsanweisung genannt, kann in Form von Luftschall hörbar wiedergegeben werden und kann beispielsweise in Textform, beispielsweise im ASCII-Format (ASCII = American Standard for Code Information Interchange) vorliegen und als Eingangssignal für eine als Sprachausgabeeinheit ausgebildete Audio-Ausgabeeinheit vorliegen. Die Audio-Ausgabeeinheit kann ein Bestandteil des Systems sein und einen der Hilfsanweisung entsprechenden Luftschall hörbar ausgeben. Eine akustische Hilfsanweisung kann auch eine Tonfolge, einen Klang, ein Geräusch oder Musik repräsentieren und kann dazu beispielsweise in abgetasteter, digitalisierter Form abgespeichert sein.
  • Bevorzugt weist das System einen Hilfsanweisungsspeicher auf, welcher mit der zentralen Steuereinheit verbunden ist und welcher zum Speichern einer Vielzahl von Hilfsanweisungen, insbesondere VRML-Hilfsanweisungen oder APRIL-Hilfsanweisungen, ausgebildet ist. In dieser Ausführungsform ist die zentrale Steuereinheit ausgebildet, in Abhängigkeit von dem Benutzerinteraktionssignal wenigstens eine Hilfsanweisung auszuwählen.
  • Eine 3D-Datenbank weist bevorzugt eine Vielzahl von 3D-Datensätzen auf, wobei jeder 3D-Datensatz beispielsweise ein Bauteil eines Fahrzeugs repräsentiert. Ein Fahrzeug kann ein Schienenfahrzeug, Luftfahrzeug, bevorzugt ein Kraftfahrzeug sein.
  • Das Modell in drei Dimensionen des Objektes, insbesondere des Kraftfahrzeuges, ist beispielsweise ein Gittermodell, bei welchem Objekte, beispielsweise Bauteile des Fahrzeugs, durch Begrenzungslinien beschrieben sind. Beispielsweise sind die Objekte vektoriell beschrieben.
  • In einer anderen Ausführungsform weist die 3D-Datenbank eine Vielzahl von Datensätzen auf, wobei die Datensätze jeweils voneinander verschiedene, aus verschiedenen Raumwinkeln in Bezug auf ein gemeinsames Zentrum des Objektes erfasste, zweidimensionale Abbildungen des Objektes repräsentieren.
  • In einer vorteilhaften Ausführungsform weist das System einen Eingang für ein Kamera-Bildsignal auf, wobei das Kamera-Bildsignal eine Abbildung wenigstens von Teilen des Objektes repräsentieren kann. Die zentrale Steuereinheit ist in dieser Ausführungsform ausgebildet, das Kamera-Bildsignal an die Bildwiedergabeeinheit zu senden. In dieser Ausführungsform kann eine Abbildung des Objektes vorteilhafterweise beim Erstellen einer Hilfsanweisung oder einer Folge von Hilfsanweisungen in einem vituellen Raum Hilfsanweisungen überlagert werden. Dieses Verfahren vereinfacht vorteilhafterweise das Erstellen von Augmented Reality Hilfsanweisungen für ein Objekt.
  • In einer vorteilhaften Ausführungsvariante weist das System eine Schnittstelle zum Verbinden mit einem Redaktionssystem auf, wobei das Redaktionssystem eine Datenbank mit einer Vielzahl von Hilfsanweisungen, insbesondere graphische oder Text entsprechende Hilfsanweisungen, aufweist.
  • In dieser Ausführungsform können aus dem Stand der Techik bekannte Reparatur- oder Montageanweisungen, welche graphische Abbildungen oder Text aufweisen, vorteilhaft an das System gesendet werden. In einer weiter bevorzugten Ausführungsform weist das System eine Transformationseinheit auf, welche ausgebildet ist, aus einer graphischen oder einer Text-Hilfsanweisung eine VRML- oder eine APRIL-Hilfsanweisung zu erzeugen.
  • Dadurch können aus dem Stand der Technik bekannte zweidimensionale Hilfsanweisungen zu dreidimensionalen Hilfsanweisungen konvertiert werden, welche in einem dreidimensionalen Raum dargestellt werden können.
  • In einer vorteilhaften Ausführungsvariante ist die Bildwiedergabeeinheit ein Bildmonitor oder ein für Licht transparenter Monitor. Licht ist eine mit dem menschlichen Auge wahrnehmbare elektromagnetische Strahlung, welche insbesondere eine Wellenlänge im Bereich von 380 bis 400 Nanometer aufweist. Beispielhafte Ausführungsformen für einen Bildmonitor sind ein aus dem Stand der Technik bekannter Röhrenmonitor, ein TFT-Display (TFT = Thin Film Transistor) oder ein LCD-Display (LCD = Liquid Crystal Display). Ein für Licht transparenter Monitor kann beispielsweise ein Head-mounted-Display, oder ein transparenter Bildschirm, beispielsweise basierend auf TFT- oder Flüssigkristalltechnologie sein. Vorteilhafte Ausführungsformen für einen solchen Bildschirm weisen eine Bildschirmdiagonale von beispielsweise 12, 15, 17 oder 19 Zoll auf.
  • Ein Head-mounted-Display oder ein transparenter Bildschirm können in einer vorteilhaften Ausführungsvariante einen Augenbewegungssensor aufweisen, welcher ausgebildet ist, eine Augenbewegung, insbesondere eine Blickrichtung eines durch oder auf das Display oder den Bildschirm blickenden Betrachters zu erfassen. Die zentrale Steuereinheit kann in dieser Ausführungsform ausgebildet sein, ein Benutzerinteraktionssignal in Abhängigkeit von einem einer Blickrichtung des Betrachters entsprechenden Blickrichtung-Signals zu erzeugen.
  • Dadurch kann vorteilhaft eine Hilfsanweisung in Abhängigkeit einer Blickrichtung eines Betrachters, insbesondere eines Augmented Reality Autors, erzeugt werden.
  • Die Erfindung betrifft auch ein Verfahren zum Erzeugen einer Hilfsanweisung. Das Verfahren umfasst die Schritte:
    • – Erzeugen eines 2D-Bildsignals aus wenigstens einem 3D-Datensatz, wobei der wenigstens eine 3D-Datensatz ein Modell in drei Dimensionen wenigstens von einem Teil eines Objektes repräsentiert und das 2D-Bildsignal eine zweidimensionale Abbildung von wenigstens einem Teil des Objekts aus einem zuvor bestimmten Betrachtungswinkel repräsentiert;
    • – Erzeugen mindestens einer, insbesondere einer graphischen oder akustischen Hilfsanweisung in Abhängigkeit eines Benutzerinteraktionssignals;
    • – Zuordnen der Hilfsanweisung zu einem räumlichen Ort bezogen auf das Modell in drei Dimensionen von wenigstens einem Teil des Objektes.
  • Ein Benutzerinteraktionssignal kann beispielsweise durch einen Augenbewegungssensor, einen Joystick, einen Trackball, eine berührungsempfindliche Oberfläche oder durch eine Spracheingabeeinheit erzeugt werden, welche jeweils unabhängig voneinander in einem System verwirklicht sein können.
  • Die Erfindung wird nachfolgend in Ausführungsbeispielen anhand der zugehörigen Zeichnung, die ein Ausführungsbeispiel für ein System, insbesondere eine Augmented Reality Autoren Umgebung, zeigt, näher erläutert.
  • Das System 1 weist eine zentrale Steuereinheit 2, eine Bildwiedergabeeinheit 24, eine Benutzerschnittstelleneinheit 26, eine Speichereinheit 4, eine 3D-Datenbank 14, ein Redaktionssystem 18, eine Trackingeinheit 20, eine Audio-Ausgabeeinheit 48 und einen Zeitgeber 46 auf.
  • Die Speichereinheit 4 weist einen Speicher 6 auf, welcher eine Vielzahl von Hilfsanweisungen 12 speichern kann. Der Speicher 6 ist über einen Daten-Bus 32a mit der zentralen Steuereinheit 2 verbunden. Die Speichereinheit 4 weist auch einen Speicher 8 auf, welcher eine Vielzahl von Datensätzen 10 speichern kann, wobei jeder Datensatz eine Folge von VRML- oder APRIL-Hilfsanweisungen repräsentieren kann.
  • Beispielsweise sind die Datensätze 10 XML-Datensätze (XML = Extensible Markup Language).
  • Der Speicher 8 ist über einen Daten-Bus 32 mit der zentralen Steuereinheit 2 verbunden. Der Daten-Bus 32 und der Daten-Bus 32a können zusammen einen gemeinsamen Daten-Bus bilden.
  • Die Benutzerschnittstelleneinheit 26 ist über eine Verbindungsleitung 28 mit der zentralen Steuereinheit verbunden. Die Benutzerschnittstelleneinheit 26 kann beispielsweise einen Augenbewegungssensor, einen Joystick, einen Trackball, eine Computer-Maus, eine Tastatur, ein Tastenfeld oder dergleichen, jeweils zum Erzeugen eines Benutzerinteraktionssignals in Abhängigkeit von einer Benutzerinteraktion aufweisen.
  • Die Bildwiedergabeeinheit 24 ist über eine Verbindungsleitung 30 mit der zentralen Steuereinheit 2 verbunden und zum Empfangen eines Bildsignals ausgebildet, wobei das Bildsignal eine Abbildung von wenigstens einem Teil eines Objektes repräsentieren kann.
  • Die Audio-Ausgabeeinheit 48 ist über eine Verbindungsleitung 50 mit der zentralen Steuereinheit 2 verbunden. Die Audio-Ausgabeeinheit 48 kann beispielsweise eine Hilfsanweisung 12, welche eine Audio-Hilfsanweisung sein kann, hörbar in Form von Luftschall ausgeben.
  • Die Trackingeinheit 20 ist über eine Verbindungsleitung 40 eingangsseitig mit einer Kamera 22 verbunden. Die Kamera 22 ist beispielsweise eine CCD-Kamera (CCD = Charge Coupled Device). Die Trackingeinheit 20 kann eingangsseitig ein von der Kamera 22 erzeugtes, eine Abbildung eines Objektes repräsentierendes Bildsignal erfassen und diesem Bildsignal eine Erfassungsrichtung zuordnen. Die Trackingeinheit 20 kann ausgangsseitig ein Bildsignal ausgeben, welches eine Abbildung des Objektes und eine Erfassungsrichtung repräsentiert, wobei die Erfassungsrichtung eine Richtung ist, aus der die Abbildung von der Kamera 22 erfasst worden ist.
  • Die Trackingeinheit 20 ist ausgangsseitig über eine Verbindungsleitung 38 mit der zentralen Steuereinheit 2 verbunden.
  • Die zentrale Steuereinheit 2 ist über eine Verbindungsleitung 36 mit dem Redaktionssystem 18 verbunden. Die zentrale Steuereinheit 2 kann über die Verbindungsleitung 36 von dem Redaktionssystem 18 gesendete Daten empfangen, wobei die Daten zweidimensionale, Graphik oder Text repräsentierende, Hilfsanweisungen repräsentieren können.
  • Die 3D-Datenbank 14 weist eine Vielzahl von 3D-Datensätzen 16 auf, welche zusammen ein Modell in drei Dimensionen wenigstens von einem Teil eines Fahrzeugs repräsentieren. Beispielsweise kann jeder 3D-Datensatz 16 ein Modell in drei Dimensionen eines Bauteils des Fahrzeugs repräsentieren. Die zentrale Steuereinheit 2 ist mit einem Zeitgeber 46 verbunden, welcher ausgebildet ist, ein Zeitsignal zu erzeugen, welches einem Takt oder einer Uhrzeit entspricht.
  • Die zentrale Steuereinheit 2 kann ein Steuerprogramm aufweisen, welches beispielsweise in der Speichereinheit 4 in einem in dieser Figur nicht dargestellten Speicherabschnitt abgespeichert sein kann.
  • Das Steuerprogramm kann beispielsweise in Abhängigkeit von einem über die Verbindungsleitung 28 empfangenen Benutzerinteraktionssignal einen oder mehrere 3D-Datensätze 16 aus der 3D-Datenbank 14 über die Verbindungsleitung 34 auslesen.
  • Die zentrale Steuereinheit 2 kann aus jedem 3D-Datensatz 16 ein 2D-Bildsignal erzeugen, welches eine zweidimensionale Abbildung des durch den 3D-Datensatz 16 repräsentierten Bauteils entspricht. Die zentrale Steuereinheit 2 kann das 2D-Bildsignal über die Verbindungsleitung 30 an die Bildwiedergabeeinheit 24 senden.
  • Die zentrale Steuereinheit 2 kann, beispielsweise im Anschluss daran, in Abhängigkeit von einem über die Verbindungsleitung 28 und von der Benutzerstelleneinheit 26 erzeugten Benutzerinteraktionssignal aus dem Speicher 6 wenigstens eine Hilfsanweisung 12 auslesen und ein der Hilfsanweisung 12 entsprechendes Hilfsanweisungssignal erzeugen. Die zentrale Steuereinheit 2 kann das Hilfsanweisungssignal derart erzeugen, dass die Hilfsanweisung einen räumlichen Ort, bezogen auf den ausgewählten 3D-Datensatz 16, repräsentiert, wobei das Hilfsanweisungssignal im Falle einer Video-Hilfsanweisung 12 zur zweidimensionalen Wiedergabe auf der Bildwiedergabeeinheit 24 vorgesehen ist.
  • Im Falle einer Audio-Hilfsanweisung 12 kann die zentrale Steuereinheit 2 ein entsprechendes Audio-Hilfsanweisungssignal erzeugen und dieses über die Verbindungsleitung 50 an die Audio-Ausgabeeinheit 48 zum hörbaren Ausgeben senden.
  • Die zentrale Steuereinheit 2 kann – zusätzlich zur Wiedergabe wenigstens eines 3D-Datensatzes 16 auf der Bildwiedergabeeinheit 24, oder unabhängig davon – ein über die Verbindungsleitung 38 empfangenes Bildsignal über die Verbindungsleitung 30 an die Bildwiedergabeeinheit 24 zur zweidimensionalen Wiedergabe senden.
  • Die zentrale Steuereinheit 2 kann – beispielsweise in Abhängigkeit eines über die Verbindungsleitung 28 empfangenen Benutzerinteraktionssignals, oder gesteuert durch das Steuerprogramm – über die Verbindungsleitung 36 einen Datensatz von dem Redaktionssystem 18 empfangen, welcher eine 2D-Hilfsanweisung repräsentiert. Die zentrale Steuereinheit 2 ist ausgebildet, den von dem Redaktionssystem 18 empfangenen Datensatz zu einer oder mehreren Hilfsanweisungen zu transformieren und über die Verbindungsleitung 32a an den Speicher 6 zu senden und dort abzuspeichern. Die Hilfsanweisungen 12 sind beispielsweise VRML- oder APRIL-Hilfsanweisungen, welche jeweils eine graphische Information zum dreidimensionalen Darstellen repräsentieren.
  • Die zentrale Steuereinheit 2 kann beispielsweise eine Folge von Hilfsanweisungen 12 – erzeugt in Abhängigkeit eines über die Verbindungsleitung 28 empfangenen Benutzerinteraktiossignals – über den Daten-Bus 32 an den Speicher 8 senden und dort als Datensatz 10, beispielsweise als XML-Datensatz, abspeichern.
  • Die zentrale Steuereinheit 2 kann alternativ dazu einen Datensatz 10 über eine Verbindungsleitung 42 an eine Schnittstelle 44 senden, welche beispielsweise eine LAN-Schnittstelle (LAN = Local Area Network), eine Wireless-LAN-Schnittstelle, eine Bluetooth-Schnittstelle oder dergleichen sein kann.
  • Die zentrale Steuereinheit 2 kann das Steuerprogramm in Abhängigkeit von einem von dem Zeitgeber 46 erzeugten Zeitsignal ausführen. Hilfsanweisungen können beispielsweise Arbeitsschritte zum Montieren oder Reparieren eines Fahrzeugs oder Teilen eines Fahrzeugs sein. Eine Hilfsanweisung kann beispielsweise ein Pfeil, ein animierter Pfeil, ein animiertes Objekt, ein Wagenhinweis, eine akustische Hilfsanweisung, welche beispielsweise einen Klang oder gesprochene Sprache repräsentieren kann, sein.
  • Ein Fahrzeug kann ein Personenkraftfahrzeug, ein Transporter, ein Luftfahrzeug, ein Wasserfahrzeug oder ein Schienenfahrzeug sein.
  • 1
    System
    2
    zentrale Steuereinheit
    4
    Speichereinheit
    6
    Speicher
    8
    Speicher
    10
    Datensätze
    12
    Datensätze (XML / VRML) – Hilfsanweisungen
    14
    3D-Datenbank
    16
    3D-Datensätze
    18
    Redaktionssystem
    20
    Trackingeinheit
    22
    Kamera
    24
    Bildwiedergabeeinheit
    26
    Benutzerschnittstelle
    28
    Verbindungsleitung
    30
    Verbindungsleitung
    32
    Daten-Bus
    32a
    Daten-Bus
    36
    Verbindungsleitung
    38
    Verbindungsleitung
    40
    Verbindungsleitung
    42
    Verbindungsleitung
    44
    LAN-Schnittstelle
    46
    Zeitgeber
    48
    Audio-Ausgabeeinheit
    50
    Verbindungsleitung

Claims (7)

  1. System (1) zum Erzeugen wenigstens einer Augmented Reality Hilfsanweisung (10) für ein Objekt, insbesondere ein Fahrzeug, umfassend eine zentrale Steuereinheit (2), eine mit der zentralen Steuereinheit (2) verbundene Bildwiedergabeeinheit (24), eine mit dem System (1) wirkverbundene 3D-Datenbank (14), wobei die 3D-Datenbank (14) eine Vielzahl von 3D-Datensätzen (16) aufweist, wobei die 3D-Datensätze (16) zusammen ein Modell in drei Dimensionen wenigstens von einem Teil des Objekts repräsentieren, und die zentrale Steuereinheit (2) ausgebildet ist, aus wenigstens einem 3D-Datensatz (16) ein 2D-Bildsignal zu erzeugen, wobei das 2D-Bildsignal eine zweidimensionale Abbildung von wenigstens einem Teil des Objekts aus einem zuvor bestimmten Betrachtungswinkel repräsentiert, und das 2D-Bildsignal an die Bildwiedergabeeinheit (24) zu senden, dadurch gekennzeichnet, dass das System (1) eine Benutzerschnittstelle (26) aufweist, welche ausgebildet ist, in Abhängigkeit von einer Benutzerinteraktion ein Benutzerinteraktionssignal zu erzeugen, und die zentrale Steuereinheit (2) ausgebildet ist, in Abhängigkeit von dem Benutzerinteraktionssignal mindestens ein, insbesondere grafisches oder akustisches Hilfsanweisungssignal zu erzeugen, wobei das Hilfsanweisungssignal eine Hilfsanweisung und einen räumlichen Ort repräsentiert, wobei der räumliche Ort auf das Modell in drei Dimensionen bezogen ist.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass das System (1) einen mit der zentralen Steuereinheit (2) verbundenen Hilfsanweisungsspeicher (6) zum Speichern einer Vielzahl von Hilfsanweisungen (12), insbesondere VRML-Hilfsanweisungen, aufweist und die zentrale Steuereinheit (2) ausgebildet ist, in Abhängigkeit von dem Benutzerinteraktionssignal wenigstens eine Hilfsanweisung auszuwählen und ein der Hilfsanweisung entsprechendes Hilfsanweisungssignal zu erzeugen.
  3. System nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Benutzerschnittstelleneinheit (26) einen Augenbewegungssensor aufweist, welcher ausgebildet ist, eine Blickrichtung eines Benutzers zu erfassen und ein der Blickrichtung entsprechendes Blickrichtungssignal zu erzeugen.
  4. System nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das System (1) einen Eingang für ein Kamera-Bildsignal aufweist, wobei das Kamera-Bildsignal eine Abbildung wenigstens von Teilen des Objekts repräsentiert, und die zentrale Steuereinheit (2) ausgebildet ist, das Kamera-Bildsignal an die Bildwiedergabeeeinheit (24) zu senden.
  5. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das System (1) eine Schnittstelle zum Verbinden mit einem Redaktionssystem (18) aufweist, wobei das Redaktionssystem (18) eine Datenbank mit einer Vielzahl von Hilfsanweisungen, insbesondere Grafik- oder Text-Hilfsanweisungen, aufweist.
  6. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildwiedergabeeinheit (24) ein Bildmonitor oder ein für Licht transparenter Bildmonitor, insbesondere ein Head-mounted-Display, ist.
  7. Verfahren zum Erzeugen einer Hilfsanweisung, umfassend die Schritte: – Erzeugen eines 2D-Bildsignals aus wenigstens einem 3D-Datensatz, wobei der wenigstens eine 3D-Datensatz ein Modell in drei Dimensionen wenigstens von einem Teil eines Objekts repräsentiert und das 2D-Bildsignal eine zweidimensionale Abbildung von wenigstens einem Teil des Objekts aus einem zuvor bestimmten Betrachtungswinkel repräsentiert; –Erzeugen mindestens einer, insbesondere grafischen oder akustischen Hilfsanweisung in Abhängigkeit von einem Benutzerinteraktionssignal; –Zuordnen der Hilfsanweisung zu einem räumlichen Ort bezogen auf das Modell in drei Dimensionen von wenigstens Teilen des Objekts.
DE102004044718A 2004-09-10 2004-09-10 Augmented Reality Autoren System Withdrawn DE102004044718A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004044718A DE102004044718A1 (de) 2004-09-10 2004-09-10 Augmented Reality Autoren System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102004044718A DE102004044718A1 (de) 2004-09-10 2004-09-10 Augmented Reality Autoren System

Publications (1)

Publication Number Publication Date
DE102004044718A1 true DE102004044718A1 (de) 2006-03-16

Family

ID=35853620

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004044718A Withdrawn DE102004044718A1 (de) 2004-09-10 2004-09-10 Augmented Reality Autoren System

Country Status (1)

Country Link
DE (1) DE102004044718A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008059086A1 (es) * 2006-11-16 2008-05-22 The Movie Virtual, S.L. Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada
DE102015205357A1 (de) * 2015-03-24 2016-10-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zur interaktiven Rekonstruktion von Artefakten und anderen zerlegten Gegenständen
DE102016120995A1 (de) 2016-11-03 2018-05-03 Visteon Global Technologies, Inc. Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug
US10885712B2 (en) 2017-07-12 2021-01-05 Nio Usa, Inc. Camera pose estimation method for augmented reality manual for cars

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000052539A1 (de) * 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Augmented-reality-system zur situationsgerechten unterstützung der interaktion zwischen einem anwender und einer technischen vorrichtung
DE10108064A1 (de) * 2001-02-20 2002-09-05 Siemens Ag Verknüpfte Eye-Tracking-Information innerhalb eines Augmented-Reality-Systems
DE10159610B4 (de) * 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000052539A1 (de) * 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Augmented-reality-system zur situationsgerechten unterstützung der interaktion zwischen einem anwender und einer technischen vorrichtung
DE10108064A1 (de) * 2001-02-20 2002-09-05 Siemens Ag Verknüpfte Eye-Tracking-Information innerhalb eines Augmented-Reality-Systems
DE10159610B4 (de) * 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008059086A1 (es) * 2006-11-16 2008-05-22 The Movie Virtual, S.L. Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada
DE102015205357A1 (de) * 2015-03-24 2016-10-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zur interaktiven Rekonstruktion von Artefakten und anderen zerlegten Gegenständen
DE102015205357A8 (de) * 2015-03-24 2017-01-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zur interaktiven Rekonstruktion von Artefakten und anderen zerlegten Gegenständen
DE102016120995A1 (de) 2016-11-03 2018-05-03 Visteon Global Technologies, Inc. Benutzerschnittstelle und Verfahren zur Eingabe und Ausgabe von Informationen in einem Fahrzeug
WO2018083214A1 (en) 2016-11-03 2018-05-11 Visteon Global Technologies, Inc. User interface and methods for inputting and outputting information in a vehicle
US10885712B2 (en) 2017-07-12 2021-01-05 Nio Usa, Inc. Camera pose estimation method for augmented reality manual for cars

Similar Documents

Publication Publication Date Title
DE69112451T2 (de) Verfahren und Vorrichtung zur Ausbildung für das Führen von Fahrzeugen.
DE3687915T2 (de) Änderung von Gesichtsausdrücken in der Kinematographie.
DE60300788T2 (de) Bild mit Feldtiefe aus Z-Pufferbilddaten und Alphamischung
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
EP1683063A1 (de) System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
EP1730970A1 (de) Vorrichtung und verfahren zur gleichzeitigen darstellung virtueller und realer umgebungsinformationen
DE102008012411A1 (de) Interaktive Methode zur integrierten Darstellung schematischer Netzpläne und geographischer Karten
WO2018087084A1 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit virtuellen bild- und audiodaten und ein mobiles gerät
DE102011087901A1 (de) Verfahren zur Darstellung eines Fahrzeugumfeldes
EP2058765A1 (de) Verfahren und Vorrichtung zum Texturieren eines Objektes eines virtuellen dreidimensionalen geometrischen Modells
DE102021128704A1 (de) Verfahren und System zur Augmentierung von LIDAR-Daten
DE102006052897A1 (de) Informationseinrichtung, vorzugsweise in einem Kraftfahrzeug und Verfahren zur Information über Fahrzeugdaten, insbesondere Fahrzeugfunktionen und deren Bedienung
DE102017108776A1 (de) Systeme, Verfahren und Vorrichtungen zur Synchronisation von Fahrzeugdaten mit aufgezeichnetem Audio
DE102004044718A1 (de) Augmented Reality Autoren System
DE102013016241A1 (de) Verfahren und Vorrichtung zur augmentierten Darstellung
EP1965173A2 (de) Navigationseinrichtung und Verfahren zur grafischen Ausgabe von Navigationsanweisungen
DE112020006855T5 (de) Simulationsvorrichtung und verarbeitungslast-einstelleinrichtung
DE102016114413A1 (de) Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum
DE102020003668A1 (de) Verfahren zum Anzeigen eines augmentierten Bildes
DE102015226045A1 (de) Verfahren und Steuereinheit zur Wiedergabe eines Audiosignals in einem Fahrzeug
EP1184794B1 (de) Verfahren und Vorrichtung zur Erstellung aktivierbarer Objekte für Elemente einer Videosequenz
DE10060587A1 (de) Verfahren und System zur automatischen Aktionssteuerrung bei Vorträgen
DE60109813T2 (de) Verfahren und vorrichtung zur darstellung dreidimensionaler szenen in virtueller realität
DE102019114495B3 (de) Visualisierungsanordnung
EP1655678A1 (de) Verfahren zum abrufbaren Speichern von Audiodaten in einer Computervorrichtung

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed

Effective date: 20110415

R016 Response to examination communication
R082 Change of representative
R002 Refusal decision in examination/registration proceedings
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150401