DE102005011616A1 - Mobile Trackingeinheit - Google Patents

Mobile Trackingeinheit Download PDF

Info

Publication number
DE102005011616A1
DE102005011616A1 DE102005011616A DE102005011616A DE102005011616A1 DE 102005011616 A1 DE102005011616 A1 DE 102005011616A1 DE 102005011616 A DE102005011616 A DE 102005011616A DE 102005011616 A DE102005011616 A DE 102005011616A DE 102005011616 A1 DE102005011616 A1 DE 102005011616A1
Authority
DE
Germany
Prior art keywords
camera
tracking unit
augmented reality
reality device
mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005011616A
Other languages
English (en)
Other versions
DE102005011616B4 (de
Inventor
André TEGTMEIER
Klaus-Christoph Dr. Ritter
Carsten PÖGE
Werner Scheffler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102005011616.7A priority Critical patent/DE102005011616B4/de
Priority to EP05750870A priority patent/EP1749248A1/de
Priority to PCT/EP2005/005781 priority patent/WO2005116785A1/de
Publication of DE102005011616A1 publication Critical patent/DE102005011616A1/de
Application granted granted Critical
Publication of DE102005011616B4 publication Critical patent/DE102005011616B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine mobile Trackingeinheit (10, 110). DOLLAR A Hierzu ist DOLLAR A - eine Kamera (40, 140, 144, 312) mit einem Empfänger für elektromagnetische Strahlung vorgesehen, welche ausgebildet ist, in einem Erfassungswinkel von einem Objekt (102) ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und ein eine Abbildung des Objekts (102) repräsentierendes Kamera-Bildsignal zu erzeugen, und DOLLAR A - ein Kamera-Positionssensor (328), welcher ausgebildet ist, ein einer Erfassungsrichtung der Kamera (40, 140, 144, 312) entsprechendes Kamera-Positionssignal zu erzeugen und dieses ausgangsseitig auszugeben, und DOLLAR A - wenigstens eine Bildwiedergabeeinheit (52, 152, 314) mit einem Eingang für ein Bildsignal und DOLLAR A - eine Augmented-Reality-Vorrichtung (301), welche eingangsseitig mit dem Kamera-Positionssensor (328) und ausgangsseitig mit der Bildwiedergabeeinheit (52, 152, 314) verbunden ist, und dass die Augmented-Reality-Vorrichtung (301) ausgebildet ist, in Abhängigkeit von dem Kamera-Positionssignal aus dem Kamera-Bildsignal ein eine Hilfsinformation repräsentierendes Hilfsinformations-Bildsignal zu erzeugen und dieses an die Bildwiedergabeeinheit (52, 152, 160, 162, 314) zu senden.

Description

  • Die Erfindung betrifft eine mobile Trackingeinheit, welche eine Kamera mit einem Empfänger für elektromagnetische Strahlung aufweist. Die Kamera ist ausgebildet, in einem Erfassungswinkel von einem Objekt ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen. Die Kamera kann ein eine Abbildung des Objekts repräsentierendes Kamera-Bildsignal erzeugen.
  • Die Trackingeinheit weist auch einen Kamera-Positionssensor auf, welcher ausgebildet ist, ein einer Erfassungsrichtung der Kamera entsprechendes Kamera-Positionssignal zu erzeugen und dieses ausgangsseitig auszugeben.
  • Die Trackingeinheit weist auch wenigstens eine Bildwiedergabeeinheit mit einem Eingang für ein Bildsignal auf.
  • Die Trackingeinheit weist auch eine Augmented-Reality-Vorrichtung auf, welche eingangsseitig mit dem Kamera-Positionssensor und ausgangsseitig mit der Bildwiedergabeeinheit verbunden ist. Die Augmented-Reality-Vorrichtung ist ausgebildet, in Abhängigkeit von dem Kamera-Positionssignal aus dem Kamera-Bildsignal ein eine Hilfsinformation repräsentierendes Hilfsinformations-Bildsignal zu erzeugen und dieses an die Bildwiedergabeeinheit zu senden.
  • Aus der WO 00/52539 ist ein Augmented-Reality-System zur situationsgerechten Unterstützung der Interaktion zwischen einem Anwender und einer technischen Vorrichtung bekannt. Das Augmented-Reality-System umfasst eine mobile Vorrichtung zum kontextabhängigen Einblenden von Montagehinweisen. Durch das kontextabhängige Einblenden von Montagehinweisen mit prozessoptimierter Vorgabe notwendiger Arbeitsschritte ergibt sich eine situationsgerechte Unterstützung von Arbeitsfolgen. Das Augmented-Reality-System der WO 00/52539 schlägt zur Visualisierung der Augmented-Reality-Information eine Datenbrille vor, welche neben einer im Bereich der Brillengläser angeordneten Anzeigevorrichtung eine Bilderfassungsvorrichtung in Form einer Kamera aufweist.
  • Head-Mounted-Displays haben den Nachteil, dass sie den Anwender bei einer durchzuführenden Reparatur einer Vorrichtung, insbesondere eines Kraftfahrzeugs, den Benutzer hinsichtlich Bewegungsfreiheit und Blickwinkel einschränken.
  • Ein weiteres Problem ist die Kalibrierung eines Augmented-Reality-Systems mit einem Head-Mounted-Display.
  • Der Erfindung liegt somit die Aufgabe zugrunde, ein Augmented-Reality-System mit einer einfachen Bedienbarkeit anzugeben, welches sich auch einfach kalibrieren lässt. Diese Aufgabe wird durch die erfindungsgemäße Trackingeinheit mit einem Augmented-Reality-System der eingangs genannten Art gelöst.
  • In einer bevorzugten Ausführungsform weist die mobile Trackingeinheit einen Gelenkarm auf. Der Gelenkarm setzt an einer Gelenkarmbasis mit einem Basisgelenk an. Die Gelenkarmbasis ist mit der Trackingeinheit verbunden und der Gelenkarm weist ein freies Gelenkarmende auf, wobei die Kamera im Bereich des freien Endes angeordnet ist. Der Gelenkarm weist zwischen der Gelenkarmbasis und dem freien Ende wenigstens ein Mittelgelenk auf. Der Positionssensor ist mit dem Basisgelenk der Gelenkarmbasis und mit dem Mittelgelenk wirkverbunden und ausgebildet, eine Basisgelenkstellung und eine Mittelgelenkstellung zu erfassen und das Kamera-Positionssignal in Abhängigkeit von der Basisgelenkstellung und der Mittelgelenkstellung zu erzeugen. Dadurch ist die Kameraposition exakt erfassbar, so dass die Augmented-Reality-Vorrichtung ein der Erfassungsrichtung entsprechendes Hilfsinformations-Bildsignal erzeugen kann.
  • Alternativ zu dem Gelenkarm kann eine Augmented-Reality-Vorrichtung auch einen Kamera-Positionssensor mit einem Laser-Interferometer aufweisen. Der Kamera-Positionssensor mit einem Laser-Interferometer ist ausgebildet, aus der Interferenz eines gesendeten und zurückreflektierten Laserstrahls eine Entfernung zu einem Objekt zu bestimmen. Bevorzugt weist ein Kamera-Positionssensor mit einem Laser-Interferometer eine Kalibriervorrichtung auf, welche ausgebildet ist, vorbestimmte Kalibrierorte anzumessen und nach Anmessen der Kalibrierorte eine Kameraposition in einem Koordinatensystem festzulegen.
  • Alternativ zu dem Laser-Interferometer kann ein Kamera-Positionssensor ein Ultraschall-Interferometer zur Positionsbestimmung aufweisen.
  • In einer bevorzugten Ausführungsform der Trackingeinheit weist der Gelenkarm ein erstes Mittelgelenk und ein zweites Mittelgelenk auf, welche jeweils als Schwenkgelenk ausgebildet sind. Ein Gelenkarm mit zwei Mittelgelenken ist vorteilhaft flexibel verstellbar. Weiter kann der Gelenkarm im Bereich des freien Endes ein Kameragelenk aufweisen, über welches die Kamera mit dem Gelenkarm verbunden ist. Dadurch kann die Kamera bei einer vorbestimmten Gelenkarmposition in verschiedene Erfassungsrichtungen bewegt werden.
  • Die Augmented-Reality-Vorrichtung ist bevorzugt zum Kalibrieren einer Gelenkarmposition ausgebildet.
  • In einer bevorzugten Ausführungsform weist der Gelenkarm eine Tastspitze auf, welche das freie Ende bildet. Die Tastspitze erleichtert vorteilhaft das Kalibrieren der Augmented-Reality-Vorrichtung. Beispielsweise kann an einem Fahrzeug im Bereich des Motorraums die Tastspitze an vorbestimmte Orte der Fahrzeugkarosserie zum Kalibrieren der Augmented-Reality-Vorrichtung gebracht werden. Solche Kalibrierorte können beispielsweise die Dom-Lager oder das Haubenschloss sein.
  • In einer alternativen Ausführungsform zu einer Kalibrierung mit Hilfe einer Tastspitze kann die Augmented-Reality-Vorrichtung zum berührungslosen Kalibrieren der Gelenkarmposition ausgebildet sein. Eine solche berührungslose Kalibrierung kann beispielsweise mit einem Laser-Interferometer oder einem Ultraschall-Interferometer erfolgen, welche Bestandteil der Augmented-Reality-Vorrichtung und somit der Trackingeinheit sein können.
  • In einer bevorzugten Ausführungsform weist die Augmented-Reality-Vorrichtung der mobilen Trackingeinheit eine 3-D-Datenbank mit einer Vielzahl von 3-D-Datensätzen auf, welche in ihrer Gesamtheit ein graphisches Modell in drei Dimensionen wenigstens von Teilen eines Fahrzeugs mit seinen Einzelkomponenten repräsentieren.
  • In einer bevorzugten Ausführungsvariante weist die Augmented-Reality-Vorrichtung ein mit der 3-D-Datenbank verbundenes VRML(Virtual Reality Modelling Language)-Modul auf. Das VRML-Modul ist ausgebildet, das Hilfsinformations-Bildsignal wenigstens teilweise aus mindestens einem 3-D-Datensatz in Abhängigkeit von dem Kamera-Positionssignal zu erzeugen.
  • Durch die Anbindung der 3-D-Datenbank kann vorteilhaft die Ansicht eines jeden Bauteils oder einer Gruppe von Bauteilen aus einer vorbestimmten Blickrichtung heraus errechnet werden.
  • Das VRML-Modul kann somit eine dreidimensionale Ansicht zur Darstellung in einer zweidimensionalen Ebene, insbesondere einer Bildwiedergabeeinheit, von wenigstens einem oder von mehreren Fahrzeugkomponenten für eine Kameraposition erzeugen.
  • Beispielsweise kann für eine Reparatur von vorbestimmten Motorteilen eine Auswahl der zu lösenden oder auszutauschenden Teile in einer entsprechenden Reihenfolge von dem VRML-Modul aus der 3-D-Datenbank ausgelesen werden und eine Ansicht dieser Teile für eine vorbestimmte Kameraposition errechnet werden.
  • Die Augmented-Reality-Vorrichtung kann dann das Hilfsinformations-Bildsignal aus dem Kamera-Bildsignal und aus einem Ausgangssignal des VRML-Moduls erzeugen. Das Hilfsinformations-Bildsignal kann beispielsweise Informationen über ein Drehmoment einer festzuziehenden Schraubverbindung enthalten.
  • In einer bevorzugten Ausführungsform weist die Augmented-Reality-Vorrichtung eine Spracheingabeeinheit auf und ist durch die Spracheingabeeinheit steuerbar ausgebildet. Durch eine Spracheingabeeinheit hat ein Benutzer beim Arbeiten mit der mobilen Trackingeinheit beide Hände frei für zu verrichtende Tätigkeiten.
  • In einer vorteilhaften Ausführungsform weist die Augmented-Reality-Vorrichtung eine Sprachausgabeeinheit auf, welche ausgebildet ist, ein eine gesprochene Sprache repräsentierendes Sprach-Hilfsanweisungssignal hörbar auszugeben. Durch ein Sprach-Hilfsanweisungssignal kann vorteilhaft eine interaktive Benutzung der mobilen Trackingeinheit ermöglicht werden.
  • Bevorzugt ist die Augmented-Reality-Vorrichtung ausgebildet, ein eine graphische Information oder Textinformation repräsentierendes Video-Hilfsanweisungssignal zu erzeugen und aus dem Kamera-Bildsignal und dem Hilfsanweisungssignal das Hilfsinformations-Bildsignal derart zu erzeugen, dass das Hilfsinformations-Bildsignal eine Abbildung repräsentiert, bei welcher die graphische Information oder Textinformation der Abbildung des Objekts überlagert ist.
  • Das Video-Hilfsanweisungssignal kann beispielsweise Hilfsanweisungen für vorbestimmte Reparaturschritte repräsentieren. Das Video-Hilfsanweisungssignal kann beispielsweise eine errechnete Ansicht von Fahrzeugkomponenten aus einer vorbestimmten Erfassungsrichtung der Kamera enthalten. Dazu kann das Video-Hilfsanweisungssignal Teile des Ausgangssignals des VRML-Moduls enthalten oder ein Ausgangssignal des VRML-Moduls selbst repräsentieren.
  • In einer anderen Ausführungsform weist die Augmented-Reality-Vorrichtung einen mobilen Kameraträger zum Anbringen an einem Objekt auf, wobei der mobile Kameraträger wenigstens eine Mobilkamera mit einem Empfänger für elektromagnetische Strahlung aufweist. Die Mobilkamera ist ausgebildet, in einer Erfassungsrichtung von dem Objekt ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und ein Mobilkamera-Bildsignal zu erzeugen. Das Mobilkamera-Bildsignal repräsentiert eine Abbildung wenigstens eines Teils des Objekts. Die Augmented-Reality-Vorrichtung weist einen Eingang für das Mobilkamera-Bildsignal auf, welcher mit der Mobilkamera wirkverbunden sein kann.
  • Eine Mobilkamera kann auch als Endoskop-Mobilkamera ausgebildet sein, welche einen langgestreckten Schaft mit einem auslenkbar beweglichen Ende umfasst. Die Endoskop-Mobilkamera ist ausgebildet, im Bereich des auslenkbar beweglichen Endes in einer Erfassungsrichtung von dem Objekt ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und ein Mobilkamera-Bildsignal zu erzeugen.
  • Beispielsweise kann die Augmented-Reality-Vorrichtung eine Bluetooth-Schnittstelle aufweisen, welche ausgangsseitig mit dem Eingang für das Mobilkamera-Bildsignal verbunden ist. Die Mobilkamera kann ausgangsseitig mit einer Bluetooth-Sendeeinheit verbunden sein.
  • Eine Bildwiedergabeeinheit einer mobilen Trackingeinheit kann schnurlos mit der Augmented-Reality-Vorrichtung verbunden sein. Beispielsweise kann die Bildwiedergabeeinheit über eine Infrarot-Schnittstelle oder über eine Bluetooth-Schnittstelle mit der Augmented-Reality-Vorrichtung schnurlos verbunden sein. In einer bevorzugten Ausführungsform weist die mobile Trackingeinheit Räder auf, welche im Bereich eines Bodens einer mobilen Trackingeinheit derart angeordnet sind, dass die mobile Trackingeinheit auf einem Boden rollbar ist. Beispielsweise können die Räder der mobilen Trackingeinheit arretierbar sein.
  • Bevorzugt ist die mobile Trackingeinheit im Bereich des Bodens derart ausgebildet, dass die Räder in dem Boden versenkt werden können. Dazu kann die mobile Trackingeinheit eine Versenkvorrichtung aufweisen.
  • Beispielsweise kann die Trackingeinheit einen mit der Versenkvorrichtung wirkverbundenen Versenkhebel aufweisen, welcher derart schwenkbar angeordnet und mit den Rädern wirkverbunden ist, dass die Räder durch eine Betätigung des Versenkhebels von Hand in dem Boden der mobilen Trackingeinheit nach innen versenkt werden können.
  • Bevorzugt ist die mobile Trackingeinheit ausgebildet, die Räder derart versenken zu können, dass die Räder in einer durch den Trackingeinheitboden gebildeten Ebene vollständig ins Innere der Trackingeinheit versenkbar sind.
  • In einer dazu alternativen Ausführungsform weist die Trackingeinheit Standfüße auf und die Trackingeinheit ist ausgebildet, die Räder derart ins Innere der Trackingeinheit zu versenken, dass die Standfüße mit einem Fußboden in Wirkkontakt geraten können.
  • Eine Bildwiedergabeeinheit der mobilen Trackingeinheit kann auch als See-Through-Head-Mounted-Display (STHMD) ausgebildet sein. Das Augmented-Reality-System kann eine Kalibriermarke in das See-Through-Head-Mounted-Display einblenden, was es einem Benutzer erleichtert, eine Hilfsanweisung mit einem gesehenen Objekt in Deckung zu bringen.
  • Weitere bevorzugte Ausgestaltungen der Erfindung ergeben sich aus den übrigen, in den Unteransprüchen genannten Merkmalen.
  • Die Erfindung wird nachfolgend in Ausführungsbeispielen anhand der zugehörigen Zeichnungen erläutert. Es zeigen:
  • 1 ein schematisches Ausführungsbeispiel einer mobilen Trackingeinheit mit einer Augmented-Reality-Vorrichtung und einem Gelenkarm, welcher im Bereich des Endes eine Kamera aufweist;
  • 2 eine schematische Darstellung einer mobilen Trackingeinheit mit einem Gelenkarm und einem mobilen Kameraträger zum Anbringen an einem Objekt und
  • 3 eine schematische Darstellung einer Augmented-Reality-Vorrichtung für eine mobile Trackingeinheit.
  • 1 zeigt eine schematische Darstellung einer mobilen Trackingeinheit 10. Die Trackingeinheit 10 weist einen Gelenkarm 20 auf, welcher an einer Oberseite der Trackingeinheit 10 angeordnet ist. Der Gelenkarm 20 weist eine Gelenkarmbasis 28 auf, an welcher der Gelenkarm 20 angesetzt ist. Die Gelenkarmbasis 28 weist ein Basisdrehgelenk 32 auf, über welches die Gelenkarmbasis 28 um eine Basisdrehachse 68 drehbar ausgebildet ist und weist dazu ein Basisdrehgelenk 32 auf. Die Gelenkarmbasis 28 ist über das Basisdrehgelenk 32 mit der Trackingeinheit 10 verbunden. Das Basisdrehgelenk 32 ist derart ausgebildet, dass die Gelenkarmbasis 28 um die Basisdrehachse 68 umlaufend drehbar ist. Dies ist durch die Drehrichtungen 53 und 54 angedeutet. Die Basisdrehachse 68 ist senkrecht zu einer Oberfläche der Trackingeinheit 10 angeordnet. Der Gelenkarm 20 weist ein sich längs erstreckendes starres Basisglied 22 auf. Das starre Basisglied 22 weist zwei Enden auf, wobei ein Ende über ein Basisschwenkgelenk 30 mit der Gelenkarmbasis 28 derart verbunden ist, dass das starre Basisglied 22 um eine senkrecht zur Basisdrehachse 68 verlaufende Schwenkachse schwenkbar mit der Gelenkarmbasis 28 verbunden ist. Das starre Basisglied 22 ist im Bereich des von der Gelenkarmbasis 28 abgewandeten Endes mit einem starren Mittelglied 24 über ein Mittelschwenkgelenk 34 verbunden. Das Mittelschwenkgelenk 34 ist derart ausgebildet und angeordnet, dass das starre Mittelglied 24 um eine Schwenkachse relativ zu dem starren Basisglied 22 schwenkbar ist, welche parallel zur Schwenkachse des Basisschwenkgelenks 30 verläuft. Das starre Mittelglied 24 ist ebenso wie das starre Basisglied 22 längs erstreckt ausgebildet und weist zwei Enden auf. Das starre Mittelglied 24 ist im Bereich des von dem Mittelgelenk 34 abgewandten Endes über ein Mittelschwenkgelenk 36 mit einem starren Endglied 26 verbunden. Das starre Endglied 26 ist längs gestreckt ausgebildet und weist zwei Enden auf. Das starre Endglied 26 weist im Bereich des von dem Mittelschwenkgelenk 36 abgewandten Endes ein Kameragelenk 39 auf.
  • Die mobile Trackingeinheit 10 weist eine Kamera 40 auf, welche über das Kameragelenk 39 mit dem starren Endglied 26 verbunden ist. Das Kameragelenk 39 ist derart mit dem starren Endglied 26 verbunden und ausgebildet, dass die Kamera 40 um eine Drehachse 46 umlaufend drehbar ist. Die Drehachse 46 verläuft koaxial zu einer Längsachse des starren Endglieds 26.
  • Das Kameragelenk 39 ist auch derart ausgebildet, dass die Kamera 40 um eine Schwenkachse 44 schwenkbar mit dem starren Endglied 26 verbunden ist, wobei die Schwenkachse 44 senkrecht zur Drehachse 46 verläuft. Dazu weist das Kameragelenk 39 ein Schwenkgelenk 38 auf, welches angeordnet ist, die Kamera 40 mit dem Kameragelenk 39 zu verbinden. In diesem Ausführungsbeispiel ist das Kameragelenk 39 als U-Profil mit einem U-Profilboden und zwei U-Profilseitenwänden ausgebildet. In diesem Ausführungsbeispiel verläuft die Drehachse 46 durch den U-Profilboden und die Schwenkachse 44 verläuft durch die U-Profilseitenwände.
  • Dargestellt sind auch Schwenkrichtungen 46 und 66 des starren Endglieds 26, Schwenkrichtungen 60 und 62 des starren Mittelglieds 24 und Schwenkrichtungen 58 und 56 des starren Basisglieds 22.
  • Das Kameragelenk 39, das Mittelschwenkgelenk 36, das Mittelschwenkgelenk 34 und das Basisschwenkgelenk 30 weisen jeweils einen Gelenksensor auf. Der Gelenksensor ist ausgebildet, die Winkelstellung eines Gelenks zu erfassen.
  • Der Schwenkwinkelbereich des Mittelschwenkgelenks 34 und des Basisschwenkgelenks 30 kann hierbei begrenzt sein, so dass der Gelenkarm 20 nicht durchsacken kann.
  • Der Schwenkwinkelbereich des Schwenkgelenks 38 um die Schwenkachse 44 kann begrenzt sein.
  • Die mobile Trackingeinheit 10 weist vier Räder 14 auf, welche im Bereich eines Bodens der mobilen Trackingeinheit 10 angeordnet sind. Die mobile Trackingeinheit 10 ist so ausgebildet, dass die Räder 14 ins Innere der mobilen Trackingeinheit 10 versenkbar sind. Dazu weist die mobile Trackingeinheit 10 einen Versenkhebel 16 auf, welcher um eine Schwenkachse 18 geschwenkt werden kann. Die Schwenkachse 18 verläuft parallel zu dem Boden der mobilen Trackingeinheit 10. Die Räder 14 sind mit dem Versenkhebel 16 derart wirkverbunden, dass die Räder 14 durch eine Schwenkbewegung 17 des Versenkhebels 16 in eine Versenkrichtung 68 nach oben bewegt werden können. Durch eine zur Schwenkrichtung 17 entgegengesetzte Schwenkbewegung des Versenkhebels 16 können die Räder 14 in eine Ausfahrrichtung 70 bewegt werden.
  • Beispielsweise kann die mobile Trackingeinheit 10 zum Versenken der Räder 14 im Boden der Trackingeinheit entsprechende Ausnehmungen zur Aufnahme der Räder 14 aufweisen.
  • Die mobile Trackingeinheit 10 ist ausgebildet, dass die Räder 14 derart versenkbar sind, dass der Boden der mobilen Trackingeinheit 10 in einer Versenkstellung der Räder 14 mit einem – nicht dargestellten – Fußboden in Wirkkontakt geraten. Dadurch sind die Räder 14 entlastet und die mobile Trackingeinheit 10 ist nicht mehr verrollbar fixiert.
  • Die mobile Trackingeinheit 10 weist eine Bildwiedergabeeinheit 52 auf. Die Bildwiedergabeeinheit 52 kann als TFT-Display ausgebildet sein. Die mobile Trackingeinheit 10 weist eine Rechnereinheit 48 mit einer Augmented-Reality-Vorrichtung auf.
  • Die mobile Trackingeinheit 10 weist auch eine Eingabeeinheit 50 auf. Die Eingabeeinheit 50 kann als Tastatur ausgebildet sein.
  • Die Bildwiedergabeeinheit 52 und die Eingabeeinheit 50 sind mit der Rechnereinheit 48 verbunden.
  • Der Gelenkarm 20 der mobilen Trackingeinheit 10 weist auch eine Leuchte 42 auf. Die Leuchte 42 ist an dem starren Endglied 26, beispielsweise im Bereich des freien Endes angeordnet. Die Leuchte 42 kann mit dem starren Endglied 26 schwenkbar verbunden sein. Die Leuchte 42 kann eine Halogenlampe oder wenigstens eine Lumineszenzdiode aufweisen.
  • Der Gelenkarm 20 der mobilen Trackingeinheit 10 weist im Bereich des freien Endes eine Testspitze 41 auf, deren Ende das freie Ende des Gelenkarms 20 bildet. Die Tastspitze 41 ist zum Kalibrieren der Augmented-Reality-Vorrichtung vorgesehen.
  • 2 zeigt eine Ausführungsform einer mobilen Trackingeinheit 110. Die mobile Trackingeinheit 110 weist einen Gelenkarm 120 auf, welcher an einer Gelenkarmbasis 128 angesetzt ist. Die Gelenkarmbasis 128 ist mit der mobilen Trackingeinheit 110 verbunden und ist an einer Oberseite der mobilen Trackingeinheit 110 angeordnet und mit dieser über ein Basisdrehgelenk 132 verbunden.
  • Die Gelenkarmbasis 128 weist ein Schwenkgelenk 130 auf, über welches ein starres Basisglied 122 mit der Gelenkarmbasis 128 verbunden ist.
  • Das starre Basisglied 122 weist im Bereich des von dem Basisschwenkgelenk 130 abgewandten Endes ein Mittelschwenkgelenk 134 auf. Das starre Basisglied 122 ist über das Mittelschwenkgelenk 134 mit einem starren Mittelglied 124 verbunden. Das starre Mittelglied 124 ist über ein Mittelschwenkgelenk 136 im Bereich des von dem Mittelschwenkgelenk 134 abgewandten Endes mit einem starren Endglied 126 verbunden.
  • Das starre Endglied 126 weist im Bereich eines freien Endes eine Bildwiedergabeeinheit 160 auf. Das starre Endglied 126 weist auch im Bereich des freien Endes eine Leuchte 142 auf, welche beispielsweise schwenkbar mit dem starren Endglied 126 verbunden sein kann. Im Bereich des freien Endes des starren Endglieds 126 ist eine Testspitze 141 angeordnet, deren Ende das freie Ende des Gelenkarms 120 bildet.
  • Die mobile Trackingeinheit 110 weist auch vier Räder 114 auf, welche mit einem Versenkhebel 116 derart wirkverbunden sind, dass die Räder 114 durch eine Schwenkbewegung des Versenkhebels 116 jeweils in einem zum Versenken des jeweiligen Rades vorgesehenen Hohlraum der Trackingeinheit 110 versenkt werden können.
  • Die mobile Trackingeinheit 110 weist auch eine Rechnereinheit 148 mit einer Augmented-Reality-Vorrichtung, einer Eingabeeinheit 150 und einer Bildwiedergabeeinheit 152 auf.
  • Die Bildwiedergabeeinheit 152 und die Eingabeeinheit 150 sind mit der Rechnereinheit 148 verbunden. Die Bildwiedergabeeinheit 152 kann beispielsweise ein TFT-Bildschirm sein. Die Eingabeeinheit 150 kann beispielsweise eine Tastatur sein.
  • Dargestellt ist auch ein zu reparierendes Fahrzeug 102. Das zu reparierende Fahrzeug 102 weist eine Motorhaube 104 auf. Die Motorhaube 104 ist in geöffnetem Zustand dargestellt.
  • Die mobile Trackingeinheit 110 umfasst in dieser Ausführungsform einen mobilen Kameraträger 146. Der mobile Kameraträger 146 ist stabförmig ausgebildet und weist entlang einer Stablängsachse im Bereich eines ersten äußeren Drittelabschnitts eine erste Mobilkamera 140 und im Bereich eines zweiten äußeren Drittelabschnitts, welcher den ersten äußeren Drittelabschnitt gegenüberliegt, eine zweite Mobilkamera 144 auf. Die erste Mobilkamera 140 und die zweite Mobilkamera 144 sind mit der Rechnereinheit 148 und somit mit der Augmented-Reality-Vorrichtung wirkverbunden.
  • Beispielsweise weist die Rechnereinheit 148 dazu eine Bluetooth-Schnittstelle auf. Alternativ zu der Bluetooth-Schnittstelle kann die Rechnereinheit 148 eine LAN-Schnittstelleneinheit (LAN = Local Area Network) aufweisen.
  • Die erste Mobilkamera 140 und die zweite Mobilkamera 144 können in diesem Ausführungsbeispiel mit der LAN-Schnittstelleneinheit wenigstens zeitweise verbunden sein. Die erste Mobilkamera 140 und die zweite Mobilkamera 144 können jeweils CCD-Kamera ausgebildet sein.
  • Die mobile Trackingeinheit 110 umfasst auch eine mobile Bildwiedergabeeinheit 162, welche mit dem mobilen Kameraträger 146 verbunden ist.
  • Die mobile Bildwiedergabeeinheit 162 kann mit der Rechnereinheit 148 verbunden sein. Beispielsweise umfasst die Rechnereinheit 148 dazu eine Bluetooth-Schnittstelle oder eine Infrarot-Schnittstelle, welche ausgebildet sind, die Rechnereinheit 148 mit der mobilen Bildwiedergabeeinheit 162 zu verbinden.
  • Die Infrarot-Schnittstelleineinheit kann beispielsweise gemäß der IRDA-Norm (IRDA = Infrared Data Association) ausgebildet sein.
  • Im Anwendungsfall können beispielsweise die erste Mobilkamera 140 und die zweite Mobilkamera 144 jeweils ein Kamera-Bildsignal erzeugen, weiches jeweils eine Abbildung eines Objekts, beispielsweise eines zu reparierenden Motors, entspricht.
  • Zum Anwenden einer Augmented-Reality-Vorrichtung mit einem mobilen Kameraträger 146 muss zunächst der Erfassungsbereich, das heißt der Erfassungswinkel und die Erfassungsrichtung, der ersten Kamera 140 und der zweiten Kamera 144 kalibriert werden. Dazu kann beispielsweise an einem vorbestimmten Ort im Motorraum des Fahrzeugs 102 wenigstens ein Marker angebracht werden. Ein solcher Marker kann beispielsweise ein Infrarot-Marker sein oder ein Papiermarker, welcher mit einem spezifischen Muster bedruckt ist. Das Infrarot-Signal oder das spezifische Muster des Papiermarkers können in einer von der Kamera erfassten Abbildung in dem Kamera-Bildsignal wiedererkannt werden. Dazu kann die Augmented-Reality-Vorrichtung eine Marker-Erkennungseinheit aufweisen. Die Marker-Erkennungseinheit ist ausgebildet, in Abhängigkeit von einer Markerposition in einer Abbildung eines Objekts ein Kamera-Positionssignal zu erzeugen und dieses ausgangsseitig auszugeben.
  • 3 zeigt eine schematische Darstellung einer Ausführungsform einer Augmented-Reality-Vorrichtung 301 für eine mobile Trackingeinheit. Die Augmented-Reality-Vorrichtung 301 weist eine zentrale Verarbeitungseinheit 310 auf. Die zentrale Verarbeitungseinheit 310 kann beispielsweise ein Mikroprozessor sein. Die Augmented-Reality-Vorrichtung 301 weist eine Kamera 312 auf. Die Kamera 312 weist einen Empfänger für elektromagnetische Strahlung auf und ist ausgebildet, in einem Erfassungswinkel von einem Objekt ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und ein eine Abbildung des Objekts repräsentierendes Kamera-Bildsignal zu erzeugen.
  • Die Augmented-Reality-Vorrichtung 301 für eine Trackingeinheit weist auch einen Kamera-Positionssensor 328 auf. Der Kamera-Positionssensor 328 ist ausgebildet ein einer Erfassungsrichtung der Kamera entsprechendes Kamera-Positionssignal zu erzeugen und dieses ausgangsseitig auszugeben.
  • Die Augmented-Reality-Vorrichtung 301 weist auch Gelenksensoren 334, 332, 330 und 336 auf. Die Gelenksensoren 334, 332, 330, 336 sind jeweils mit einem Schwenk- oder Drehgelenk eines Gelenkarms wirkverbunden und ausgebildet sind, eine Winkelstellung des entsprechenden Gelenkes zu erfassen und ein der Winkelstellung des Gelenkes entsprechendes Gelenkwinkelsignal zu erzeugen und dieses ausgangsseitig auszugeben.
  • Beispielsweise kann ein Gelenksensor ein Drehpotentiometer aufweisen, welches einen Ohm'schen Widerstand aufweist. Der Ohm'sche Widerstand des Drehpotentiometers ist abhängig von einer Winkelstellung eines wenigstens teilweise umlaufenden Schleifkontakts. Der Schleifkontakt ist mit dem Dreh- oder Schwenkgelenk derart wirkverbunden, dass eine Drehwinkelstellung eines Dreh- oder Schwenkgelenks einer Drehwinkelstellung des Schleifkontakts des Drehpotentiometers entspricht.
  • Das Drehpotentiometer kann mit dem Dreh- oder Schwenkgelenk auf einer gemeinsamen Welle angeordnet sein oder beispielsweise über einen Zahnriemen mit dem Dreh- oder Schwenkgelenk wirkverbunden sein.
  • Denkbar ist auch ein optischer Winkelsensor, bei welchem eine Anzahl von Fotodioden und eine der Anzahl der Fotodioden entsprechende Anzahl von Lumineszenzdioden aufweist. Die Fotodioden und die Lumineszenzdioden sind jeweils derart angeordnet, dass genau eine Fotodioden im Strahlengang genau einer entsprechenden Lumineszenzdiode angeordnet ist.
  • Der optische Winkelsensor weist eine bewegliche Trennscheibe auf, welche angeordnet und ausgebildet ist, den Strahlengang zwischen wenigstens einer Lumineszenzdiode, und der entsprechenden Fotodiode in Abhängigkeit von einer Winkelstellung des Dreh- oder Schwenkgelenks zu unterbrechen.
  • Die Augmented-Reality-Vorrichtung 301 weist auch eine Bildwiedergabeeinheit 314 mit einer berührungsempfindlichen Oberfläche 316 auf. Die berührungsempfindliche Oberfläche 316 ist ausgebildet, in Abhängigkeit von einer Berührung an einem Berührungsort der berührungsempfindlichen Oberfläche 316 ein den Berührungsort repräsentierendes Berührungssignal zu erzeugen und dieses ausgangsseitig auszugeben.
  • Die Bildwiedergabeeinheit 314 kann als TFT-Display ausgebildet sein (TFT-Display = Thin-Film-Transistor-Display).
  • Die Augmented-Reality-Vorrichtung 301 weist auch eine 3-D-Datenbank mit einer Vielzahl von 3-D-Datensätzen auf. Die 3-D-Datensätze repräsentieren in ihrer Gesamtheit ein graphisches Modell in drei Dimensionen wenigstens von Teilen eines Objekts, insbesondere eines Fahrzeugs, mit seinen Einzelkomponenten. Die Augmented-Reality-Vorrichtung 301 weist auch eine 3-D-Berechnungseinheit 318 auf, welche mit der 3-D-Datenbank 320 über eine Verbindungsleitung 364 verbunden ist. Die 3-D-Berechnungseinheit 318 ist über eine Verbindungsleitung 362 mit der zentralen Verarbeitungseinheit 310 verbunden und ausgebildet, in Abhängigkeit von einem Kamera-Positionssignal aus wenigstens einem einen 3-D-Datensatz repräsentierenden 3-D-Datensatzsignal ein 3-D-Hilfsanweisungssignal zu erzeugen. Das 3-D-Hilfsanweisungssignal repräsentiert eine Abbildung in zwei Dimensionen wenigstens eines dreidimensionalen Objekts in einer dem Kamera-Positionssignal entsprechenden Erfassungsrichtung.
  • Die Augmented-Reality-Vorrichtung 301 weist auch einen Hilfsanweisungsspeicher 322 auf, welcher über eine bidirektionalen Datenbus 366 mit der zentralen Verarbeitungseinheit 310 verbunden ist. Der Hilfsanweisungsspeicher 322 weist eine Anzahl von Datensätzen auf. Ein Datensatz kann ein Video-Datensatz sein, welcher eine graphische Information oder eine Textinformation repräsentiert. Ein Datensatz kann alternativ dazu ein Audio-Datensatz sein, welcher gesprochene Sprache repräsentiert. Die zentrale Verarbeitungseinheit 310 ist ausgebildet, über den bidirektionalen Datenbus 366 einen Audio-Datensatz oder einen Video-Datensatz aus dem Hilfsanweisungsspeicher 322 auszulesen und ein dem Audio-Datensatz entsprechendes Audio-Hilfsanweisungssignal oder ein dem Video-Datensatz entsprechendes Video-Hilfsanweisungssignal zu erzeugen.
  • Die Augmented-Reality-Vorrichtung 301 weist auch eine Spracheingabeeinheit 323 auf. Die Spracheingabeeinheit 323 ist eingangsseitig über eine Verbindungsleitung 376 mit einem Mikrophon 324 und ausgangsseitig über eine Verbindungsleitung 374 mit der zentralen Verarbeitungseinheit 310 verbunden. Das Mikrophon 324 ist ausgebildet, Luftschall zu empfangen und ein dem Luftschall entsprechendes Mikrophon-Signal zu erzeugen und dieses ausgangsseitig auszugeben.
  • Die Spracheingabeeinheit 323 ist ausgebildet, das Mikrophon-Signal zu digitalisieren und gemäß einer vorbestimmten Zuordnungsvorschrift aus dem digitalisierten Mikrophon-Signal ein ASCII-Signal zu erzeugen und ausgangsseitig auszugeben. Das ASCII-Signal repräsentiert eine Textinformation (ASCII = American Standard Code for Information Interchange).
  • Die Augmented-Reality-Vorrichtung 301 weist auch eine Audio-Ausgabeeinheit 326 auf. Die Audio-Ausgabeeinheit 326 weist einen Lautsprecher zur Wandlung eines elektrischen Signals in Luftschall auf und ist eingangsseitig über eine Verbindungsleitung 372 mit der zentralen Verarbeitungseinheit 310 verbunden.
  • Die Bildwiedergabeeinheit 314 ist über eine Verbindungsleitung 368 eingangsseitig mit der zentralen Verarbeitungseinheit 310 verbunden.
  • Die berührungsempfindliche Oberfläche 316 ist ausgangsseitig über eine Verbindungsleitung 370 mit der zentralen Verarbeitungseinheit 310 verbunden.
  • Der Kamera-Positionssensor 328 ist ausgangsseitig über eine Verbindungsleitung 352 mit der zentralen Verarbeitungseinheit verbunden.
  • Die Kamera 312 ist ausgangsseitig über eine Verbindungsleitung 350 mit der zentralen Verarbeitungseinheit 310 verbunden.
  • Der Kamera-Positionssensor 328 ist eingangsseitig über eine Verbindungsleitung 360 mit dem Gelenksensor 334, eingangsseitig über eine Verbindungsleitung 358 mit dem Gelenksensor 332, eingangsseitig über eine Verbindungsleitung 356 mit dem Gelenksensor 330 und eingangsseitig über eine Verbindungsleitung 354 mit dem Gelenksensor 336 verbunden.
  • Die Funktionsweise der Augmented-Reality-Vorrichtung 301 soll nun im Folgenden erläutert werden:
    Die Kamera 312 kann ein einem zu erfassenden Objekt entsprechendes Kamera-Signal erzeugen und dieses ausgangsseitig über die Verbindungsleitung 350 an die zentrale Verarbeitungseinheit 310 senden.
  • Der Kamera-Positionssensor 328 kann über die Verbindungsleitungen 360, 358, 356 und 354 jeweils ein Winkelsignal empfangen, welches einer Gelenkstellung eines entsprechenden Dreh- oder Schwenkgelenks eines Gelenkarmes entspricht.
  • Der Kamera-Positionssensor 328 kann in Abhängigkeit von den Winkelsignalen ein Kamera-Positionssignal erzeugen, welches eine Kameraposition in einem vorbestimmten Koordinatensystem und eine Erfassungsrichtung repräsentiert und dieses ausgangsseitig über die Verbindungsleitung 352 an die zentrale Verarbeitungseinheit 310 senden.
  • Die zentrale Verarbeitungseinheit 310 kann das Kamera-Positionssignal über die bidirektionale Verbindungsleitung 362 an die 3-D-Berechnungseinheit 318 senden. Die 3-D-Berechnungseinheit 318 kann in Abhängigkeit von einem über die Verbindungsleitung 362 empfangenen Benutzer-Interaktionssignal wenigstens einen 3-D-Datensatz aus der 3-D-Datenbank 320 auslesen und ein dem 3-D-Datensatz entsprechendes 3-D-Datensatzsignal erzeugen.
  • Die 3-D-Berechnungseinheit ist weiter ausgebildet, in Abhängigkeit von dem Kamera-Positionssignal ein 3-D-Hilfsanweisungssignal zu erzeugen und dieses ausgangsseitig über die bidirektionale Verbindungsleitung 362 an die zentrale Verarbeitungseinheit 310 zu senden.
  • Die zentrale Verarbeitungseinheit 310 kann das Benutzer-Interaktionssignal in Abhängigkeit von einem über die Verbindungsleitung 370 empfangenen Berührungssignal erzeugen und das Benutzer-Interaktionssignal über die Verbindungsleitung 362 an die 3-D-Berechnungseinheit senden.
  • Die 3-D-Datensätze können beispielsweise einzelne Objekte eines Fahrzeugmodells repräsentieren. Beispielsweise kann die Hand eines Benutzers 305 einen Ort der Berührungsempfindlichen Oberfläche 316 berühren, welcher einem vorbestimmten Reparaturprogramm entspricht. Die zentrale Verarbeitungseinheit 310 kann daraufhin ein Benutzer-Interaktionssignal erzeugen, welches aus der 3-D-Datenbank 320 auszulesenden 3-D-Datensätzen entspricht.
  • Alternativ zu dem Berührungssignal kann die zentrale Verarbeitungseinheit 310 das Benutzer-Interaktionssignal in Abhängigkeit von dem über die Verbindungsleitung 374 empfangenen ASCII-Signal der Spracheingabeeinheit 323 erzeugen.
  • Die zentrale Verarbeitungseinheit 310 kann über den bidirektionalen Datenbus 366 wenigstens einen Audiodatensatz auslesen und ein dem Audiodatensatz entsprechendes Audio-Hilfsanweisungssignal erzeugen und dieses über die Verbindungsleitung 372 an die Audioausgabeeinheit 326 senden.
  • Die zentrale Verarbeitungseinheit 310 kann auch einen Video-Datensatz aus dem Hilfsanweisungsspeicher 322 über den bidirektionalen Datenbus 366 auslesen und ein dem Video-Datensatz entsprechendes Video-Hilfsanweisungssignal erzeugen.
  • Die zentrale Verarbeitungseinheit 310 ist ausgebildet, aus dem eingangsseitig über die Verbindungsleitung 350 empfangenen Kamera-Bildsignal, dem über die bidirektionale Verbindungsleitung 362 empfangenen 3-D-Hilfsanweisungssignal und aus dem Video-Hilfsanweisungssignal ein Hilfsinformations-Bildsignal derart zu erzeugen, dass das Hilfsinformations-Bildsignal eine Abbildung repräsentiert, bei welcher eine graphische Information oder eine Textinformation der Abbildung eines Objekts überlagert sind.
  • Die zentrale Verarbeitungseinheit 310 kann das Hilfsinformations-Bildsignal über die Verbindungsleitung 368 ausgangsseitig an die Bildwiedergabeeinheit 314 senden.
  • Alternativ zur Verbindungsleitung 350 kann in einer anderen Ausführungsform der Augmented-Reality-Vorrichtung 301 die Kamera 312 über eine Funkdatenschnittstelle mit der zentralen Verarbeitungseinheit 310 verbunden sein.
  • Die Funkdaten-Schnittstelle ist ausgebildet, ein Kamera-Bildsignal schnurlos zu übertragen. Die Funkdaten-Schnittstelle kann beispielsweise eine Bluetooth-Schnittstelle oder eine Infrarot-Schnittstelle, insbesondere eine IRDA-Schnittstelle, sein (IRDA = Infrared Data Association).
  • Die Bildwiedergabeeinheit 314 kann dementsprechend über eine Funkdaten-Schnittstelle mit der zentralen Verarbeitungseinheit 310 verbunden sein.
  • 10, 110
    mobile Trackingeinheit
    14, 114
    Räder
    16, 116
    Versenkhebel
    18
    Schwenkachse
    20, 120
    Gelenkarm
    22, 122
    starres Basisglied
    24, 124
    starres Mittelglied
    26, 126
    starres Endglied
    28, 128
    Gelenkarmbasis
    30, 130
    Basisschwenkgelenk
    32, 132
    Basisdrehgelenk
    34, 134
    Mittelschwenkgelenk
    36, 136
    Mittelschwenkgelenk
    38
    Schwenkgelenk
    39
    Kameragelenk
    40
    Kamera
    41, 141
    Tastspitze
    42, 140, 142
    Leuchte
    44
    Schwenkachse
    46
    Drehachse
    48, 148
    Rechnereinheit
    50, 150
    Eingabeeinheit
    52, 152
    Bildwiedergabeeinheit
    53, 54
    Drehrichtung
    56, 58, 60, 62, 64, 66
    Schwenkrichtung
    68
    Basisdrehachse
    102
    Fahrzeug
    104
    Motorhaube
    140
    erste Mobilkamera
    144
    zweite Mobilkamera
    146
    mobiler Kameraträger
    160, 162
    Bildwiedergabeeinheit
    301
    Augmented-Reality-Vorrichtung für eine Trackingeinheit
    305
    Benutzer
    310
    zentrale Verarbeitungseinheit
    312
    Kamera
    314
    Bildwiedergabeeinheit
    316
    berührungsempfindliche Oberfläche
    318
    3-D-Berechnungseinheit
    320
    3-D-Datenbank
    322
    Hilfsanweisungsspeicher
    323
    Spracheingabeeinheit
    324
    Mikrophon
    326
    Kamera-Positionssensor
    328
    Kamera-Positionssensor
    330, 332, 334, 336
    Gelenksensor
    350
    Verbindungsleitung
    352
    Verbindungsleitung
    354
    Verbindungsleitung
    356
    Verbindungsleitung
    358
    Verbindungsleitung
    360
    Verbindungsleitung
    362
    bidirektionale Verbindungsleitung
    364
    bidirektionaler Datenbus
    366
    Verbindungsleitung
    368
    Verbindungsleitung
    370
    Verbindungsleitung
    372
    Verbindungsleitung
    374
    Verbindungsleitung
    376
    Verbindungsleitung

Claims (15)

  1. Mobile Trackingeinheit (10, 110), gekennzeichnet durch – eine Kamera (40, 140, 144, 312) mit einem Empfänger für elektromagnetische Strahlung, welche ausgebildet ist, in einem Erfassungswinkel von einem Objekt (102) ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und ein eine Abbildung des Objekts (102) repräsentierendes Kamera-Bildsignal zu erzeugen, und – einen Kamera-Positionssensor (328), welcher ausgebildet ist, ein einer Erfassungsrichtung der Kamera (40, 140, 144, 312) entsprechendes Kamera-Positionssignal zu erzeugen und dieses ausgangsseitig auszugeben, und – wenigstens eine Bildwiedergabeeinheit (52, 152, 314) mit einem Eingang für ein Bildsignal und – eine Augmented-Reality-Vorrichtung (301), welche eingangsseitig mit dem Kamera-Positionssensor (328) und ausgangsseitig mit der Bildwiedergabeeinheit (52, 152, 314) verbunden ist, und dass die Augmented-Reality-Vorrichtung (301) ausgebildet ist, in Abhängigkeit von dem Kamera-Positionssignal aus dem Kamera-Bildsignal ein eine Hilfsinformation repräsentierendes Hilfsinformations-Bildsignal zu erzeugen und dieses an die Bildwiedergabeeinheit (52, 152, 160, 162, 314) zu senden.
  2. Mobile Trackingeinheit nach Anspruch 1, dadurch gekennzeichnet, dass die mobile Trackingeinheit (10, 110) einen Gelenkarm (20, 120) aufweist, wobei der Gelenkarm (20, 120) an einer Gelenkarmbasis (28, 128) mit einem Basisgelenk (130, 132) ansetzt, welche mit der Trackingeinheit (10, 110) verbunden ist und der Gelenkarm (20, 120) ein freies Gelenkarmende aufweist, wobei die Kamera (40) im Bereich des freien Endes angeordnet ist, und der Gelenkarm (20, 120) zwischen der Gelenkarmbasis (28, 128) und dem freien Ende wenigstens ein Mittelgelenk (34, 36, 134, 136) aufweist, und der Positionssensor (328) mit dem Basisgelenk (130, 132) und dem Mittelgelenk (34, 36, 134, 136) wirkverbunden und ausgebildet ist, eine Basisgelenkstellung und eine Mittelgelenkstellung zu erfassen und das Kamera-Positionssignal in Abhängigkeit von der Basisgelenkstellung und der Mittelgelenkstellung zu erzeugen.
  3. Mobile Trackingeinheit nach Anspruch 2, dadurch gekennzeichnet, dass der Gelenkarm (20, 120) ein erstes Mittelgelenk (34, 134) und ein zweites Mittelgelenk (36b, 136) aufweist, welche jeweils als Schwenkgelenk ausgebildet sind.
  4. Mobile Trackingeinheit nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Gelenkarm (20) im Bereich des freien Endes ein Kameragelenk (39) aufweist, über welches die Kamera (40) mit dem Gelenkarm (20) verbunden ist.
  5. Mobile Trackingeinheit nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Gelenkarm (20, 120) eine Tastspitze (41, 141) aufweist, welche das freie Ende des Gelenkarmes (20) bildet.
  6. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (301) zum Kalibrieren einer Gelenkarmposition ausgebildet ist.
  7. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (301) zum berührungslosen Kalibrieren einer Gelenkarmposition ausgebildet ist.
  8. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (301) eine 3-D-Datenbank (320) mit einer Vielzahl von 3-D-Datensätzen aufweist, welche in ihrer Gesamtheit ein grafisches Modell in drei Dimensionen wenigstens von Teilen eines Objekts (102), insbesondere eines Fahrzeugs, mit seinen Einzelkomponenten repräsentieren.
  9. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (301) ausgebildet ist, das Hilfsinformations-Bildsignal wenigstens teilweise aus mindestens einem 3-D-Datensatz entsprechenden 3-D-Datensatzsignal in Abhängigkeit von dem Kamera-Positionssignal zu erzeugen.
  10. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (301) eine Spracheingabeeinheit (323) aufweist und durch die Spracheingabeeinheit (323) steuerbar ausgebildet ist.
  11. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (328) eine Sprach-Ausgabeeinheit aufweist, welche ausgebildet ist, ein gesprochene Sprache repräsentierendes Sprach-Hilfsanweisungssignal hörbar auszugeben.
  12. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (301) ausgebildet ist, ein eine grafische Information oder Textinformation repräsentierendes Video-Hilfsanweisungssignal zu erzeugen und aus dem Kamera-Bildsignal und dem Video-Hilfsanweisungssignal das Hilfsinformations-Bildsignal derart zu erzeugen, dass das Hilfsinformations-Bildsignal eine Abbildung repräsentiert, bei welcher die grafische Information oder Textinformation der Abbildung des Objekts (102) überlagert ist.
  13. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung (301) einen mobilen Kameraträger (146) zum Anbringen an einem Objekt (104) aufweist, wobei der mobile Kameraträger (146) wenigstens eine Mobilkamera (140, 144) mit einem Empfänger für elektromagnetische Strahlung aufweist, welche ausgebildet ist, in einer Erfassungsrichtung von dem Objekt ausgesendete oder reflektierte elektromagnetische Strahlung zu erfassen und ein Mobilkamera-Bildsignal zu erzeugen, welches eine Abbildung wenigstens eines Teils des Objekts repräsentiert und die Augmented-Reality-Vorrichtung einen Eingang für das Mobilkamera-Bildsignal aufweist, welcher mit der Mobilkamera (140, 144) wirkverbunden sein kann.
  14. Mobile Trackingeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildwiedergabeeinheit (160, 162) schnurlos mit der Augmented-Reality-Vorrichtung verbunden sein kann.
  15. Mobile Trackingeinheit nach Anspruch 14, dadurch gekennzeichnet, dass die Augmented-Reality-Vorrichtung eine Funk-Schnittstelle oder eine Infrarot-Schnittstelle aufweist, welche ausgebildet ist, die Bildwiedergabeeinheit (160, 162) mit der Augmented-Reality-Vorrichtung schnurlos zu verbinden.
DE102005011616.7A 2004-05-28 2005-03-07 Mobile Trackingeinheit Expired - Fee Related DE102005011616B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102005011616.7A DE102005011616B4 (de) 2004-05-28 2005-03-07 Mobile Trackingeinheit
EP05750870A EP1749248A1 (de) 2004-05-28 2005-05-25 Mobile trackingeinheit
PCT/EP2005/005781 WO2005116785A1 (de) 2004-05-28 2005-05-25 Mobile trackingeinheit

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102004027010 2004-05-28
DE102004027010.4 2004-05-28
DE102005011616.7A DE102005011616B4 (de) 2004-05-28 2005-03-07 Mobile Trackingeinheit

Publications (2)

Publication Number Publication Date
DE102005011616A1 true DE102005011616A1 (de) 2005-12-29
DE102005011616B4 DE102005011616B4 (de) 2014-12-04

Family

ID=34970199

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005011616.7A Expired - Fee Related DE102005011616B4 (de) 2004-05-28 2005-03-07 Mobile Trackingeinheit

Country Status (3)

Country Link
EP (1) EP1749248A1 (de)
DE (1) DE102005011616B4 (de)
WO (1) WO2005116785A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011116765A2 (de) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren zur ausbildung eines besatzungsmitglieds eines insbesondere militärischen fahrzeugs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69003090T2 (de) * 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa Kalibrierungsverfahren eines dreidimensionalen formerfassungssystems und system zur durchführung des genannten verfahrens.
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
WO2003060830A1 (en) * 2002-01-15 2003-07-24 Information Decision Technologies, Llc Method and system to display both visible and invisible hazards and hazard information
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
DE10345743A1 (de) * 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5745387A (en) * 1995-09-28 1998-04-28 General Electric Company Augmented reality maintenance system employing manipulator arm with archive and comparison device
JP2002538543A (ja) * 1999-03-02 2002-11-12 シーメンス アクチエンゲゼルシヤフト 強調現実感技術により対話を状況に応じて支援するためのシステム及び方法
DE10159610B4 (de) 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69003090T2 (de) * 1989-02-06 1994-02-10 Kreon Ind Lannemezan Sa Kalibrierungsverfahren eines dreidimensionalen formerfassungssystems und system zur durchführung des genannten verfahrens.
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
WO2003060830A1 (en) * 2002-01-15 2003-07-24 Information Decision Technologies, Llc Method and system to display both visible and invisible hazards and hazard information
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
DE10345743A1 (de) * 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011116765A2 (de) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren zur ausbildung eines besatzungsmitglieds eines insbesondere militärischen fahrzeugs
DE102010016113A1 (de) 2010-03-24 2011-09-29 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren zur Ausbildung eines Besatzungsmitglieds eines insbesondere militärischen Fahrzeugs
US9202385B2 (en) 2010-03-24 2015-12-01 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for training a crew member of a, in particular, military vehicle

Also Published As

Publication number Publication date
WO2005116785A1 (de) 2005-12-08
DE102005011616B4 (de) 2014-12-04
EP1749248A1 (de) 2007-02-07

Similar Documents

Publication Publication Date Title
EP2176833B1 (de) Verfahren und system zur ermittlung der position und orientierung einer kamera relativ zu einem realen objekt
DE102015015503B4 (de) Robotersystem, das eine mit erweiterter Realität kompatible Anzeige aufweist
DE112011100292B4 (de) Anzeige für ein Koordinatenmessgerät
DE112013003584T5 (de) Tragbares Gelenkarm-Koordinatenmessgerät mit optischem Kommunikationsbus
DE19513930B4 (de) Endoskopievorrichtung
DE112011101407B4 (de) Verfahren zur Verwendung von Gesten zur Steuerung eines Lasernachführgeräts
EP1190679B1 (de) Medizinisches Therapie- und/oder Diagnosegerät mit einer Positionserfassungeinrichtung
EP1761759A1 (de) Verfahren zur steuerung einer rohrrevisionsanlage und zur auswertung der revisionsdaten
DE112016002057T5 (de) Dreidimensionales messgerät, lösbar verkoppelt mit einem roboterarm auf einer motorisierten mobilen plattform
DE2948573A1 (de) Verfahren und anordnung zur beruehrungslosen achsvermessung an kraftfahrzeugen
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
DE102007039788A1 (de) Detektor
DE102006046689A1 (de) Medizintechnisches Behandlungssystem
DE112013000727T5 (de) Prüfverfahren mit Strichcode-Kennzeichnung
EP1719472B1 (de) Vorrichtungen und Verfahren zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computer-assistierte Chirurgie
DE102019131646A1 (de) Stativ für eine optische Beobachtungseinheit, optisches Beobachtungsgerät, Verfahren zum Kalibrieren eines optischen Beobachtungsgeräts sowie Computerprogramm
WO2010012441A1 (de) Röntgenbild-aufnahmesystem und röntgenbild-aufnahmeverfahren zur aufnahme von bilddaten mit röntgengeräten für eine volumenrekonstruktion
EP2830526B1 (de) Medizinisches navigationssystem mit drahtlos verbundenem, berührungsempfindlichem bildschirm
EP0481278A1 (de) Verfahren und Messeinrichtung zur Positionsbestimmung von Raumpunkten
DE102010037067B4 (de) Robotersteuervorrichtung und Verfahren zum Teachen eines Roboters
EP1639337B1 (de) Kamerawagen
EP2998694A9 (de) Verfahren und vorrichtung zum bestimmen der 3d-koordinaten eines objekts
DE102005011616B4 (de) Mobile Trackingeinheit
EP2721585B1 (de) Verfahren und vorrichtung zum ermitteln und wiedergeben virtueller ortsbezogener informationen für einen raumbereich

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R005 Application deemed withdrawn due to failure to request examination

Effective date: 20120308

R073 Re-establishment requested
R073 Re-establishment requested
R074 Re-establishment allowed
R074 Re-establishment allowed

Effective date: 20120929

Effective date: 20120926

R012 Request for examination validly filed

Effective date: 20120731

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee