-
Die
Erfindung betrifft eine mobile Trackingeinheit, welche eine Kamera
mit einem Empfänger
für elektromagnetische
Strahlung aufweist. Die Kamera ist ausgebildet, in einem Erfassungswinkel
von einem Objekt ausgesendete oder reflektierte elektromagnetische
Strahlung zu erfassen. Die Kamera kann ein eine Abbildung des Objekts
repräsentierendes
Kamera-Bildsignal erzeugen.
-
Die
Trackingeinheit weist auch einen Kamera-Positionssensor auf, welcher
ausgebildet ist, ein einer Erfassungsrichtung der Kamera entsprechendes
Kamera-Positionssignal zu erzeugen und dieses ausgangsseitig auszugeben.
-
Die
Trackingeinheit weist auch wenigstens eine Bildwiedergabeeinheit
mit einem Eingang für
ein Bildsignal auf.
-
Die
Trackingeinheit weist auch eine Augmented-Reality-Vorrichtung auf,
welche eingangsseitig mit dem Kamera-Positionssensor und ausgangsseitig
mit der Bildwiedergabeeinheit verbunden ist. Die Augmented-Reality-Vorrichtung
ist ausgebildet, in Abhängigkeit
von dem Kamera-Positionssignal aus dem Kamera-Bildsignal ein eine
Hilfsinformation repräsentierendes
Hilfsinformations-Bildsignal zu erzeugen und dieses an die Bildwiedergabeeinheit
zu senden.
-
Aus
der WO 00/52539 ist ein Augmented-Reality-System zur situationsgerechten
Unterstützung
der Interaktion zwischen einem Anwender und einer technischen Vorrichtung
bekannt. Das Augmented-Reality-System umfasst eine mobile Vorrichtung
zum kontextabhängigen
Einblenden von Montagehinweisen. Durch das kontextabhängige Einblenden
von Montagehinweisen mit prozessoptimierter Vorgabe notwendiger
Arbeitsschritte ergibt sich eine situationsgerechte Unterstützung von
Arbeitsfolgen. Das Augmented-Reality-System der WO 00/52539 schlägt zur Visualisierung
der Augmented-Reality-Information
eine Datenbrille vor, welche neben einer im Bereich der Brillengläser angeordneten
Anzeigevorrichtung eine Bilderfassungsvorrichtung in Form einer
Kamera aufweist.
-
Head-Mounted-Displays
haben den Nachteil, dass sie den Anwender bei einer durchzuführenden
Reparatur einer Vorrichtung, insbesondere eines Kraftfahrzeugs,
den Benutzer hinsichtlich Bewegungsfreiheit und Blickwinkel einschränken.
-
Ein
weiteres Problem ist die Kalibrierung eines Augmented-Reality-Systems
mit einem Head-Mounted-Display.
-
Der
Erfindung liegt somit die Aufgabe zugrunde, ein Augmented-Reality-System
mit einer einfachen Bedienbarkeit anzugeben, welches sich auch einfach
kalibrieren lässt.
Diese Aufgabe wird durch die erfindungsgemäße Trackingeinheit mit einem Augmented-Reality-System der eingangs
genannten Art gelöst.
-
In
einer bevorzugten Ausführungsform
weist die mobile Trackingeinheit einen Gelenkarm auf. Der Gelenkarm
setzt an einer Gelenkarmbasis mit einem Basisgelenk an. Die Gelenkarmbasis
ist mit der Trackingeinheit verbunden und der Gelenkarm weist ein freies
Gelenkarmende auf, wobei die Kamera im Bereich des freien Endes
angeordnet ist. Der Gelenkarm weist zwischen der Gelenkarmbasis
und dem freien Ende wenigstens ein Mittelgelenk auf. Der Positionssensor
ist mit dem Basisgelenk der Gelenkarmbasis und mit dem Mittelgelenk
wirkverbunden und ausgebildet, eine Basisgelenkstellung und eine Mittelgelenkstellung
zu erfassen und das Kamera-Positionssignal in Abhängigkeit
von der Basisgelenkstellung und der Mittelgelenkstellung zu erzeugen.
Dadurch ist die Kameraposition exakt erfassbar, so dass die Augmented-Reality-Vorrichtung
ein der Erfassungsrichtung entsprechendes Hilfsinformations-Bildsignal
erzeugen kann.
-
Alternativ
zu dem Gelenkarm kann eine Augmented-Reality-Vorrichtung auch einen
Kamera-Positionssensor
mit einem Laser-Interferometer aufweisen. Der Kamera-Positionssensor
mit einem Laser-Interferometer ist ausgebildet, aus der Interferenz
eines gesendeten und zurückreflektierten
Laserstrahls eine Entfernung zu einem Objekt zu bestimmen. Bevorzugt
weist ein Kamera-Positionssensor mit einem Laser-Interferometer
eine Kalibriervorrichtung auf, welche ausgebildet ist, vorbestimmte Kalibrierorte
anzumessen und nach Anmessen der Kalibrierorte eine Kameraposition
in einem Koordinatensystem festzulegen.
-
Alternativ
zu dem Laser-Interferometer kann ein Kamera-Positionssensor ein
Ultraschall-Interferometer
zur Positionsbestimmung aufweisen.
-
In
einer bevorzugten Ausführungsform
der Trackingeinheit weist der Gelenkarm ein erstes Mittelgelenk
und ein zweites Mittelgelenk auf, welche jeweils als Schwenkgelenk
ausgebildet sind. Ein Gelenkarm mit zwei Mittelgelenken ist vorteilhaft
flexibel verstellbar. Weiter kann der Gelenkarm im Bereich des freien
Endes ein Kameragelenk aufweisen, über welches die Kamera mit
dem Gelenkarm verbunden ist. Dadurch kann die Kamera bei einer vorbestimmten
Gelenkarmposition in verschiedene Erfassungsrichtungen bewegt werden.
-
Die
Augmented-Reality-Vorrichtung ist bevorzugt zum Kalibrieren einer
Gelenkarmposition ausgebildet.
-
In
einer bevorzugten Ausführungsform
weist der Gelenkarm eine Tastspitze auf, welche das freie Ende bildet.
Die Tastspitze erleichtert vorteilhaft das Kalibrieren der Augmented-Reality-Vorrichtung.
Beispielsweise kann an einem Fahrzeug im Bereich des Motorraums
die Tastspitze an vorbestimmte Orte der Fahrzeugkarosserie zum Kalibrieren
der Augmented-Reality-Vorrichtung
gebracht werden. Solche Kalibrierorte können beispielsweise die Dom-Lager oder das Haubenschloss
sein.
-
In
einer alternativen Ausführungsform
zu einer Kalibrierung mit Hilfe einer Tastspitze kann die Augmented-Reality-Vorrichtung
zum berührungslosen
Kalibrieren der Gelenkarmposition ausgebildet sein. Eine solche
berührungslose
Kalibrierung kann beispielsweise mit einem Laser-Interferometer
oder einem Ultraschall-Interferometer erfolgen, welche Bestandteil
der Augmented-Reality-Vorrichtung und somit der Trackingeinheit
sein können.
-
In
einer bevorzugten Ausführungsform
weist die Augmented-Reality-Vorrichtung der mobilen Trackingeinheit
eine 3-D-Datenbank mit einer Vielzahl von 3-D-Datensätzen auf,
welche in ihrer Gesamtheit ein graphisches Modell in drei Dimensionen
wenigstens von Teilen eines Fahrzeugs mit seinen Einzelkomponenten
repräsentieren.
-
In
einer bevorzugten Ausführungsvariante weist
die Augmented-Reality-Vorrichtung ein mit der 3-D-Datenbank verbundenes
VRML(Virtual Reality Modelling Language)-Modul auf. Das VRML-Modul ist
ausgebildet, das Hilfsinformations-Bildsignal wenigstens teilweise
aus mindestens einem 3-D-Datensatz in Abhängigkeit von dem Kamera-Positionssignal
zu erzeugen.
-
Durch
die Anbindung der 3-D-Datenbank kann vorteilhaft die Ansicht eines
jeden Bauteils oder einer Gruppe von Bauteilen aus einer vorbestimmten Blickrichtung
heraus errechnet werden.
-
Das
VRML-Modul kann somit eine dreidimensionale Ansicht zur Darstellung
in einer zweidimensionalen Ebene, insbesondere einer Bildwiedergabeeinheit,
von wenigstens einem oder von mehreren Fahrzeugkomponenten für eine Kameraposition erzeugen.
-
Beispielsweise
kann für
eine Reparatur von vorbestimmten Motorteilen eine Auswahl der zu
lösenden
oder auszutauschenden Teile in einer entsprechenden Reihenfolge
von dem VRML-Modul aus der 3-D-Datenbank ausgelesen werden und eine
Ansicht dieser Teile für
eine vorbestimmte Kameraposition errechnet werden.
-
Die
Augmented-Reality-Vorrichtung kann dann das Hilfsinformations-Bildsignal
aus dem Kamera-Bildsignal und aus einem Ausgangssignal des VRML-Moduls
erzeugen. Das Hilfsinformations-Bildsignal kann beispielsweise Informationen über ein Drehmoment
einer festzuziehenden Schraubverbindung enthalten.
-
In
einer bevorzugten Ausführungsform
weist die Augmented-Reality-Vorrichtung eine Spracheingabeeinheit
auf und ist durch die Spracheingabeeinheit steuerbar ausgebildet.
Durch eine Spracheingabeeinheit hat ein Benutzer beim Arbeiten mit
der mobilen Trackingeinheit beide Hände frei für zu verrichtende Tätigkeiten.
-
In
einer vorteilhaften Ausführungsform
weist die Augmented-Reality-Vorrichtung eine Sprachausgabeeinheit
auf, welche ausgebildet ist, ein eine gesprochene Sprache repräsentierendes Sprach-Hilfsanweisungssignal
hörbar
auszugeben. Durch ein Sprach-Hilfsanweisungssignal
kann vorteilhaft eine interaktive Benutzung der mobilen Trackingeinheit
ermöglicht
werden.
-
Bevorzugt
ist die Augmented-Reality-Vorrichtung ausgebildet, ein eine graphische
Information oder Textinformation repräsentierendes Video-Hilfsanweisungssignal
zu erzeugen und aus dem Kamera-Bildsignal und dem Hilfsanweisungssignal
das Hilfsinformations-Bildsignal derart zu erzeugen, dass das Hilfsinformations-Bildsignal
eine Abbildung repräsentiert,
bei welcher die graphische Information oder Textinformation der
Abbildung des Objekts überlagert
ist.
-
Das
Video-Hilfsanweisungssignal kann beispielsweise Hilfsanweisungen
für vorbestimmte
Reparaturschritte repräsentieren.
Das Video-Hilfsanweisungssignal kann beispielsweise eine errechnete Ansicht
von Fahrzeugkomponenten aus einer vorbestimmten Erfassungsrichtung
der Kamera enthalten. Dazu kann das Video-Hilfsanweisungssignal
Teile des Ausgangssignals des VRML-Moduls enthalten oder ein Ausgangssignal
des VRML-Moduls selbst repräsentieren.
-
In
einer anderen Ausführungsform
weist die Augmented-Reality-Vorrichtung einen mobilen Kameraträger zum
Anbringen an einem Objekt auf, wobei der mobile Kameraträger wenigstens
eine Mobilkamera mit einem Empfänger
für elektromagnetische Strahlung
aufweist. Die Mobilkamera ist ausgebildet, in einer Erfassungsrichtung
von dem Objekt ausgesendete oder reflektierte elektromagnetische
Strahlung zu erfassen und ein Mobilkamera-Bildsignal zu erzeugen.
Das Mobilkamera-Bildsignal repräsentiert eine
Abbildung wenigstens eines Teils des Objekts. Die Augmented-Reality-Vorrichtung
weist einen Eingang für
das Mobilkamera-Bildsignal auf, welcher mit der Mobilkamera wirkverbunden
sein kann.
-
Eine
Mobilkamera kann auch als Endoskop-Mobilkamera ausgebildet sein,
welche einen langgestreckten Schaft mit einem auslenkbar beweglichen
Ende umfasst. Die Endoskop-Mobilkamera
ist ausgebildet, im Bereich des auslenkbar beweglichen Endes in
einer Erfassungsrichtung von dem Objekt ausgesendete oder reflektierte
elektromagnetische Strahlung zu erfassen und ein Mobilkamera-Bildsignal
zu erzeugen.
-
Beispielsweise
kann die Augmented-Reality-Vorrichtung eine Bluetooth-Schnittstelle
aufweisen, welche ausgangsseitig mit dem Eingang für das Mobilkamera-Bildsignal
verbunden ist. Die Mobilkamera kann ausgangsseitig mit einer Bluetooth-Sendeeinheit
verbunden sein.
-
Eine
Bildwiedergabeeinheit einer mobilen Trackingeinheit kann schnurlos
mit der Augmented-Reality-Vorrichtung verbunden sein. Beispielsweise
kann die Bildwiedergabeeinheit über
eine Infrarot-Schnittstelle oder über eine Bluetooth-Schnittstelle
mit der Augmented-Reality-Vorrichtung schnurlos verbunden sein.
In einer bevorzugten Ausführungsform
weist die mobile Trackingeinheit Räder auf, welche im Bereich
eines Bodens einer mobilen Trackingeinheit derart angeordnet sind,
dass die mobile Trackingeinheit auf einem Boden rollbar ist. Beispielsweise
können
die Räder
der mobilen Trackingeinheit arretierbar sein.
-
Bevorzugt
ist die mobile Trackingeinheit im Bereich des Bodens derart ausgebildet,
dass die Räder
in dem Boden versenkt werden können.
Dazu kann die mobile Trackingeinheit eine Versenkvorrichtung aufweisen.
-
Beispielsweise
kann die Trackingeinheit einen mit der Versenkvorrichtung wirkverbundenen Versenkhebel
aufweisen, welcher derart schwenkbar angeordnet und mit den Rädern wirkverbunden
ist, dass die Räder
durch eine Betätigung
des Versenkhebels von Hand in dem Boden der mobilen Trackingeinheit
nach innen versenkt werden können.
-
Bevorzugt
ist die mobile Trackingeinheit ausgebildet, die Räder derart
versenken zu können,
dass die Räder
in einer durch den Trackingeinheitboden gebildeten Ebene vollständig ins
Innere der Trackingeinheit versenkbar sind.
-
In
einer dazu alternativen Ausführungsform weist
die Trackingeinheit Standfüße auf und
die Trackingeinheit ist ausgebildet, die Räder derart ins Innere der Trackingeinheit
zu versenken, dass die Standfüße mit einem
Fußboden
in Wirkkontakt geraten können.
-
Eine
Bildwiedergabeeinheit der mobilen Trackingeinheit kann auch als
See-Through-Head-Mounted-Display
(STHMD) ausgebildet sein. Das Augmented-Reality-System kann eine
Kalibriermarke in das See-Through-Head-Mounted-Display einblenden,
was es einem Benutzer erleichtert, eine Hilfsanweisung mit einem
gesehenen Objekt in Deckung zu bringen.
-
Weitere
bevorzugte Ausgestaltungen der Erfindung ergeben sich aus den übrigen,
in den Unteransprüchen
genannten Merkmalen.
-
Die
Erfindung wird nachfolgend in Ausführungsbeispielen anhand der
zugehörigen
Zeichnungen erläutert.
Es zeigen:
-
1 ein
schematisches Ausführungsbeispiel
einer mobilen Trackingeinheit mit einer Augmented-Reality-Vorrichtung
und einem Gelenkarm, welcher im Bereich des Endes eine Kamera aufweist;
-
2 eine
schematische Darstellung einer mobilen Trackingeinheit mit einem
Gelenkarm und einem mobilen Kameraträger zum Anbringen an einem Objekt
und
-
3 eine
schematische Darstellung einer Augmented-Reality-Vorrichtung für eine mobile
Trackingeinheit.
-
1 zeigt
eine schematische Darstellung einer mobilen Trackingeinheit 10.
Die Trackingeinheit 10 weist einen Gelenkarm 20 auf,
welcher an einer Oberseite der Trackingeinheit 10 angeordnet
ist. Der Gelenkarm 20 weist eine Gelenkarmbasis 28 auf,
an welcher der Gelenkarm 20 angesetzt ist. Die Gelenkarmbasis 28 weist
ein Basisdrehgelenk 32 auf, über welches die Gelenkarmbasis 28 um
eine Basisdrehachse 68 drehbar ausgebildet ist und weist
dazu ein Basisdrehgelenk 32 auf. Die Gelenkarmbasis 28 ist über das
Basisdrehgelenk 32 mit der Trackingeinheit 10 verbunden.
Das Basisdrehgelenk 32 ist derart ausgebildet, dass die
Gelenkarmbasis 28 um die Basisdrehachse 68 umlaufend
drehbar ist. Dies ist durch die Drehrichtungen 53 und 54 angedeutet.
Die Basisdrehachse 68 ist senkrecht zu einer Oberfläche der
Trackingeinheit 10 angeordnet. Der Gelenkarm 20 weist
ein sich längs
erstreckendes starres Basisglied 22 auf. Das starre Basisglied 22 weist
zwei Enden auf, wobei ein Ende über
ein Basisschwenkgelenk 30 mit der Gelenkarmbasis 28 derart
verbunden ist, dass das starre Basisglied 22 um eine senkrecht zur
Basisdrehachse 68 verlaufende Schwenkachse schwenkbar mit
der Gelenkarmbasis 28 verbunden ist. Das starre Basisglied 22 ist
im Bereich des von der Gelenkarmbasis 28 abgewandeten Endes
mit einem starren Mittelglied 24 über ein Mittelschwenkgelenk 34 verbunden.
Das Mittelschwenkgelenk 34 ist derart ausgebildet und angeordnet,
dass das starre Mittelglied 24 um eine Schwenkachse relativ
zu dem starren Basisglied 22 schwenkbar ist, welche parallel zur
Schwenkachse des Basisschwenkgelenks 30 verläuft. Das
starre Mittelglied 24 ist ebenso wie das starre Basisglied 22 längs erstreckt
ausgebildet und weist zwei Enden auf. Das starre Mittelglied 24 ist
im Bereich des von dem Mittelgelenk 34 abgewandten Endes über ein
Mittelschwenkgelenk 36 mit einem starren Endglied 26 verbunden.
Das starre Endglied 26 ist längs gestreckt ausgebildet und
weist zwei Enden auf. Das starre Endglied 26 weist im Bereich
des von dem Mittelschwenkgelenk 36 abgewandten Endes ein
Kameragelenk 39 auf.
-
Die
mobile Trackingeinheit 10 weist eine Kamera 40 auf,
welche über
das Kameragelenk 39 mit dem starren Endglied 26 verbunden
ist. Das Kameragelenk 39 ist derart mit dem starren Endglied 26 verbunden
und ausgebildet, dass die Kamera 40 um eine Drehachse 46 umlaufend
drehbar ist. Die Drehachse 46 verläuft koaxial zu einer Längsachse
des starren Endglieds 26.
-
Das
Kameragelenk 39 ist auch derart ausgebildet, dass die Kamera 40 um
eine Schwenkachse 44 schwenkbar mit dem starren Endglied 26 verbunden
ist, wobei die Schwenkachse 44 senkrecht zur Drehachse 46 verläuft. Dazu
weist das Kameragelenk 39 ein Schwenkgelenk 38 auf,
welches angeordnet ist, die Kamera 40 mit dem Kameragelenk 39 zu verbinden.
In diesem Ausführungsbeispiel
ist das Kameragelenk 39 als U-Profil mit einem U-Profilboden und
zwei U-Profilseitenwänden
ausgebildet. In diesem Ausführungsbeispiel
verläuft
die Drehachse 46 durch den U-Profilboden und die Schwenkachse 44 verläuft durch
die U-Profilseitenwände.
-
Dargestellt
sind auch Schwenkrichtungen 46 und 66 des starren
Endglieds 26, Schwenkrichtungen 60 und 62 des
starren Mittelglieds 24 und Schwenkrichtungen 58 und 56 des
starren Basisglieds 22.
-
Das
Kameragelenk 39, das Mittelschwenkgelenk 36, das
Mittelschwenkgelenk 34 und das Basisschwenkgelenk 30 weisen
jeweils einen Gelenksensor auf. Der Gelenksensor ist ausgebildet,
die Winkelstellung eines Gelenks zu erfassen.
-
Der
Schwenkwinkelbereich des Mittelschwenkgelenks 34 und des
Basisschwenkgelenks 30 kann hierbei begrenzt sein, so dass
der Gelenkarm 20 nicht durchsacken kann.
-
Der
Schwenkwinkelbereich des Schwenkgelenks 38 um die Schwenkachse 44 kann
begrenzt sein.
-
Die
mobile Trackingeinheit 10 weist vier Räder 14 auf, welche
im Bereich eines Bodens der mobilen Trackingeinheit 10 angeordnet
sind. Die mobile Trackingeinheit 10 ist so ausgebildet,
dass die Räder 14 ins
Innere der mobilen Trackingeinheit 10 versenkbar sind.
Dazu weist die mobile Trackingeinheit 10 einen Versenkhebel 16 auf,
welcher um eine Schwenkachse 18 geschwenkt werden kann.
Die Schwenkachse 18 verläuft parallel zu dem Boden der mobilen
Trackingeinheit 10. Die Räder 14 sind mit dem
Versenkhebel 16 derart wirkverbunden, dass die Räder 14 durch
eine Schwenkbewegung 17 des Versenkhebels 16 in
eine Versenkrichtung 68 nach oben bewegt werden können. Durch
eine zur Schwenkrichtung 17 entgegengesetzte Schwenkbewegung des
Versenkhebels 16 können
die Räder 14 in
eine Ausfahrrichtung 70 bewegt werden.
-
Beispielsweise
kann die mobile Trackingeinheit 10 zum Versenken der Räder 14 im
Boden der Trackingeinheit entsprechende Ausnehmungen zur Aufnahme
der Räder 14 aufweisen.
-
Die
mobile Trackingeinheit 10 ist ausgebildet, dass die Räder 14 derart
versenkbar sind, dass der Boden der mobilen Trackingeinheit 10 in
einer Versenkstellung der Räder 14 mit
einem – nicht
dargestellten – Fußboden in
Wirkkontakt geraten. Dadurch sind die Räder 14 entlastet und
die mobile Trackingeinheit 10 ist nicht mehr verrollbar
fixiert.
-
Die
mobile Trackingeinheit 10 weist eine Bildwiedergabeeinheit 52 auf.
Die Bildwiedergabeeinheit 52 kann als TFT-Display ausgebildet
sein. Die mobile Trackingeinheit 10 weist eine Rechnereinheit 48 mit
einer Augmented-Reality-Vorrichtung auf.
-
Die
mobile Trackingeinheit 10 weist auch eine Eingabeeinheit 50 auf.
Die Eingabeeinheit 50 kann als Tastatur ausgebildet sein.
-
Die
Bildwiedergabeeinheit 52 und die Eingabeeinheit 50 sind
mit der Rechnereinheit 48 verbunden.
-
Der
Gelenkarm 20 der mobilen Trackingeinheit 10 weist
auch eine Leuchte 42 auf. Die Leuchte 42 ist an
dem starren Endglied 26, beispielsweise im Bereich des
freien Endes angeordnet. Die Leuchte 42 kann mit dem starren
Endglied 26 schwenkbar verbunden sein. Die Leuchte 42 kann
eine Halogenlampe oder wenigstens eine Lumineszenzdiode aufweisen.
-
Der
Gelenkarm 20 der mobilen Trackingeinheit 10 weist
im Bereich des freien Endes eine Testspitze 41 auf, deren
Ende das freie Ende des Gelenkarms 20 bildet. Die Tastspitze 41 ist
zum Kalibrieren der Augmented-Reality-Vorrichtung vorgesehen.
-
2 zeigt
eine Ausführungsform
einer mobilen Trackingeinheit 110. Die mobile Trackingeinheit 110 weist
einen Gelenkarm 120 auf, welcher an einer Gelenkarmbasis 128 angesetzt
ist. Die Gelenkarmbasis 128 ist mit der mobilen Trackingeinheit 110 verbunden
und ist an einer Oberseite der mobilen Trackingeinheit 110 angeordnet
und mit dieser über
ein Basisdrehgelenk 132 verbunden.
-
Die
Gelenkarmbasis 128 weist ein Schwenkgelenk 130 auf, über welches
ein starres Basisglied 122 mit der Gelenkarmbasis 128 verbunden
ist.
-
Das
starre Basisglied 122 weist im Bereich des von dem Basisschwenkgelenk 130 abgewandten Endes
ein Mittelschwenkgelenk 134 auf. Das starre Basisglied 122 ist über das
Mittelschwenkgelenk 134 mit einem starren Mittelglied 124 verbunden.
Das starre Mittelglied 124 ist über ein Mittelschwenkgelenk 136 im
Bereich des von dem Mittelschwenkgelenk 134 abgewandten
Endes mit einem starren Endglied 126 verbunden.
-
Das
starre Endglied 126 weist im Bereich eines freien Endes
eine Bildwiedergabeeinheit 160 auf. Das starre Endglied 126 weist
auch im Bereich des freien Endes eine Leuchte 142 auf,
welche beispielsweise schwenkbar mit dem starren Endglied 126 verbunden
sein kann. Im Bereich des freien Endes des starren Endglieds 126 ist
eine Testspitze 141 angeordnet, deren Ende das freie Ende
des Gelenkarms 120 bildet.
-
Die
mobile Trackingeinheit 110 weist auch vier Räder 114 auf,
welche mit einem Versenkhebel 116 derart wirkverbunden
sind, dass die Räder 114 durch
eine Schwenkbewegung des Versenkhebels 116 jeweils in einem
zum Versenken des jeweiligen Rades vorgesehenen Hohlraum der Trackingeinheit 110 versenkt
werden können.
-
Die
mobile Trackingeinheit 110 weist auch eine Rechnereinheit 148 mit
einer Augmented-Reality-Vorrichtung,
einer Eingabeeinheit 150 und einer Bildwiedergabeeinheit 152 auf.
-
Die
Bildwiedergabeeinheit 152 und die Eingabeeinheit 150 sind
mit der Rechnereinheit 148 verbunden. Die Bildwiedergabeeinheit 152 kann
beispielsweise ein TFT-Bildschirm sein. Die Eingabeeinheit 150 kann
beispielsweise eine Tastatur sein.
-
Dargestellt
ist auch ein zu reparierendes Fahrzeug 102. Das zu reparierende
Fahrzeug 102 weist eine Motorhaube 104 auf. Die
Motorhaube 104 ist in geöffnetem Zustand dargestellt.
-
Die
mobile Trackingeinheit 110 umfasst in dieser Ausführungsform
einen mobilen Kameraträger 146.
Der mobile Kameraträger 146 ist
stabförmig ausgebildet
und weist entlang einer Stablängsachse im
Bereich eines ersten äußeren Drittelabschnitts eine
erste Mobilkamera 140 und im Bereich eines zweiten äußeren Drittelabschnitts,
welcher den ersten äußeren Drittelabschnitt
gegenüberliegt,
eine zweite Mobilkamera 144 auf. Die erste Mobilkamera 140 und
die zweite Mobilkamera 144 sind mit der Rechnereinheit 148 und
somit mit der Augmented-Reality-Vorrichtung wirkverbunden.
-
Beispielsweise
weist die Rechnereinheit 148 dazu eine Bluetooth-Schnittstelle
auf. Alternativ zu der Bluetooth-Schnittstelle kann die Rechnereinheit 148 eine
LAN-Schnittstelleneinheit (LAN = Local Area Network) aufweisen.
-
Die
erste Mobilkamera 140 und die zweite Mobilkamera 144 können in
diesem Ausführungsbeispiel
mit der LAN-Schnittstelleneinheit wenigstens zeitweise verbunden
sein. Die erste Mobilkamera 140 und die zweite Mobilkamera 144 können jeweils CCD-Kamera
ausgebildet sein.
-
Die
mobile Trackingeinheit 110 umfasst auch eine mobile Bildwiedergabeeinheit 162,
welche mit dem mobilen Kameraträger 146 verbunden
ist.
-
Die
mobile Bildwiedergabeeinheit 162 kann mit der Rechnereinheit 148 verbunden
sein. Beispielsweise umfasst die Rechnereinheit 148 dazu eine
Bluetooth-Schnittstelle oder eine Infrarot-Schnittstelle, welche
ausgebildet sind, die Rechnereinheit 148 mit der mobilen
Bildwiedergabeeinheit 162 zu verbinden.
-
Die
Infrarot-Schnittstelleineinheit kann beispielsweise gemäß der IRDA-Norm
(IRDA = Infrared Data Association) ausgebildet sein.
-
Im
Anwendungsfall können
beispielsweise die erste Mobilkamera 140 und die zweite
Mobilkamera 144 jeweils ein Kamera-Bildsignal erzeugen, weiches
jeweils eine Abbildung eines Objekts, beispielsweise eines zu reparierenden
Motors, entspricht.
-
Zum
Anwenden einer Augmented-Reality-Vorrichtung mit einem mobilen Kameraträger 146 muss
zunächst
der Erfassungsbereich, das heißt
der Erfassungswinkel und die Erfassungsrichtung, der ersten Kamera 140 und
der zweiten Kamera 144 kalibriert werden. Dazu kann beispielsweise
an einem vorbestimmten Ort im Motorraum des Fahrzeugs 102 wenigstens
ein Marker angebracht werden. Ein solcher Marker kann beispielsweise
ein Infrarot-Marker sein oder ein Papiermarker, welcher mit einem
spezifischen Muster bedruckt ist. Das Infrarot-Signal oder das spezifische
Muster des Papiermarkers können
in einer von der Kamera erfassten Abbildung in dem Kamera-Bildsignal
wiedererkannt werden. Dazu kann die Augmented-Reality-Vorrichtung
eine Marker-Erkennungseinheit aufweisen. Die Marker-Erkennungseinheit
ist ausgebildet, in Abhängigkeit
von einer Markerposition in einer Abbildung eines Objekts ein Kamera-Positionssignal
zu erzeugen und dieses ausgangsseitig auszugeben.
-
3 zeigt
eine schematische Darstellung einer Ausführungsform einer Augmented-Reality-Vorrichtung 301 für eine mobile
Trackingeinheit. Die Augmented-Reality-Vorrichtung 301 weist
eine zentrale Verarbeitungseinheit 310 auf. Die zentrale Verarbeitungseinheit 310 kann
beispielsweise ein Mikroprozessor sein. Die Augmented-Reality-Vorrichtung 301 weist
eine Kamera 312 auf. Die Kamera 312 weist einen
Empfänger
für elektromagnetische
Strahlung auf und ist ausgebildet, in einem Erfassungswinkel von
einem Objekt ausgesendete oder reflektierte elektromagnetische Strahlung
zu erfassen und ein eine Abbildung des Objekts repräsentierendes
Kamera-Bildsignal zu erzeugen.
-
Die
Augmented-Reality-Vorrichtung 301 für eine Trackingeinheit weist
auch einen Kamera-Positionssensor 328 auf.
Der Kamera-Positionssensor 328 ist ausgebildet ein einer
Erfassungsrichtung der Kamera entsprechendes Kamera-Positionssignal
zu erzeugen und dieses ausgangsseitig auszugeben.
-
Die
Augmented-Reality-Vorrichtung 301 weist auch Gelenksensoren 334, 332, 330 und 336 auf.
Die Gelenksensoren 334, 332, 330, 336 sind
jeweils mit einem Schwenk- oder Drehgelenk eines Gelenkarms wirkverbunden
und ausgebildet sind, eine Winkelstellung des entsprechenden Gelenkes zu
erfassen und ein der Winkelstellung des Gelenkes entsprechendes
Gelenkwinkelsignal zu erzeugen und dieses ausgangsseitig auszugeben.
-
Beispielsweise
kann ein Gelenksensor ein Drehpotentiometer aufweisen, welches einen Ohm'schen Widerstand
aufweist. Der Ohm'sche
Widerstand des Drehpotentiometers ist abhängig von einer Winkelstellung
eines wenigstens teilweise umlaufenden Schleifkontakts. Der Schleifkontakt
ist mit dem Dreh- oder Schwenkgelenk derart wirkverbunden, dass
eine Drehwinkelstellung eines Dreh- oder Schwenkgelenks einer Drehwinkelstellung
des Schleifkontakts des Drehpotentiometers entspricht.
-
Das
Drehpotentiometer kann mit dem Dreh- oder Schwenkgelenk auf einer
gemeinsamen Welle angeordnet sein oder beispielsweise über einen Zahnriemen
mit dem Dreh- oder Schwenkgelenk wirkverbunden sein.
-
Denkbar
ist auch ein optischer Winkelsensor, bei welchem eine Anzahl von
Fotodioden und eine der Anzahl der Fotodioden entsprechende Anzahl von
Lumineszenzdioden aufweist. Die Fotodioden und die Lumineszenzdioden
sind jeweils derart angeordnet, dass genau eine Fotodioden im Strahlengang genau
einer entsprechenden Lumineszenzdiode angeordnet ist.
-
Der
optische Winkelsensor weist eine bewegliche Trennscheibe auf, welche
angeordnet und ausgebildet ist, den Strahlengang zwischen wenigstens
einer Lumineszenzdiode, und der entsprechenden Fotodiode in Abhängigkeit
von einer Winkelstellung des Dreh- oder Schwenkgelenks zu unterbrechen.
-
Die
Augmented-Reality-Vorrichtung 301 weist auch eine Bildwiedergabeeinheit 314 mit
einer berührungsempfindlichen
Oberfläche 316 auf.
Die berührungsempfindliche
Oberfläche 316 ist
ausgebildet, in Abhängigkeit
von einer Berührung
an einem Berührungsort
der berührungsempfindlichen
Oberfläche 316 ein
den Berührungsort
repräsentierendes Berührungssignal
zu erzeugen und dieses ausgangsseitig auszugeben.
-
Die
Bildwiedergabeeinheit 314 kann als TFT-Display ausgebildet
sein (TFT-Display = Thin-Film-Transistor-Display).
-
Die
Augmented-Reality-Vorrichtung 301 weist auch eine 3-D-Datenbank
mit einer Vielzahl von 3-D-Datensätzen auf. Die 3-D-Datensätze repräsentieren
in ihrer Gesamtheit ein graphisches Modell in drei Dimensionen wenigstens
von Teilen eines Objekts, insbesondere eines Fahrzeugs, mit seinen
Einzelkomponenten. Die Augmented-Reality-Vorrichtung 301 weist
auch eine 3-D-Berechnungseinheit 318 auf, welche mit der
3-D-Datenbank 320 über
eine Verbindungsleitung 364 verbunden ist. Die 3-D-Berechnungseinheit 318 ist über eine
Verbindungsleitung 362 mit der zentralen Verarbeitungseinheit 310 verbunden
und ausgebildet, in Abhängigkeit
von einem Kamera-Positionssignal aus wenigstens einem einen 3-D-Datensatz
repräsentierenden
3-D-Datensatzsignal ein 3-D-Hilfsanweisungssignal zu erzeugen. Das
3-D-Hilfsanweisungssignal repräsentiert eine
Abbildung in zwei Dimensionen wenigstens eines dreidimensionalen
Objekts in einer dem Kamera-Positionssignal entsprechenden Erfassungsrichtung.
-
Die
Augmented-Reality-Vorrichtung 301 weist auch einen Hilfsanweisungsspeicher 322 auf, welcher über eine
bidirektionalen Datenbus 366 mit der zentralen Verarbeitungseinheit 310 verbunden ist.
Der Hilfsanweisungsspeicher 322 weist eine Anzahl von Datensätzen auf.
Ein Datensatz kann ein Video-Datensatz sein, welcher eine graphische
Information oder eine Textinformation repräsentiert. Ein Datensatz kann
alternativ dazu ein Audio-Datensatz sein, welcher gesprochene Sprache
repräsentiert. Die
zentrale Verarbeitungseinheit 310 ist ausgebildet, über den
bidirektionalen Datenbus 366 einen Audio-Datensatz oder
einen Video-Datensatz aus dem Hilfsanweisungsspeicher 322 auszulesen
und ein dem Audio-Datensatz
entsprechendes Audio-Hilfsanweisungssignal oder ein dem Video-Datensatz
entsprechendes Video-Hilfsanweisungssignal zu erzeugen.
-
Die
Augmented-Reality-Vorrichtung 301 weist auch eine Spracheingabeeinheit 323 auf.
Die Spracheingabeeinheit 323 ist eingangsseitig über eine
Verbindungsleitung 376 mit einem Mikrophon 324 und
ausgangsseitig über
eine Verbindungsleitung 374 mit der zentralen Verarbeitungseinheit 310 verbunden.
Das Mikrophon 324 ist ausgebildet, Luftschall zu empfangen
und ein dem Luftschall entsprechendes Mikrophon-Signal zu erzeugen
und dieses ausgangsseitig auszugeben.
-
Die
Spracheingabeeinheit 323 ist ausgebildet, das Mikrophon-Signal
zu digitalisieren und gemäß einer
vorbestimmten Zuordnungsvorschrift aus dem digitalisierten Mikrophon-Signal
ein ASCII-Signal zu erzeugen und ausgangsseitig auszugeben. Das
ASCII-Signal repräsentiert
eine Textinformation (ASCII = American Standard Code for Information
Interchange).
-
Die
Augmented-Reality-Vorrichtung 301 weist auch eine Audio-Ausgabeeinheit 326 auf.
Die Audio-Ausgabeeinheit 326 weist einen Lautsprecher zur
Wandlung eines elektrischen Signals in Luftschall auf und ist eingangsseitig über eine
Verbindungsleitung 372 mit der zentralen Verarbeitungseinheit 310 verbunden.
-
Die
Bildwiedergabeeinheit 314 ist über eine Verbindungsleitung 368 eingangsseitig
mit der zentralen Verarbeitungseinheit 310 verbunden.
-
Die
berührungsempfindliche
Oberfläche 316 ist
ausgangsseitig über
eine Verbindungsleitung 370 mit der zentralen Verarbeitungseinheit 310 verbunden.
-
Der
Kamera-Positionssensor 328 ist ausgangsseitig über eine
Verbindungsleitung 352 mit der zentralen Verarbeitungseinheit
verbunden.
-
Die
Kamera 312 ist ausgangsseitig über eine Verbindungsleitung 350 mit
der zentralen Verarbeitungseinheit 310 verbunden.
-
Der
Kamera-Positionssensor 328 ist eingangsseitig über eine
Verbindungsleitung 360 mit dem Gelenksensor 334,
eingangsseitig über
eine Verbindungsleitung 358 mit dem Gelenksensor 332, eingangsseitig über eine
Verbindungsleitung 356 mit dem Gelenksensor 330 und
eingangsseitig über
eine Verbindungsleitung 354 mit dem Gelenksensor 336 verbunden.
-
Die
Funktionsweise der Augmented-Reality-Vorrichtung 301 soll
nun im Folgenden erläutert werden:
Die
Kamera 312 kann ein einem zu erfassenden Objekt entsprechendes
Kamera-Signal erzeugen und dieses ausgangsseitig über die
Verbindungsleitung 350 an die zentrale Verarbeitungseinheit 310 senden.
-
Der
Kamera-Positionssensor 328 kann über die Verbindungsleitungen 360, 358, 356 und 354 jeweils
ein Winkelsignal empfangen, welches einer Gelenkstellung eines entsprechenden
Dreh- oder Schwenkgelenks eines Gelenkarmes entspricht.
-
Der
Kamera-Positionssensor 328 kann in Abhängigkeit von den Winkelsignalen
ein Kamera-Positionssignal
erzeugen, welches eine Kameraposition in einem vorbestimmten Koordinatensystem und
eine Erfassungsrichtung repräsentiert
und dieses ausgangsseitig über
die Verbindungsleitung 352 an die zentrale Verarbeitungseinheit 310 senden.
-
Die
zentrale Verarbeitungseinheit 310 kann das Kamera-Positionssignal über die
bidirektionale Verbindungsleitung 362 an die 3-D-Berechnungseinheit 318 senden.
Die 3-D-Berechnungseinheit 318 kann
in Abhängigkeit
von einem über
die Verbindungsleitung 362 empfangenen Benutzer-Interaktionssignal
wenigstens einen 3-D-Datensatz aus der 3-D-Datenbank 320 auslesen und
ein dem 3-D-Datensatz entsprechendes 3-D-Datensatzsignal erzeugen.
-
Die
3-D-Berechnungseinheit ist weiter ausgebildet, in Abhängigkeit
von dem Kamera-Positionssignal
ein 3-D-Hilfsanweisungssignal zu erzeugen und dieses ausgangsseitig über die
bidirektionale Verbindungsleitung 362 an die zentrale Verarbeitungseinheit 310 zu
senden.
-
Die
zentrale Verarbeitungseinheit 310 kann das Benutzer-Interaktionssignal
in Abhängigkeit
von einem über
die Verbindungsleitung 370 empfangenen Berührungssignal
erzeugen und das Benutzer-Interaktionssignal über die Verbindungsleitung 362 an
die 3-D-Berechnungseinheit senden.
-
Die
3-D-Datensätze
können
beispielsweise einzelne Objekte eines Fahrzeugmodells repräsentieren.
Beispielsweise kann die Hand eines Benutzers 305 einen
Ort der Berührungsempfindlichen Oberfläche 316 berühren, welcher
einem vorbestimmten Reparaturprogramm entspricht. Die zentrale Verarbeitungseinheit 310 kann
daraufhin ein Benutzer-Interaktionssignal erzeugen, welches aus
der 3-D-Datenbank 320 auszulesenden 3-D-Datensätzen entspricht.
-
Alternativ
zu dem Berührungssignal
kann die zentrale Verarbeitungseinheit 310 das Benutzer-Interaktionssignal
in Abhängigkeit
von dem über
die Verbindungsleitung 374 empfangenen ASCII-Signal der
Spracheingabeeinheit 323 erzeugen.
-
Die
zentrale Verarbeitungseinheit 310 kann über den bidirektionalen Datenbus 366 wenigstens einen
Audiodatensatz auslesen und ein dem Audiodatensatz entsprechendes Audio-Hilfsanweisungssignal
erzeugen und dieses über
die Verbindungsleitung 372 an die Audioausgabeeinheit 326 senden.
-
Die
zentrale Verarbeitungseinheit 310 kann auch einen Video-Datensatz
aus dem Hilfsanweisungsspeicher 322 über den bidirektionalen Datenbus 366 auslesen
und ein dem Video-Datensatz entsprechendes Video-Hilfsanweisungssignal
erzeugen.
-
Die
zentrale Verarbeitungseinheit 310 ist ausgebildet, aus
dem eingangsseitig über
die Verbindungsleitung 350 empfangenen Kamera-Bildsignal, dem über die
bidirektionale Verbindungsleitung 362 empfangenen 3-D-Hilfsanweisungssignal
und aus dem Video-Hilfsanweisungssignal
ein Hilfsinformations-Bildsignal derart zu erzeugen, dass das Hilfsinformations-Bildsignal
eine Abbildung repräsentiert, bei
welcher eine graphische Information oder eine Textinformation der
Abbildung eines Objekts überlagert
sind.
-
Die
zentrale Verarbeitungseinheit 310 kann das Hilfsinformations-Bildsignal über die
Verbindungsleitung 368 ausgangsseitig an die Bildwiedergabeeinheit 314 senden.
-
Alternativ
zur Verbindungsleitung 350 kann in einer anderen Ausführungsform
der Augmented-Reality-Vorrichtung 301 die Kamera 312 über eine
Funkdatenschnittstelle mit der zentralen Verarbeitungseinheit 310 verbunden
sein.
-
Die
Funkdaten-Schnittstelle ist ausgebildet, ein Kamera-Bildsignal schnurlos
zu übertragen.
Die Funkdaten-Schnittstelle kann beispielsweise eine Bluetooth-Schnittstelle
oder eine Infrarot-Schnittstelle, insbesondere eine IRDA-Schnittstelle,
sein (IRDA = Infrared Data Association).
-
Die
Bildwiedergabeeinheit 314 kann dementsprechend über eine
Funkdaten-Schnittstelle mit der zentralen Verarbeitungseinheit 310 verbunden
sein.
-
- 10,
110
- mobile
Trackingeinheit
- 14,
114
- Räder
- 16,
116
- Versenkhebel
- 18
- Schwenkachse
- 20,
120
- Gelenkarm
- 22,
122
- starres
Basisglied
- 24,
124
- starres
Mittelglied
- 26,
126
- starres
Endglied
- 28,
128
- Gelenkarmbasis
- 30,
130
- Basisschwenkgelenk
- 32,
132
- Basisdrehgelenk
- 34,
134
- Mittelschwenkgelenk
- 36,
136
- Mittelschwenkgelenk
- 38
- Schwenkgelenk
- 39
- Kameragelenk
- 40
- Kamera
- 41,
141
- Tastspitze
- 42,
140, 142
- Leuchte
- 44
- Schwenkachse
- 46
- Drehachse
- 48,
148
- Rechnereinheit
- 50,
150
- Eingabeeinheit
- 52,
152
- Bildwiedergabeeinheit
- 53,
54
- Drehrichtung
- 56,
58, 60, 62, 64, 66
- Schwenkrichtung
- 68
- Basisdrehachse
- 102
- Fahrzeug
- 104
- Motorhaube
- 140
- erste
Mobilkamera
- 144
- zweite
Mobilkamera
- 146
- mobiler
Kameraträger
- 160,
162
- Bildwiedergabeeinheit
- 301
- Augmented-Reality-Vorrichtung
für eine
Trackingeinheit
- 305
- Benutzer
- 310
- zentrale
Verarbeitungseinheit
- 312
- Kamera
- 314
- Bildwiedergabeeinheit
- 316
- berührungsempfindliche Oberfläche
- 318
- 3-D-Berechnungseinheit
- 320
- 3-D-Datenbank
- 322
- Hilfsanweisungsspeicher
- 323
- Spracheingabeeinheit
- 324
- Mikrophon
- 326
- Kamera-Positionssensor
- 328
- Kamera-Positionssensor
- 330,
332, 334, 336
- Gelenksensor
- 350
- Verbindungsleitung
- 352
- Verbindungsleitung
- 354
- Verbindungsleitung
- 356
- Verbindungsleitung
- 358
- Verbindungsleitung
- 360
- Verbindungsleitung
- 362
- bidirektionale
Verbindungsleitung
- 364
- bidirektionaler
Datenbus
- 366
- Verbindungsleitung
- 368
- Verbindungsleitung
- 370
- Verbindungsleitung
- 372
- Verbindungsleitung
- 374
- Verbindungsleitung
- 376
- Verbindungsleitung