DE102005011432A1 - Datenhandschuh - Google Patents

Datenhandschuh Download PDF

Info

Publication number
DE102005011432A1
DE102005011432A1 DE102005011432A DE102005011432A DE102005011432A1 DE 102005011432 A1 DE102005011432 A1 DE 102005011432A1 DE 102005011432 A DE102005011432 A DE 102005011432A DE 102005011432 A DE102005011432 A DE 102005011432A DE 102005011432 A1 DE102005011432 A1 DE 102005011432A1
Authority
DE
Germany
Prior art keywords
data glove
finger
subject
reference points
receiving element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005011432A
Other languages
English (en)
Other versions
DE102005011432B4 (de
Inventor
Peter Zimmermann
Michael Dr. Symietz
Ralph Voges
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102005011432.6A priority Critical patent/DE102005011432B4/de
Publication of DE102005011432A1 publication Critical patent/DE102005011432A1/de
Application granted granted Critical
Publication of DE102005011432B4 publication Critical patent/DE102005011432B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft einen Datenhandschuh (40, 41) mit einem Referenzkörper (21), der zumindest zwei räumlich getrennte mittels einer Kamera (10, 11, 12, 13) als Referenzpunkte identifizierbare Handreferenzpunkte (210, 211, 212, 213, 214) umfasst, wobei der Datenhandschuh (40, 41) zumindest ein Aufnahmeelement (22, 23, 24) zur Aufnahme einer Fingerspitze eines Probanden (3) oder eines Teils eines Fingers des Probanden (3) umfasst und wobei das Aufnahmeelement (22, 23, 24) zumindest einen mittels der Kamera (10, 11, 12, 13) oder einer weiteren Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt (25, 26, 27) umfasst.

Description

  • Die Erfindung betrifft einen Datenhandschuh.
  • Derarige Datenhandschuhe sind z.B. in Verbindung mit virtuellen Techniken einsetzbar, die insbesondere im Produkt-Entstehungs-Prozess in der Automobilindustrie zum Einsatz kommen können. Neben der reinen Visualisierung in CAx-Systemen und der Visualisierung unter Echtzeit-Bedingungen in Virtual-Reality-Systemen (VR) oder Augmented-Reality-Systemen (AR) umfasst dies auch so genannte interaktive und immersive Anwendungen. Solche Anwendungen können zum Beispiel eingesetzt werden, um Ergonomie-Untersuchungen und virtuelle Montagen durchzuführen.
  • Da der Mensch bei interaktiven und immersiven Anwendungen unmittelbares Element im gesamten Regelkreis ist, unterliegen diese Applikationen strengeren Echtzeit-Bedingungen. Um diesen Regelkreis stabil zu gestalten, sollte die Bildrate (neue Informationen) mindestens etwa 10 Bilder/s betragen, möglichst jedoch 20 bis 25 Bilder/s. Neben den stringenten Echtzeitbedingungen ist es für eine erfolgreiche Durchführung solcher Aufgaben wünschenswert, möglichst intuitiv agieren zu können. Dazu können Schnittstellen in Hardware und Software vorgesehen werden, die diesen Anspruch erfüllen können. Zu den Hardware-Schnittstellen gehören z.B. Displays, Datenhandschuhe zum Greifen und für die Gestik, Kraftfeedback bzw. ganz allgemein haptisches Feedback. Datenhandschuhe sind u. a. aus der WO 02/37466 A1 und der JP 082856627 A bekannt. Derartige Datenhandschuhe sind insbesondere von handschuhartigen Eingabevorrichtungen zu unterscheiden, wie sie z.B. die US 2003/0006962 A1 und die US 2004/0012574 A1 offenbaren. Datenhandschuhe für vorgenannte Anwendungen können z.B. von Virtual Technologies bezogen werden. Diese Datenhandschuhe werden auch mit zusätzlichen haptischen Feedbacks ausgestattet („Force Feedback", Fa. Virtual Technologies). Entweder sind diese mechanisch (z.B. mit Seilzügen) oder pneumatisch (mit Luftkissen) ausgestattet. Bei der Seilzug-Lösung entstehen auch Kräfte größerer Art, die die Finger zurückziehen können.
  • Es ist Aufgabe der Erfindung, virtuelle interaktive oder immersive Anwendungen, insbesondere für den Produkt-Entstehungs-Prozess, in der Automobilindustrie zu verbessern bzw. einen verbesserten Herstellungsprozess für ein Kraftfahrzeug anzugeben.
  • Vorgenannte Aufgabe wird durch einen Datenhandschuh mit einem Referenzkörper gelöst, der zumindest zwei räumlich getrennte mittels einer, insbesondere als Infrarotkamera ausgestalteten, Kamera als Referenzpunkte identifizierbare Handreferenzpunkte umfasst, wobei der Datenhandschuh zumindest ein Aufnahmeelement zur Aufnahme einer Fingerspitze eines Probanden oder eines Teils eines Fingers des Probanden umfasst, und wobei das Aufnahmeelement zumindest einen mittels der Kamera oder einer weiteren, insbesondere als Infrarotkamera ausgestalteten, Kamera als Referenzpunkt identifizierbaren Fingeneferenzpunkt umfasst. Ein Datenhandschuh im Sinne der Erfindung ist nicht auf einen Handschuh im engen Sinne beschränkt. Vielmehr soll ein Datenhandschuh im Sinne der Erfindung auch Vorrichtungen einbeziehen, die lediglich einen Teil einer menschlichen Hand abdecken.
  • In vorteilhafter Ausgestaltung der Erfindung umfasst der Fingerreferenzpunkt ein Leuchtmittel, insbesondere eine LED.
  • In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst der Referenzkörper zumindest vier, insbesondere fünf, räumlich getrennte Handreferenzpunkte.
  • In weiterhin vorteilhafter Ausgestaltung der Erfindung ist der Datenhandschuh derart ausgestaltet, dass der Referenzkörper (bei bestimmungsgemäßer Verwendung des Datenhandschuhs) auf einem Handrücken des Probanden angeordnet ist.
  • In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst der Datenhandschuh einen, vorteilhafterweise mit dem Aufnahmeelement verbundenen, Aktor zur Erzeugung einer haptischen Rückkopplung.
  • Kraft-Feedback-Vorrichtungen die der haptischen Rückkopplung dienen können sind z.B. aus folgenden Literaturstellen bekannt:
    • – Bergamasco, M.: The GLAD-IN-ART Project, Virtual Reality, Anwendungen und Trends in Forschung und Praxis, IPA/IAO Forum, Springer Verlag, Berlin, S. 251–258, 1993
    • – Bergamasco, M.: Theoretical Study and Experiments on Internal and External Force Replication, IEEE Workshop on Force Display on Virtual Environments and its Application to robotic Teleoperation, IEEE, New York, 1993
    • – Burdea, C.G.: Force and Touch Feedback for Virtual Reality, ISBN 0-471-02141-5, John Wiley & Sons, New York, 1996
    • – Frank-Lothar Krause, Trac Tang, Ulrich Ahle (Hrsg.), Abschlußbericht Leitprojekt Integrierte Virtuelle Produktentstehung, hier Teilprojekt 4.2, Entwicklung und Test eines Kraftffedback-Systems für die virtuellen Umgebungen, S. 125 ff., bmb+f, PT Forschungszentrum Karlsruhe, Juni 2002.
  • In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst der Aktor eine Aktorschicht, deren Volumen mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist. Die Aktorschicht ist dabei vorteilhafterweise innerhalb eines zylinderartigen Elementes zur Aufnahme der Fingerspitze des Probanden oder eines Teil eines Fingers des Probanden, innerhalb des Aufnahmeelementes, wobei das Aufnahmeelement als starrer Körper oder zum Teil als starrer Körper ausgestaltet ist, oder innerhalb eines als starrer Körper ausgestalteten Teils des Aufnahmeelementes angeordnet. Dabei wird ein Teil eines Fingers des Probanden oder einer Fingerspitze bzw. eine Fingerspitze des Probanden (bei bestimmungsgemäßer Verwendung des Datenhandschuhs) von der Aktorschicht ganz oder teilweise umschlossen.
  • In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst der Aktor eine Wicklung, deren Länge mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist. Dabei wird ein Teil eines Fingers des Probanden oder einer Fingerspitze bzw. eine Fingerspitze des Probanden (bei bestimmungsgemäßer Verwendung des Datenhandschuhs) von der Wicklung umschlossen.
  • Vorgenannte Aufgabe wird zudem durch ein Virtual-Reality-System, insbesondere durch ein Virtual-Reality-System mit einem eines oder mehrere der vorgenannten Merkmale umfassenden Datenhandschuh, gelöst, wobei das Virtual-Reality-System zumindest eine, insbesondere als Infrarotkamera ausgestaltete, Kamera und ein Aufnahmeelement zur Aufnahme einer Fingerspitze eines Probanden oder eines Teils eines Fingers des Probanden umfasst, und wobei das Aufnahmeelement zumindest einen mittels der Kamera oder einer weiteren, insbesondere als Infrarotkamera ausgestalteten, Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt umfasst. Ein Virtual-Reality-System in diesem Sinne soll nicht nur Virtual-Reality-Systeme im engen Sinne sondern z.B. auch Augmented-Reality-Systeme umfassen.
  • In vorteilhafter Ausgestaltung der Erfindung umfasst das Virtual-Reality-System zumindest vier, insbesondere als Infrarotkameras ausgestaltete, Kameras zur Identifizierung des Fingerreferenzpunktes.
  • In weiterhin vorteilhafter Ausgestaltung der Erfindung umfasst das Virtual-Reality-System ein Auswertesystem zur Ermittlung der (räumlichen) Position zumindest eines Fingers des Probanden oder zumindest einer Fingerspitze des Probanden in Abhängigkeit eines Ausgangssignals der Kamera, in Abhängigkeit eines Ausgangssignals zumindest einer der zumindest vier Kameras oder in Abhängigkeit von Ausgangssignalen der zumindest vier Kameras.
  • Vorgenannte Aufgabe wird zudem durch ein Verfahren zum Herstellen eines Kraftfahrzeuges oder eines Bauteils für ein Kraftfahrzeug gelöst, wobei das Kraftfahrzeug oder das Bauteil entworfen wird, wobei ein Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils erzeugt wird, wobei das Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils durch zumindest einen Probanden unter Verwendung eines eines oder mehrere der vorgenannten Merkmale umfassenden Datenhandschuhs oder eines eines oder mehrere der vorgenannten Merkmale umfassenden Virtual-Reality-Systems getestet wird, und wobei in Abhängigkeit dieses Tests das Kraftfahrzeug oder das Bauteil implementiert oder erneut entworfen wird.
  • Kraftfahrzeug im Sinne der Erfindung ist insbesondere ein individuell im Straßenverkehr benutzbares Landfahrzeug. Kraftfahrzeuge im Sinne der Erfindung sind insbesondere nicht auf Landfahrzeuge mit Verbrennungsmotor beschränkt.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen. Dabei zeigen:
  • 1 ein Ausführungsbeispiel eines Virtual-Reality-Systems,
  • 2 ein Ausführungsbeispiel eines Datenhandschuhs,
  • 3 ein weiteres Ausführungsbeispiel eines Datenhandschuhs,
  • 4 ein Ausführungsbeispiel eines Aufnahmeelementes zur Aufnahme einer Fingerspitze eines Probanden oder eines Teil eines Fingers des Probanden mit einem Aktor zur Erzeugung einer haptischen Rückkopplung,
  • 5 ein weiteres Ausführungsbeispiel eines Aufnahmeelementes mit einem Aktor zur Erzeugung einer haptischen Rückkopplung und
  • 6 ein Ausführungsbeispiel eines Verfahrens zum Herstellen eines Kraftfahrzeuges oder eines Bauteils für ein Kraftfahrzeug.
  • 1 zeigt ein Ausführungsbeispiel eines Virtual-Reality-Systems 1. Das Virtual-Reality-System 1 umfasst zumindest vier, insbesondere als Infrarotkameras ausgestaltete, Kameras 10, 11, 12, 13 zur optischen Aufnahme eines Bildes von einem Probanden 3 in einer Versuchsanordnung 2 wie z.B. einer mit Monitoren ausgestatteten Sitzkiste. Das Virtual-Reality-System 1 umfasst zudem ein Auswertesystem 15 zur Ermittlung der (räumlichen) Position des Probanden 3 bzw. zumindest eines Fingers des Probanden 3 oder zumindest einer Fingerspitze des Probanden 3 in Abhängigkeit von Ausgangssignalen der zumindest vier Kameras 10, 11, 12, 13. Zudem ist mittels des Auswertesystems 15 z. B. ein virtuelles Bild eines Kraftfahrzeuges und des Probanden 3 in einer räumlichen Zuordnung zu dem Kraftfahrzeug darstellbar. Geeignete Kameras und Auswertesysteme können z.B. von der A.R.T. advanced realtime tracking GmbH, Weilheim (www.ar-tracking.de) bezogen werden.
  • 2 zeigt ein Ausführungsbeispiel eines Datenhandschuhs 40 für eine Hand 4 des Probanden 3. Der Datenhandschuh 40 umfasst einen Referenzkörper 21, der fünf räumlich durch Stäbe 215, 216, 217 und 218 getrennte mittels der Kameras 10, 11, 12, 13 als Referenzpunkte identifizierbare Handreferenzpunkte 210, 211, 212, 213 und 214 aufweist. Der Referenzkörper 21 ist auf einem Funk-IC 20 des Datenhandschuhs 40 zum Aufbau einer drahtlosen – in 1 mit Bezugszeichen 5 bezeichneten – Kommunikationsverbindung zwischen dem Auswertesystem 15 und dem Funk-IC 20 angeordnet. Der Datenhandschuh 40 ist derart ausgestaltet, dass der Referenzkörper 21 (bei bestimmungsgemäßer Verwendung des Datenhandschuhs 40) auf einem Handrücken des Probanden 3 angeordnet ist. Dazu kann der Datenhandschuh 40 ein Befestigungsband 37 zur Befestigung des Funk-ICs 20 auf dem Handrücken des Probanden 3 aufweisen.
  • In dem Ausführungsbeispiel gemäß 2 umfasst der Datenhandschuh 40 für den Daumen, den Zeigefinder und den Mittelfinger der Hand 4 des Probanden 3 je ein – unter Bezugnahme auf 4 und 5 näher erläutertes – Aufnahmeelement 22, 23, 24 je mit einem mittels der Kameras 10, 11, 12, 13 als Referenzpunkt identifizierbaren, eine LED umfassenden oder als LED ausgestalteten Fingerreferenzpunkt 25, 26, 27. Die LEDs werden dabei über mit Bezugszeichen 30, 31 und 32 bezeichnete Zuleitungen von dem Funk-IC 20 mit elektrischer Energie versorgt. Der Funk-IC 20 wiederum kann drahtlos mit elektrischer Energie versorgt werden, kann einen nicht dargestellte Energiespeicher umfassen und/oder kann – wie in 3 dargestellt – über eine Zuleitung 36 mittels eines externen, von dem Probanden 3 tragbaren Energiespeicher 35 mit elektrischer Energie versorgt werden.
  • 3 zeigt ein weiteres Ausführungsbeispiel eines – im wesentlichem dem Datenhandschuh 40 entsprechenden – Datenhandschuhs 41, wobei gleiche Bezugszeichen wie in 2 gleiche oder gleichartige Elemente bezeichnen. Während die Aufnahmeelemente 22, 23, 24 des Datenhandschuhs 40 separat ausgestaltet, d. h. nicht miteinander und nur mittels der Zuleitungen 30, 31 und 32 mit dem Funk-IC 20 verbunden, und einzeln auf den Daumen, den Zeigefinder bzw. den Mittelfinger der Hand 4 des Probanden 3 steckbar sind und während der Datenhandschuh 40 das Befestigungsband 37 zur Befestigung des Funk-ICs 20 auf dem Handrücken des Probanden 3 umfasst, sind bei dem Datenhandschuh 41 die Aufnahmeelemente 22, 23, 24 und der Funk-IC 20 in einem aus Gründen der Übersichtlichkeit nicht dargestellten Handschuh integriert. Dabei ist zumindest der Referenzkörper 21 (sowie ggf. der Funk-IC 20) an der Außenseite des Handschuhs angeordnet. Der Handschuh kann z.B. als schwarzer Lederhandschuh ausgestaltet sein.
  • 4 zeigt am Beispiel eines Querschnittes des Aufnahmeelementes 22 ein Ausführungsbeispiel zur vorteilhaften Ausgestaltung der Aufnahmeelemente 22, 23 bzw. 24. Das Aufnahmeelement 22 umfasst eine LED 250 zur Beleuchtung des Fingerreferenzpunktes 25. In vorteilhafter Ausgestaltung ist vorgesehen, dass der Datenhandschuh 40 bzw. 41 einen mit dem Aufnahmeelement 22 verbundenen Aktor zur Erzeugung einer haptischen Rückkopplung umfasst. Zur Implementierung eines derartigen Aktors umfasst das Aufnahmeelement 22 in vorteilhafter Ausgestaltung einen zylinderartigen starren Körper 50 (Fingerhut) zur Aufnahme der Fingerspitze des Mittelfingers des Probanden 3, wobei innerhalb des zylinderartigen starren Körpers 50 eine Aktorschicht 51 angeordnet ist, deren Volumen mittels einer über die Zuleitung 30 übertragbaren elektrischen Spannung oder eines über die Zuleitung 30 übertragbaren elektrischen Stromes veränderbar ist. Die Aktorschicht 51 ist dabei derart an der Innenseite 52 des zylinderartigen starren Körpers 50 angeordnet, dass die Fingerspitze des Mittelfingers des Probanden 3 (bei bestimmungsgemäßer Verwendung des Datenhandschuhs 40 bzw. 41) ganz oder teilweise von der Aktorschicht 51 umschlossen wird.
  • Die Aktorschicht 51 ist in vorteilhafter Ausgestaltung eine ein, insbesondere nicht-ionisches, dielektrisches Elastomer aufweisende Schicht bzw. umfasst eine derartige Schicht. Als dielektrische Elastomere können dabei z.B. in dem Artikel „Actuation response of polyacrylate dielectric elastomers" von Kofod, Guggi, Kornbluh, Roy D., Pelrine, Ron, Sommer-Larsen, Peter, Proc. SPIE Vol. 4329, S. 141–147 offenbarte Materialien verwendet werden. Besonders gut geeignete Elastomere sind z.B. aus dem unter der Internetadresse robots.mit.edu/publications/PDF/188.pdf veröffentlichten Artikel "Hyper-Redundant Robot Manipulators Actuated by Optimized Binary Dielectric Polymers" von Andreas Winger, Matthew Lichter, Steven Dubowsky, Moustapha Hafez, Department of Mechanical Engineering, Massachusetts Institute of Technology bekannt. Weitere verwendbare Elastomere (EAP) sind z.B. in der DE 101 51 556 A1 , US 2002/0054060 A1, US 2002/0130673 A1 und der US 6 586 859 B2 offenbart. Die Aktorschicht 51 kann ggf. auch als Titan-Zink-Legierung oder über als magnetisch ansteuerbare sogenannte „Gedächtnis"-Legierung ausgestaltet sein.
  • 5 zeigt am Beispiel eines weiteren Ausführungsbeispiels eines Querschnittes des Aufnahmeelementes 22 eine weitere vorteilhafte Ausgestaltung der Aufnahmeelemente 22, 23 bzw. 24, wobei gleiche Bezugszeichen wie in 4 gleiche oder gleichartige Elemente bezeichnen. Zur Implementierung eines vorgenannten Aktors umfasst das in 5 dargestellte Ausführungsbeispiel des Aufnahmeelementes 22 in vorteilhafter Ausgestaltung einen an der Papillenseite (des Fingers) geschlitzten Fingerhut 61, der in einem starren Körper 60 angeordnet sein kann. Um den geschlitzten Fingerhut 61 herum ist eine Wicklung 62, d.h. ein als Spule bzw. Coil gewickelter Draht, derart angeordnet, dass die Fingerspitze des Mittelfingers des Probanden 3 (bei bestimmungsgemäßer Verwendung des Datenhandschuhs 40 bzw. 41) ganz oder teilweise von der Wicklung 62 umschlossen wird. Die Wicklung 62 ist derart (z.B. als Titan-Zink-Legierung) ausgestaltet, dass ihre Länge mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist. Die Wicklung 62 ist derart um den geschlitzten Fingerhut 61 gewickelt, dass bei einem Zusammenziehen der Wicklung 62 der Fingerhut 61 auf die Papille des entsprechenden Fingers wirkt und die andere Seite (zum Fingernagel hin) eine Kraft aufnimmt.
  • Mittels des Auswertesystems 15 kann aus den Ausgangssignalen der Kameras 10, 11, 12, 13 durch Auswertung der Handreferenzpunkte 210, 211, 212, 213, 214 die Position der Hand 4 sowie deren Haltung (Drehrichtung) ermittelt werden. Ausgehend von der Position und der Haltung der Hand 4 kann das Auswertesystem 15 aus den Ausgangssignalen der Kameras 10, 11, 12, 13 durch Auswertung der Fingerreferenzpunkte 25, 26, 27 die Position der Fingerspitzen von Daumen, Zeigefinger und Mittelfinger der Hand 4 ermitteln. Die Position der Fingerspitzen von Daumen, Zeigefinger und Mittelfinger der Hand 4 können mittels des Auswertesystems 15 räumlich einem virtuellen Kraftfahrzeug oder einem Bauteil eines virtuellen Kraftfahrzeuges zugeordnet werden.
  • Kommt es zu einer Berührung einer der Fingerspitzen von Daumen, Zeigefinger und Mittelfinger der Hand 4 mit dem virtuellen Kraftfahrzeug oder dem Bauteil des virtuellen Kraftfahrzeuges, so kann diese Berührung durch eine unter Bezugnahme auf 4 bzw. 5 beschriebene haptische Rückkopplung für den Probanden simuliert werden. Dazu wird mittels der drahtlosen Kommunikationsverbindung 5 ein entsprechender Steuerbefehl von dem Auswertesystem 15 an den Funk-IC 20 übertragen, der wiederum eine elektrische Größe zur entsprechenden Anregung der Aktorschicht 51 bzw. der Wicklung 62 des entsprechenden Aufnahmeelementes 22, 23, 24 erzeugt. Zusätzlich können visuelle, akustische und evtl. olfaktorische Feedbacks vorgesehen werden.
  • 7 zeigt ein Verfahren zum Herstellen eines Kraftfahrzeuges oder eines Bauteils für ein Kraftfahrzeug. Dabei wird das Kraftfahrzeug oder das Bauteil in einen Schritt 70 entworfen. Dem Schritt 70 folgt ein Schritt 71, in dem ein Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils erzeugt wird. Dem Schritt 71 folgt ein Schritt 72 in dem das Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils durch Probanden wie den Probanden 3 unter Verwendung des Virtual-Reality-Systems 1 bzw. des Datenhandschuhs 40 oder 41 gemäß dem unter Bezugnahme auf 1, 2, 3, 4 und 5 beschriebenen Verfahren getestet und bewertet wird.
  • Dem Schritt 72 folgt eine Abfrage 73, ob das auf diese Weise getestete Kraftfahrzeug oder Bauteil (aufgrund der Testergebnisse bzw. der Bewertung) implementiert werden soll. Soll das auf vorgenannte Weise getestete Kraftfahrzeug oder Bauteil implementiert werden, so folgt der Abfrage 73 ein Schritt 74, in dem das Kraftfahrzeug oder das Bauteil implementiert wird. Soll das auf vorgenannte Weise getestete Kraftfahrzeug oder Bauteil dagegen so nicht implementiert werden, so folgt der Abfrage 73 der Schritt 70, in dem das Kraftfahrzeug oder das Bauteil verändert entworfen wird.
  • Das unter Bezugnahme auf 1, 2, 3, 4 und 5 beschriebene Virtual-Reality-System 1 kann unter entsprechender Abwandlung auch für andere Körperteile (Hand, Arm, Knie, Fuß, usw.) eingesetzt werden.
  • Die Elemente in 1 sind unter Berücksichtigung von Einfachheit und Klarheit und nicht notwendigerweise maßstabsgetreu gezeichnet. So sind z.B. die Größenordnungen einiger Elemente übertrieben gegenüber anderen Elementen dargestellt, um das Verständnis der Ausführungsbeispiele der vorliegenden Erfindung zu verbessern.
  • 1
    Virtual-Reality-System
    2
    Versuchsanordnung
    3
    Proband
    4
    Hand
    5
    drahtlose Kommunikationsverbindung
    10, 11, 12, 13
    Kamera
    15
    Auswertesystem
    20
    Funk-IC
    21
    Referenzkörper
    22, 23, 24
    Aufnahmeelement
    25, 26, 27
    Fingeneferenzpunkt
    30, 31, 32, 36
    Zuleitung
    35
    Energiespeicher
    37
    Befestigungsband
    40, 41
    Datenhandschuh
    50, 60
    starrer Körper
    51
    Aktorschicht
    52
    Innenseite
    61
    Fingerhut
    62
    Wicklung
    70, 71, 72, 74
    Schritt
    73
    Abfrage
    210, 211, 212, 213, 214
    Handreferenzpunkt
    215, 216, 217, 218
    Stab
    250
    LED

Claims (14)

  1. Datenhandschuh (40, 41) mit einem Referenzkörper (21), der zumindest zwei räumlich getrennte mittels einer Kamera (10, 11, 12, 13) als Referenzpunkte identifizierbare Handreferenzpunkte (210, 211, 212, 213, 214) umfasst, wobei der Datenhandschuh (40, 41) zumindest ein Aufnahmeelement (22, 23, 24) zur Aufnahme einer Fingerspitze eines Probanden (3) oder eines Teils eines Fingers des Probanden (3) umfasst, und wobei das Aufnahmeelement (22, 23, 24) zumindest einen mittels der Kamera (10, 11, 12, 13) oder einer weiteren Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt (25, 26, 27) umfasst.
  2. Datenhandschuh (40, 41) nach Anspruch 1, dadurch gekennzeichnet, dass der Fingerreferenzpunkt (25, 26, 27) ein Leuchtmittel (250) umfasst.
  3. Datenhandschuh (40, 41) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Referenzkörper (21) zumindest vier, insbesondere fünf, räumlich getrennte Handreferenzpunkte (210, 211, 212, 213, 214) umfasst.
  4. Datenhandschuh (40, 41) nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass der Datenhandschuh (40, 41) derart ausgestaltet ist, dass der Referenzkörper (21) auf einem Handrücken des Probanden (3) angeordnet ist.
  5. Datenhandschuh (40, 41) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Datenhandschuh (40, 41) einen Aktor zur Erzeugung einer haptischen Rückkopplung umfasst.
  6. Datenhandschuh (40, 41) nach Anspruch 5, dadurch gekennzeichnet, dass der Aktor mit dem Aufnahmeelement (22, 23, 24) verbunden ist.
  7. Datenhandschuh (40, 41) nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass der Aktor eine Aktorschicht (51) umfasst, deren Volumen mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist.
  8. Datenhandschuh (40, 41) nach Anspruch 7, dadurch gekennzeichnet, dass die Aktorschicht (51) innerhalb eines zylinderartigen Elementes (50) zur Aufnahme der Fingerspitze des Probanden (3) oder eines Teils eines Fingers des Probanden (3) innerhalb des Aufnahmeelementes (22), wobei das Aufnahmeelement (22) als starrer Körper oder zum Teil als starrer Körper ausgestaltet ist, oder innerhalb eines als starrer Körper ausgestalteten Teils des Aufnahmeelementes (22) angeordnet ist.
  9. Datenhandschuh (40, 41) nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass der Aktor eine Wicklung (62) umfasst, deren Länge mittels einer elektrischen Spannung oder eines elektrischen Stromes veränderbar ist.
  10. Datenhandschuh (40, 41) nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass der Aktor mehrere Wicklungen umfasst, mit deren Hilfe verschiedene Kollisionspunkte dargestellt werden können.
  11. Virtual-Reality-System (1), insbesondere Virtual-Reality-System (1) mit einem Datenhandschuh (40, 41) nach einem der vorhergehenden Ansprüche, wobei das Virtual-Reality-System (1) zumindest eine Kamera (10, 11, 12, 13) und ein Aufnahmeelement (22, 23, 24) zur Aufnahme einer Fingerspitze eines Probanden (3) oder eines Teil eines Fingers des Probanden (3) umfasst, und wobei das Aufnahmeelement (22, 23, 24) zumindest einen mittels der Kamera (10, 11, 12, 13) oder einer weiteren Kamera als Referenzpunkt identifizierbaren Fingerreferenzpunkt (25, 26, 27) umfasst.
  12. Virtual-Reality-System (1) nach Anspruch 10, dadurch gekennzeichnet, dass es zumindest vier Kameras (10, 11, 12, 13) zur Identifizierung des Fingerreferenzpunktes (25, 26, 27) umfasst.
  13. Virtual-Reality-System (1) nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass es ein Auswertesystem (15) zur Ermittlung der Position zumindest eines Fingers des Probanden (3) oder zumindest einer Fingerspitze des Probanden (3) in Abhängigkeit eines Ausgangssignals der Kamera (10, 11, 12, 13), in Abhängigkeit eines Ausgangssignals zumindest einer der zumindest vier Kameras (10, 11, 12, 13) oder in Abhängigkeit von Ausgangssignalen der zumindest vier Kameras (10, 11, 12, 13) umfasst.
  14. Verfahren zum Herstellen eines Kraftfahrzeuges oder eines Bauteils für ein Kraftfahrzeug, wobei das Kraftfahrzeug oder das Bauteil entworfen wird, wobei ein Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils erzeugt wird, wobei das Virtual-Reality-Modell des Kraftfahrzeuges oder des Bauteils durch zumindest einen Probanden (3) unter Verwendung eines Datenhandschuhs (40, 41) nach einem der Ansprüche 1 bis 9 oder eines Virtual-Reality-Systems (1) nach einem der Ansprüche 10 bis 12 getestet wird, und wobei in Abhängigkeit dieses Tests das Kraftfahrzeug oder das Bauteil implementiert oder erneut entworfen wird.
DE102005011432.6A 2005-03-12 2005-03-12 Datenhandschuh Expired - Fee Related DE102005011432B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102005011432.6A DE102005011432B4 (de) 2005-03-12 2005-03-12 Datenhandschuh

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005011432.6A DE102005011432B4 (de) 2005-03-12 2005-03-12 Datenhandschuh

Publications (2)

Publication Number Publication Date
DE102005011432A1 true DE102005011432A1 (de) 2006-09-14
DE102005011432B4 DE102005011432B4 (de) 2019-03-21

Family

ID=36914752

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005011432.6A Expired - Fee Related DE102005011432B4 (de) 2005-03-12 2005-03-12 Datenhandschuh

Country Status (1)

Country Link
DE (1) DE102005011432B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007053008A1 (de) 2007-11-05 2009-05-14 Repetzki, Sebastian, Dr.-Ing. Zielkörper und Verfahren zur Bestimmung seiner räumlichen Lage
DE102010008985A1 (de) * 2010-02-24 2011-06-30 Deutsches Zentrum für Luft- und Raumfahrt e.V., 51147 Vorrichtung zur Bewegungs-Nachverfolgung
WO2012152976A1 (es) * 2011-05-10 2012-11-15 Universidade Da Coruña Sistema de realidad virtual para la evaluación y el tratamiento de los trastornos motores asociados a las enfermedades neurodegenerativas y a la edad
WO2013044893A1 (de) 2011-09-29 2013-04-04 Eads Deutschland Gmbh Datenhandschuh mit taktiler rückinformation und verfahren
WO2017113793A1 (zh) * 2015-12-31 2017-07-06 北京体基科技有限公司 一种在图像中确定手指所处区域的方法、装置及腕式设备
US11032449B2 (en) 2015-12-18 2021-06-08 Christina Schannath Glove-like device with ergonomically advantageously activatable camera integrated therein
DE102018217219B4 (de) 2018-10-09 2022-01-13 Audi Ag Verfahren zum Ermitteln einer dreidimensionalen Position eines Objekts

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE29719995U1 (de) * 1997-11-11 1998-02-19 Schlosser Mario System zum Umwandlung von visuell aufgenommenen Raumdaten in erfühl- und ertastbare Informationen
US5986643A (en) * 1987-03-24 1999-11-16 Sun Microsystems, Inc. Tactile feedback mechanism for a data processing system
DE69331259T2 (de) * 1992-09-08 2002-07-18 Toshiba Kawasaki Kk Räumliche Mensch-Schnittstelle durch Bewegungserkennung mit dynamischer Bildverarbeitung
EP1533683A2 (de) * 2003-11-21 2005-05-25 Seat, S.A. Gemischtes Realität-Simulationssystem

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5354162A (en) 1991-02-26 1994-10-11 Rutgers University Actuator system for providing force feedback to portable master support
US5982352A (en) * 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US6809462B2 (en) 2000-04-05 2004-10-26 Sri International Electroactive polymer sensors
US6586859B2 (en) 2000-04-05 2003-07-01 Sri International Electroactive polymer animated devices
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
SE515134C2 (sv) * 1998-09-11 2001-06-11 Qualisys Ab System och metod för kamerapositionering i en virtuell studio
US7196688B2 (en) 2000-05-24 2007-03-27 Immersion Corporation Haptic devices using electroactive polymers
AU2002230814A1 (en) 2000-11-02 2002-05-15 Essential Reality, Llc Electronic user worn interface device
US20030006962A1 (en) 2001-07-06 2003-01-09 Bajramovic Mark B. Computer mouse on a glove
DE10151556A1 (de) 2001-10-23 2003-04-30 Bosch Gmbh Robert Vorrichtung zum Öffnen und Schließen eines beweglichen Teils
US6924793B2 (en) 2002-07-16 2005-08-02 Hewlett-Packard Development Company, L.P. Multi-styli input device and method of implementation
DE10335595A1 (de) 2002-08-02 2004-02-26 Tecmedic Gmbh Verfahren sowie System zur Ermittlung der räumlichen Position von Markern in einem Volumen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5986643A (en) * 1987-03-24 1999-11-16 Sun Microsystems, Inc. Tactile feedback mechanism for a data processing system
DE69331259T2 (de) * 1992-09-08 2002-07-18 Toshiba Kawasaki Kk Räumliche Mensch-Schnittstelle durch Bewegungserkennung mit dynamischer Bildverarbeitung
DE29719995U1 (de) * 1997-11-11 1998-02-19 Schlosser Mario System zum Umwandlung von visuell aufgenommenen Raumdaten in erfühl- und ertastbare Informationen
EP1533683A2 (de) * 2003-11-21 2005-05-25 Seat, S.A. Gemischtes Realität-Simulationssystem

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007053008A1 (de) 2007-11-05 2009-05-14 Repetzki, Sebastian, Dr.-Ing. Zielkörper und Verfahren zur Bestimmung seiner räumlichen Lage
DE102010008985A1 (de) * 2010-02-24 2011-06-30 Deutsches Zentrum für Luft- und Raumfahrt e.V., 51147 Vorrichtung zur Bewegungs-Nachverfolgung
WO2012152976A1 (es) * 2011-05-10 2012-11-15 Universidade Da Coruña Sistema de realidad virtual para la evaluación y el tratamiento de los trastornos motores asociados a las enfermedades neurodegenerativas y a la edad
ES2397031A1 (es) * 2011-05-10 2013-03-04 Universidade Da Coruña Sistema de realidad virtual para la evaluación y el tratamiento de los trastornos motores asociados a las enfermedades neurodegenerativas y a la edad.
WO2013044893A1 (de) 2011-09-29 2013-04-04 Eads Deutschland Gmbh Datenhandschuh mit taktiler rückinformation und verfahren
DE102011114535A1 (de) 2011-09-29 2013-04-04 Eads Deutschland Gmbh Datenhandschuh mit taktiler Rückinformation und Verfahren
US9595172B2 (en) 2011-09-29 2017-03-14 Airbus Defence and Space GmbH Dataglove having tactile feedback and method
US11032449B2 (en) 2015-12-18 2021-06-08 Christina Schannath Glove-like device with ergonomically advantageously activatable camera integrated therein
WO2017113793A1 (zh) * 2015-12-31 2017-07-06 北京体基科技有限公司 一种在图像中确定手指所处区域的方法、装置及腕式设备
DE102018217219B4 (de) 2018-10-09 2022-01-13 Audi Ag Verfahren zum Ermitteln einer dreidimensionalen Position eines Objekts

Also Published As

Publication number Publication date
DE102005011432B4 (de) 2019-03-21

Similar Documents

Publication Publication Date Title
DE102005011432A1 (de) Datenhandschuh
EP1362281B1 (de) Anwendergesteuerte verknüpfung von informationen innerhalb eines augmented-reality-systems
DE202017106506U1 (de) Einrichtung für tiefes Maschinenlernen zum Robotergreifen
WO2018007075A1 (de) Interaktionssystem und -verfahren
US7170509B2 (en) Information processing apparatus, program for product assembly process display, and method for product assembly process display
DE102011079117B4 (de) Verfahren zum Programmieren eines Roboters
US20120053728A1 (en) Object-learning robot and method
DE102007055204A1 (de) Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts
DE102013000068A1 (de) Verfahren zum Synchronisieren von Anzeigeeinrichtungen eines Kraftfahrzeugs
EP2406697B1 (de) Programm und system zum erkennen eines objektes in einer bildschirmdarstellung
DE102014011012A1 (de) Verfahren und Mittel zum Auslegen und/oder Betreiben eines Roboters
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE102012110460A1 (de) Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
DE102017118983B4 (de) Roboter und Verfahren zur Steuerung eines Roboters
DE102022110363A1 (de) Verfahren und vorrichtung zur debugging-programmausführung und inhaltswiedergabe
WO1997015877A2 (de) Computergestütztes arbeits- und informationssystem und zugehöriger baustein
DE102018215124A1 (de) Steuervorrichtung für eine Roboteranordnung, Roboteranordnung, Verfahren, Computerprogramm und maschinenlesbares Speichermedium
JP2016162661A (ja) ワイヤーハーネスの製造方法及び製造装置
DE102019220071A1 (de) Bedienvorrichtung für ein Kraftfahrzeug
US20050278711A1 (en) Method and assembly for processing, viewing and installing command information transmitted by a device for manipulating images
DE102018220608A1 (de) Maschinelles Lernsystem, sowie ein Verfahren, ein Computerprogramm und eine Vorrichtung zum Erstellen des maschinellen Lernsystems
DE102019207454B4 (de) Augmented-Reality-System
DE102017118980B4 (de) Vorrichtung und Verfahren zur elektrischen Prüfung eines elektrischen Bauteils
Prodanova et al. Transfer learning with human corneal tissues: An analysis of optimal cut-off layer
Kobayashi et al. Toward rich facial expression by face robot

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee