DE112013003238T5 - Peripheriegerät für visuelles und/oder taktiles Feedback - Google Patents

Peripheriegerät für visuelles und/oder taktiles Feedback Download PDF

Info

Publication number
DE112013003238T5
DE112013003238T5 DE112013003238.4T DE112013003238T DE112013003238T5 DE 112013003238 T5 DE112013003238 T5 DE 112013003238T5 DE 112013003238 T DE112013003238 T DE 112013003238T DE 112013003238 T5 DE112013003238 T5 DE 112013003238T5
Authority
DE
Germany
Prior art keywords
peripheral device
hands
user
visual
tactile feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112013003238.4T
Other languages
English (en)
Inventor
Greg D. Kaine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112013003238T5 publication Critical patent/DE112013003238T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Abstract

Verfahren, Vorrichtungen und Speichermedium, die mit dem Erleichtern von Mensch-Computer-Interaktion verbunden sind, werden hier offenbart. Bei verschiedenen Ausführungsformen kann ein Peripheriegerät einen Gerätekörper einschließen, der einen Hohlraum aufweist, welcher konfiguriert ist, eine oder mehrere Hände eines Benutzers eines Computergeräts aufzunehmen, und eine Vielzahl von innerhalb des Hohlraums angeordneten Sensoren, um Positions-, Haltungs- oder Bewegungsdaten der Hand/Hände zu erfassen, während der Benutzer die Hand/Hände verwendet, um mit dem Computergerät zu interagieren. Das Peripheriegerät kann weiter einen Bildschirm, der auf einer Außenoberfläche des Körpers angeordnet ist, und/oder eine Fläche mit variabler Struktur, die innerhalb des Hohlraums angeordnet ist, einschließen, um entsprechendes visuelles und/oder taktiles Feedback basierend mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten der Hand/Hände an den Benutzer bereitzustellen. Andere Ausführungsformen können offenbart oder beansprucht sein.

Description

  • Verwandte Anmeldung
  • Die vorliegende Anmeldung beansprucht Priorität gegenüber der nicht vorläufigen US-Patentanmeldung Nr. 13/534,784, eingereicht am 27. Juni 2012, mit dem Titel „PERIPHERAL DEVICE FOR VISUAL AND/OR TACTILE FEEDBACK”, deren gesamte Offenbarung hiermit durch Bezugnahme vollständig aufgenommen ist.
  • Technisches Gebiet
  • Diese Anwendung betrifft das technische Gebiet der Datenverarbeitung und insbesondere Verfahren und Vorrichtungen, die mit der Erleichterung von Mensch-Computer-Interaktion verbunden sind.
  • Technisches Gebiet
  • Die in diesem Dokument bereitgestellte Hintergrundbeschreibung dient dem Ziel der allgemeinen Darstellung des Zusammenhangs der Offenbarung. Falls hierin nicht anders angegeben, stellen die in diesem Abschnitt beschriebenen Materialien keinen Stand der Technik in Bezug auf die Ansprüche dar und werden nicht als Stand der Technik durch Einbeziehung in diesen Abschnitt anerkannt.
  • Seit dem Fortschritt des Computings sind die sensorischen Modalitäten der Mensch-Computer-Interaktion auf Sehen und Hören begrenzt gewesen. Andere Sinne wie Berühren, Geschmack und Geruch wurden generell nicht in die Erfahrung integriert. Momentan gibt es keine bekannte ökonomisch praktikable Lösung, um Mittel bereitzustellen, um Tastsinnerfahrung, wie das Gefühl einer Decke, die Empfindung einer Betonoberfläche und so weiter, speziell für das Computing mit niedrigeren Kosten zu replizieren.
  • Kurze Beschreibung der Zeichnungen
  • Ausführungsformen der vorliegenden Erfindung sind mittels beispielhafter Ausführungsformen, aber nicht Begrenzungen, in den begleitenden Zeichnungen veranschaulicht, in denen ähnliche Verweiselemente ähnliche Elemente bezeichnen.
  • Die 14, veranschaulichen entsprechend eine perspektivische Ansicht, eine Endansicht, eine Seitenansicht und eine Draufsicht eines beispielhaften Peripheriegerätes für das Erleichtern von Mensch-Computer-Interaktion;
  • 5 veranschaulicht verschiedene beispielhafte Verwendungen des Peripheriegerätes;
  • 6 veranschaulicht eine architektonische oder Komponentenansicht des Peripheriegerätes;
  • 7 veranschaulicht ein Verfahren einer Mensch-Computer-Interaktion unter Verwendung des Peripheriegerätes; und
  • 8 veranschaulicht ein beispielhaftes nicht flüchtiges computerlesbares Speichermedium mit Befehlen, die konfiguriert sind, um alle oder ausgewählte Aspekte des Verfahrens von 7 zu praktizieren; alle sind gemäß Ausführungsformen der vorliegenden Offenbarung angeordnet.
  • Ausführliche Beschreibung
  • Verfahren, Vorrichtungen und Speichermedium, die mit dem Erleichtern von Mensch-Computer-Interaktion verbunden sind, werden offenbart. Bei verschiedenen Ausführungsformen kann ein Peripheriegerät einen Gerätekörper einschließen, der einen Hohlraum aufweist, welcher konfiguriert ist, eine oder mehrere Hände eines Benutzers des Computergeräts aufzunehmen, und eine Vielzahl von innerhalb des Hohlraums angeordneten Sensoren, um Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zu erfassen, während der Benutzer die eine oder die mehreren Hände verwendet, um mit dem Computergerät zu interagieren. Das Peripheriegerät kann weiter mindestens ein ausgewähltes aus einem Bildschirm, der auf einer Außenoberfläche des Körpers angeordnet ist, oder einer Fläche mit variabler Struktur, die innerhalb des Hohlraums angeordnet ist, einschließen, um mindestens ein entsprechendes ausgewähltes aus visuellem oder taktilem Feedback basierend mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten der einen oder der mehreren Hände an den Benutzer bereitzustellen.
  • Verschiedene Aspekte der veranschaulichenden Ausführungsformen werden unter Verwendung einer Terminologie beschrieben, die von einem Fachmann allgemein verwendet wird, um die Grundlagen seiner Arbeit einem anderen Fachmann zu vermitteln. Ein Fachmann erkennt jedoch, dass andere Ausführungsformen mit nur einigen der beschriebenen Aspekte umgesetzt werden können. Zum Zweck der Erklärung werden Zahlen, Materialien und Konfigurationen aufgeführt, um ein gründliches Verständnis der veranschaulichenden Ausführungsformen zu vermitteln. Für einen Fachmann ist es jedoch offensichtlich, dass auch andere Ausführungsformen ohne Angabe spezifischer Details verwirklicht werden können. In anderen Fällen werden aus dem Stand der Technik allgemein bekannte Merkmale ausgelassen oder vereinfacht, um die Darstellung der veranschaulichenden Ausführungsformen nicht zu verkomplizieren.
  • Verschiedene Operationen werden als mehrere diskrete Operationen beschrieben, um ein leichteres Verständnis der veranschaulichenden Ausführungsformen zu ermöglichen; jedoch die Reihenfolge der Beschreibung soll nicht andeuten, dass diese Operationen unbedingt von einer Reihenfolge abhängig sind. Es wird betont, dass diese Operationen nicht in der Reihenfolge der Darstellung ausgeführt werden müssen. Weiter sollen Beschreibungen von Operationen als getrennte Operationen nicht dahin gehend ausgelegt werden, dass die Operationen nötigerweise unabhängig voneinander und/oder durch separate Einheiten ausgeführt werden müssen. Beschreibungen von Entitäten und/oder Modulen als separate Module sollten desgleichen nicht dahin gehend ausgelegt werden, dass die Module getrennt sein und/oder getrennte Operationen ausführen müssen. Bei verschiedenen Ausführungsformen können veranschaulichte und/oder beschriebene Operationen, Entitäten, Daten und/oder Module zusammengeführt, in weitere untergeordnete Teile unterteilt und/oder ausgelassen sein.
  • Der Begriff „bei einer Ausführungsform” wird wiederholt verwendet. Der Begriff bezieht sich generell nicht jedes Mal auf die gleiche Ausführungsform, kann sich aber auch auf die gleiche Ausführungsform beziehen. Die Begriffe „umfassen”, „aufweisen” und „einschließen” sind gleichbedeutend, außer wenn im Zusammenhang anderweitig vorgegeben. Der Ausdruck „A/B” bedeutet „A oder B”. Der Ausdruck „A und/oder B” bedeutet „(A), (B) oder (A und B)”. Der Ausdruck „mindestens eines aus A, B und C” bedeutet „(A), (B), (C), (A und B), (A und C), (B und C) oder (A, B und C)”.
  • Die 14, veranschaulichen entsprechend eine perspektivische Ansicht, eine Endansicht, eine Seitenansicht und eine Draufsicht eines beispielhaften Peripheriegerätes für das Erleichtern von Mensch-Computer-Interaktion. Wie veranschaulicht in 1 kann bei verschiedenen Ausführungsformen das beispielhafte Peripheriegerät 100, das für die Verwendung geeignet ist, um Benutzerinteraktion mit einem Computergerät (nicht dargestellt in 1) (oder insbesondere mit einem Betriebssystem oder einer Anwendung des Computergeräts) zu erleichtern, den Gerätekörper 102 einschließen, der einen Hohlraum 104 aufweist, welcher konfiguriert ist, eine oder mehrere Hände 112 eines Benutzers des Computergeräts aufzunehmen. Das Peripheriegerät 100 kann eine Anzahl von Sensoren 106 einschließen, die innerhalb des Hohlraums angeordnet sind (wie dargestellt, durch die punktierten Linien), um Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen 112 zu erfassen, während der Benutzer die eine oder die mehreren Hände 112 bewegt und/oder arrangiert, um mit dem Computergerät zu interagieren. Bei Ausführungsformen können die erfassten Daten jeden realen Gegenstand einschließen, den die Hände des Benutzers halten oder mit dem sie interagieren können. Die Sensoren 106 können irgendwelche von einer Anzahl an akustischen, lichtundurchlässigen, Erdmagnetismus-, übertragene Energie reflektierenden, elektromagnetischen Induktions- oder Vibrationssensoren sein, die aus dem Stand der Technik bekannt sind. Die Sensoren 106 können an anderen Orten angeordnet sein und sind nicht auf die Orte begrenzt, die in 1 zu Veranschaulichungszwecken dargestellt sind.
  • Bei Ausführungsformen kann das Peripheriegerät 100 weiter mindestens ein ausgewähltes aus einem Bildschirm 110, der an einer Außenoberfläche des Körpers 102 angeordnet ist, wie beispielsweise der Oberseite, und/oder einer Fläche mit variabler Struktur 108, die innerhalb des Hohlraums 104 angeordnet ist, wie beispielsweise an der inneren Unterseite, einschließen, um entsprechend visuelles 116 und/oder taktiles Feedback basierend mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten der einen oder der mehreren Hände 112 bereitzustellen. Der Bildschirm 110 kann irgendeiner von einer Anzahl von Bildschirmen sein, wie z. B., aber nicht beschränkt auf, ein Thin Film Transistor- oder Flüssigkristall-Display, das aus dem Stand der Technik bekannt ist. Die Fläche mit variabler Struktur 108 kann eine Fläche sein, die konfiguriert ist, um ein haptisches Feedback mit relativ niedriger Wiedergabetreue bereitzustellen. Beispielsweise kann die Fläche 108 eine elektrostatische Vibrationsfläche sein, die von Senseg of Espoo, Finnland verfügbar ist. Bei noch weiteren Ausführungsformen kann die Fläche 108 auch Feedback in Form von Wärme, Druck, Empfindung des Windes und so weiter bereitstellen.
  • In 1 stellt der Pfeil 114 eine Bewegungsrichtung der Hand des Benutzers 112 dar, die innerhalb des Hohlraums 104 empfangen wird. Zur Erleichterung des Verständnisses ist nur eine Hand 112 in 1 veranschaulicht. Die Offenbarung ist jedoch in dieser Hinsicht nicht eingeschränkt. Es wird antizipiert, dass das Peripheriegerät 100 konfiguriert sein kann, um beide Hände 112 des Benutzers aufzunehmen und Positions-, Haltungs- oder Bewegungsdaten von beiden Händen 112 zu erfassen.
  • Wie veranschaulicht, in 2 weist bei Ausführungsformen das Peripheriegerät 100 einen elongierten Körper mit ausreichender Tiefe und/oder Höhe auf, um dem größten Teil oder der Gesamtlänge der Hand oder der Hände 112 des Benutzers zu ermöglichen innerhalb des Hohlraums 104 aufgenommen zu werden und sich herumzubewegen sowie verschiedene Körperhaltungen anzunehmen. Wie veranschaulicht in den 1 und 3 für die dargestellten Ausführungsformen kann das Peripheriegerät 100 mit einem teilweise ellipsenförmigen Ende konfiguriert sein. Die Offenbarung ist jedoch in dieser Hinsicht nicht eingeschränkt. Beispielsweise kann bei alternativen Ausführungsformen, das Peripheriegerät 100 stattdessen mit einem rechteckigen oder im Wesentlichen rechteckig geformten Ende konfiguriert sein. Bei noch weiteren Ausführungsformen kann das Peripheriegerät 100 mit einer Endform von irgendeiner von einer Anzahl an anderen geometrischen Formen konfiguriert sein.
  • Bei Ausführungsformen kann das visuelle Feedback 116 ein Display des bzw. der empfangenen Teile der Hand/Hände des Benutzers 112 einschließen. Bei Ausführungsformen wie veranschaulicht in 4 ist die Anzeige des empfangenen Teils der Hand/Hände des Benutzers 112 mit dem uneingeführten Teil der Hand/Hände des Benutzers 112 ausgerichtet. Bei Ausführungsformen kann die Anzeige eine realistische High-Definition-Wiedergabe der Hand oder der Hände 112 des Benutzers sein mit einer Körperhaltung, die der Körperhaltung des bzw. der empfangenen Teile der Hand/Hände des Benutzers 112 entspricht. Bei Ausführungsformen kann die Anzeige weiter einen Hintergrund und/oder eine Wiedergabe von einem oder mehreren virtuellen Objekten einschließen, mit denen der Benutzer unter Verwendung seiner Hand oder Hände 112 interagiert. Experimente haben demonstriert, dass der Verstand des Benutzers die Leere „ausfüllen” und den Benutzer mit einer verbesserten Realismuserfahrung als Reaktion auf eine im Wesentlichen korrekte visuelle Repräsentation der Interaktion des Benutzers unter Verwendung seiner Hand/Hände 112 ausstatten kann.
  • 5 veranschaulicht verschiedene beispielhafte Verwendungen des Peripheriegeräts gemäß verschiedenen Ausführungsformen. Wie veranschaulicht, kann das Peripheriegerät 100 eingesetzt werden, um einem Benutzer des Computers 502 zu erleichtern, mit dem Computer 502 oder insbesondere einer Anwendung zu interagieren, die auf dem Computer 502 ausgeführt wird. Wie vorstehend beschrieben kann der Benutzer 114 seine Hand/Hände 112 in den Hohlraum 104 des Peripheriegeräts 100 einführen und seine Hand/Hände 112 bewegen, die unterschiedliche Haltungen annehmen, während sie sich innerhalb des Hohlraums 104 befinden, um mit dem Computer 502 zu interagieren. Als Reaktion kann das Peripheriegerät 100 allein oder in Kooperation mit dem Computer 502, abhängig von Ausführungsformen, visuelles und/oder taktiles Feedback an den Benutzer bereitstellen, um die Computingerfahrung des Benutzers zu verbessern.
  • Beispielsweise kann der Benutzer mit einer flugrelevanten Anwendung interagieren, die auf dem Computer 502 ausgeführt wird. Die Anwendung kann eine terrestrische Ansicht des Horizonts auf dem Display 504 des Computers 502 wiedergeben, während das Peripheriegerät 100 in Kooperation mit dem Computer 502 eine Anzeige der Hand/Hände 112 des Benutzers wiedergibt, die das Steuerrad eines Flugzeugs bedienen, mit einem Hintergrund eines Cockpits des Flugzeugs, das geflogen wird. Zusätzlich kann das Peripheriegerät 100 in Kooperation mit dem Computer 502 weiter taktiles Feedback an den Benutzer bereitstellen, um den Benutzer mit einer Erfahrung von Vibration oder anderer mechanischer Kraft auszustatten, die der Benutzer vom Steuerrad während des Flugs erfahren kann.
  • Als ein weiteres Beispiel kann der Benutzer mit einer mit Fahren oder Rennfahren in Zusammenhang stehenden Anwendung interagieren, die auf dem Computer 502 ausgeführt wird. Die Anwendung kann eine terrestrische Ansicht des Straßenbildes oder einer Pferderennbahn auf dem Display des Computers 502 wiedergeben, während das Peripheriegerät 100 in Kooperation mit dem Computer 502 die Hand/Hände 112 des Benutzers, der das Lenkrad bedient, mit einem Hintergrund des Dashboards des Kraftfahrzeugs oder Rennwagens wiedergeben kann, das bzw. der gefahren wird. Zusätzlich kann das Peripheriegerät 100 in Kooperation mit dem Computer 502 weiter dem Benutzer taktiles Feedback bereitstellen, um den Benutzer mit einer Vibrationserfahrung von dem beschleunigenden Kraftfahrzeug oder Rennwagen auszustatten.
  • Als noch ein weiteres Beispiel kann der Benutzer mit einer mit Chirurgie in Zusammenhang stehenden Ausbildungsanwendung interagieren, die auf dem Computer 502 ausgeführt wird. Die Anwendung kann z. B. einen Operationssaal im Display des Computers 402 wiedergeben, während das Peripheriegerät 100 in Kooperation mit dem Computer 402 das Objekt, Organ oder den Körperteil wiedergeben kann, das bzw. der mit der Hand bzw. den Händen 112 des Benutzers, die an dem Objekt/Organ/Körperteil (mit einem oder mehreren ausgewählten Operationsinstrumenten) arbeiten, operiert wird.
  • Als noch ein weiteres Beispiel kann der Benutzer mit einer mit E-Commerce in Zusammenhang stehenden Anwendung interagieren, die auf dem Computer 502 ausgeführt wird, die insbesondere mit der mit E-Commerce in Zusammenhang stehenden Anwendung in der Auswahl von bestimmten Kleidungsstücken interagiert. Die Anwendung kann einen virtuellen Verkaufsraum einschließlich der virtuellen Kleidungsstücke im Display des Computers 502 wiedergeben. Das Peripheriegerät 100 kann in Kooperation mit dem Computer 502 ein spezielles Element wiedergeben, das die Hand/Hände des Benutzers 112 „berührt”. Zusätzlich kann das Peripheriegerät 100 in Kooperation mit dem Computer 502 weiter taktiles Feedback an den Benutzer bereitstellen, um den Benutzer mit einem Gefühl der Struktur des Gewebes des Kleidungsstücks auszustatten, das gefühlt wird.
  • Zusätzlich dazu, dass der Computer 502 ein Desktop-Computer ist, kann er bei verschiedenen Ausführungsformen ein Server-Computer, ein Computing-Tablet, eine Spielkonsole, eine Set-Top-Box, ein Smartphone, ein Personal Digital Assistant oder andere digitale Computergeräte sein.
  • 6 veranschaulicht eine architektonische oder Komponentenansicht des Peripheriegeräts gemäß verschiedenen Ausführungsformen. Bei verschiedenen Ausführungsformen kann das Peripheriegerät 100 wie veranschaulicht zusätzlich zu den vorstehend beschriebenen Sensoren 106, dem Bildschirm 110 und der Fläche mit variabler Struktur 108 weiter die Prozessoren 602, den Speicher 604 (mit der Betriebslogik 606) und die Kommunikationsschnittstelle 608 einschließen, die miteinander und den früher beschriebenen Elementen wie gezeigt gekoppelt sind.
  • Wie vorstehend beschrieben, können die Sensoren 106 konfiguriert sein, Daten, die mit der Position, Körperhaltung und/oder Bewegung der Hand/Hände des Benutzers verbunden sind, zu erkennen und zu erfassen. Der Bildschirm 110 kann konfiguriert sein, eine Anzeige des visuellen Feedbacks an den Benutzer zu ermöglichen, und die Fläche mit variabler Struktur 108 kann konfiguriert sein, die Bereitstellung von taktilem Feedback an den Benutzer zu ermöglichen.
  • Der Prozessor 602 kann konfiguriert sein, die Betriebslogik 606 auszuführen. Der Prozessor 602 kann irgendeiner aus einer Anzahl von aus dem Stand der Technik bekannten Einzel- oder Mehrkernprozessoren sein. Der Speicher 604 kann füchtige und nichtflüchtige Speichermedien umfassen, die konfiguriert sind, eine permanente und zeitliche (Arbeits-)Kopie der Betriebslogik 606 zu speichern.
  • Bei Ausführungsformen kann die Betriebslogik 606 konfiguriert sein, die erfassten Positions-, Haltungs- und/oder Bewegungsdaten der Hand/Hände des Benutzers zu verarbeiten. Bei Ausführungsformen kann die Betriebslogik 606 konfiguriert sein, die anfängliche Verarbeitung auszuführen und die Daten zum Computer zu senden, der die Anwendung hostet, um basierend auf dem visuellen und/oder taktilen Feedback Befehle zu bestimmen und zu generieren, die bereitzustellen sind. Für diese Ausführungsformen kann die Betriebslogik 606 weiter konfiguriert sein, Daten vom hostenden Computer zu empfangen, die mit dem visuellen und/oder taktilen Feedback verbunden sind, das bereitzustellen ist. Bei alternativen Ausführungsformen kann die Betriebslogik 606 konfiguriert sein, eine größere Rolle beim Bestimmen des visuellen und/oder der taktilen Feedbacks anzunehmen, wie beispielsweise, aber nicht beschränkt auf, das Generieren der Bilder, welche die Hand/Hände des Benutzers darstellen. In jedem Fall kann, ob selbstständig bestimmt oder ansprechend auf Befehle vom hostenden Computer, die Betriebslogik 606 weiter konfiguriert sein, den Bildschirm 110 und/oder die Fläche mit variabler Struktur 108 zu steuern, um das visuelle und/oder taktile Feedback bereitzustellen.
  • Bei Ausführungsformen, kann die Betriebslogik 606 in Befehlen implementiert sein, die von der Befehlssatzarchitektur (ISA) von Prozessor 602 oder in höheren Sprachen unterstützt werden und in die unterstützte ISA kompiliert sind. Die Betriebslogik 606 kann eine oder mehrere Logikeinheiten oder Module umfassen. Die Betriebslogik 606 kann in einer objektorientierten Weise implementiert sein. Die Betriebslogik 606 kann konfiguriert sein, in einer Multi-Tasking- und/oder Multi-Thread-Weise ausgeführt zu werden.
  • Bei Ausführungsformen kann die Kommunikationsschnittstelle 608 konfiguriert sein, die Kommunikation zwischen dem Peripheriegerät 100 und dem Computer, der die Anwendung hostet, zu erleichtern. Wie vorstehend beschrieben, kann die Kommunikation das Übertragen der erfassten Positions-, Haltungs- und/oder Bewegungsdaten der Hand/Hände des Benutzers zum hostenden Computer und das Übertragen von Daten, die mit visuellem und/oder taktilem Feedback vom Hostrechner zum Peripheriegerät 100 verbunden sind, einschließen. Bei Ausführungsformen kann die Kommunikationsschnittstelle 608 eine verdrahtete oder eine drahtlose Kommunikationsschnittstelle sein. Ein Beispiel einer verdrahteten Kommunikationsschnittstelle, kann, ist aber nicht beschränkt auf, eine universeller serieller Bus-(USB)-Schnittstelle einschließen. Ein Beispiel einer drahtlosen Kommunikationsschnittstelle, kann, ist aber nicht beschränkt auf, eine Bluetooth-Schnittstelle einschließen.
  • 7 veranschaulicht ein Verfahren einer Mensch-Computer-Interaktion unter Verwendung des Peripheriegeräts gemäß verschiedenen Ausführungsformen. Wie veranschaulicht bei verschiedenen Ausführungsformen, kann das Verfahren 700 bei Block 702 beginnen. Bei Block 702 kann die Betriebslogik des Peripheriegeräts 100 Positions-, Haltungs- und/oder Bewegungsdaten der Hand/Hände des Benutzers 112 empfangen (z. B. von den Sensoren 106). Als Antwort kann die Betriebslogik die Positions-, Haltungs- und/oder Bewegungsdaten verarbeiten oder die Positions-, Haltungs- und/oder Bewegungsdaten zum hostenden Computer zur Verarbeitung (mit oder ohne anfängliche Verarbeitung) senden.
  • Von Block 702 kann das Verfahren 700 zu Block 704 fortschreiten. Bei Block 704 kann die Betriebslogik Daten, die mit dem Bereitstellen von visuellem und/oder taktilem Feedback verbunden sind, basierend mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten der Hand/Hände des Benutzers 112 generieren. Bei alternativen Ausführungsformen kann bei Block 704 die Betriebslogik stattdessen die Daten, die mit dem Bereitstellen von visuellem und/oder taktilem Feedback verbunden sind, vom hostenden Computer empfangen. Bei noch weiteren Ausführungsformen kann die Betriebslogik einige der Daten selbst generieren und die anderen vom hostenden Computer empfangen.
  • Von Block 704 kann das Verfahren 700 zum Block 706 fortschreiten. Bei Block 706 kann die Betriebslogik den Bildschirm und/oder die Fläche mit variabler Struktur, um das visuelle und/oder taktile Feedback bereitzustellen, basierend mindestens teilweise auf den Daten, die mit dem Bereitstellen verbunden sind, die generiert oder empfangen wurden, zu steuern.
  • Das Verfahren 700 kann kontinuierlich wiederholt werden, bis der Benutzer unterbricht oder die Interaktion mit dem Computer, der die Anwendung hostet, einstellt.
  • 8 veranschaulicht ein beispielhaftes nicht flüchtiges computerlesbares Speichermedium, das Befehle auf, die konfiguriert sind, um alle oder ausgewählte Aspekte des Verfahrens von 7 zu praktizieren; gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung. Wie veranschaulicht, kann das nicht flüchtige computerlesbare Speichermedium 802 eine Anzahl von Programmierbefehlen 804 einschließen. Die Programmierbefehle 804 können konfiguriert sein, dem Peripheriegerät 100 als Reaktion auf die Ausführung der Programmierbefehle zu ermöglichen, die Operationen des Verfahrens 700 vollständig oder teilweise auszuführen.
  • Unter erneuter Bezugnahme auf 6 kann für verschiedene Ausführungsformen der Prozessor 602 zusammen mit der Betriebslogik 606 gepackt und konfiguriert sein, um das Verfahren von 7 zu praktizieren. Bei verschiedenen Ausführungsformen kann der Prozessor 602 zusammen mit der Betriebslogik 606 gepackt und konfiguriert sein, um das Verfahren von 7 zu praktizieren und ein System-In-Package (SiP) zu bilden. Bei verschiedenen Ausführungsformen kann der Prozessor 602 mit der Betriebslogik 606 auf demselben Chip integriert und konfiguriert sein, um das Verfahren von 7 zu praktizieren. Bei verschiedenen Ausführungsformen kann der Prozessor 602 zusammen mit der Betriebslogik 606 gepackt und konfiguriert sein, um das Verfahren von 7 zu praktizieren und einen System-on-Chip (SoC) zu bilden. Bei verschiedenen Ausführungsformen kann der SoC in einem Smartphone, Mobiltelefon, Tablet oder einem anderen mobilen Gerät verwendet sein.
  • Dementsprechend schließen beschriebene Ausführungsformen ohne Einschränkung ein Peripheriegerät ein, um menschliche Interaktion mit einem Computergerät zu erleichtern, das einen Gerätekörper einschließt, der einen Hohlraum aufweist, welcher konfiguriert ist, eine oder mehrere Hände eines Benutzers des Computergeräts aufzunehmen, und eine Vielzahl von innerhalb des Hohlraums angeordneten Sensoren, um Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zu erfassen, während der Benutzer die eine oder die mehreren Hände verwendet, um mit dem Computergerät zu interagieren. Das Peripheriegerät kann weiter mindestens eines ausgewählt aus einem Bildschirm, der auf einer Außenoberfläche des Körpers angeordnet ist, oder einer Fläche mit variabler Struktur, die innerhalb des Hohlraums angeordnet ist, einschließen, um mindestens ein entsprechendes ausgewähltes aus visuellem oder taktilem Feedback basierend mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten der einen oder der mehreren Hände an den Benutzer bereitzustellen.
  • Weiter kann der Gerätekörper ausgedehnt sein und ein ausgewähltes aus einem teilweise ellipsenförmigen Ende oder einem rechteckigen Ende aufweisen. Der Hohlraum kann konfiguriert sein, um beide Hände des Benutzers aufzunehmen. Das Peripheriegerät kann weiter eine Kommunikationsschnittstelle einschließen, die mit den Sensoren gekoppelt und konfiguriert ist, um die Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zum Computergerät zu senden. Oder das Peripheriegerät kann weiter eine Kommunikationsschnittstelle einschließen, die mit mindestens einem ausgewählten aus dem Bildschirm oder der Fläche mit variabler Struktur gekoppelt ist und konfiguriert ist, Daten vom Computergerät zu empfangen, die mit mindestens einem entsprechenden aus dem Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer verbunden sind. Die Daten, die mit dem Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer verbunden sind, können mindestens eines aus Daten, die mit einem Hintergrund verbunden sind, der als Teil des visuellen Feedbacks wiederzugeben ist, Daten, die mit einer vollen oder teilweisen Darstellung der einen oder der mehreren Hände verbunden sind, oder Daten, die mit dem Konfigurieren der Fläche mit variabler Struktur verbunden sind, um das taktile Feedback bereitzustellen, einschließen.
  • Zusätzlich kann das Peripheriegerät einen Prozessor einschließen, der mit den Sensoren gekoppelt und konfiguriert ist, mindestens zu der Verarbeitung der Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen beizutragen, um das visuelle oder taktile Feedback an den Benutzer bereitzustellen. Oder das Peripheriegerät kann weiter einen Prozessor einschließen, der mindestens mit einem aus Bildschirm oder Fläche mit variabler Struktur gekoppelt und konfiguriert ist, mindestens zum Bereitstellen eines entsprechenden aus dem visuellen oder taktilen Feedback an den Benutzer beizutragen. Der Prozessor kann konfiguriert sein, mindestens zu einem aus dem Bestimmen eines Hintergrunds, der als Teil des visuellen Feedbacks wiederzugeben ist, dem Bestimmen einer vollen oder teilweisen Darstellung der einen oder der mehreren Hände oder dem Bestimmen der Fläche mit variabler Struktur, um das taktile Feedback bereitzustellen, beizutragen.
  • Bei Ausführungsformen kann das Peripheriegerät sowohl den Bildschirm als auch die Fläche mit variabler Struktur umfassen.
  • Ausführungsformen, die mit einem Verfahren verbunden sind, um menschliche Interaktion mit einem Computergerät zu erleichtern, sind auch offenbart worden. Das Verfahren kann das Erfassen von Positions-, Haltungs- oder Bewegungsdaten von einer oder mehreren Händen eines Benutzers eines Computergeräts einschließen, während der Benutzer die eine oder die mehreren Hände innerhalb eines Hohlraums eines Peripheriegerätes bewegt oder hält, um mit dem Computergerät zu interagieren; und das Bereitstellen von mindestens einem ausgewählten aus visuellem Feedback über einen Bildschirm des Peripheriegerätes oder taktilem Feedback über eine Fläche mit variabler Struktur des Peripheriegerätes an den Benutzer, wobei das Bereitstellen mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten der einen oder den mehreren Händen basiert.
  • Das Erfassen und Bereitstellen kann für beide Hände des Benutzers ausgeführt werden. Das Verfahren kann weiter das Senden der Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen an das Computergerät einschließen. Das Verfahren kann weiter das Empfangen von Daten vom Computergerät einschließen, die mit mindestens einem ausgewählten aus dem Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer verbunden sind. Die Daten, die mit dem Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer verbunden sind, können mindestens eines aus Daten, die mit einem Hintergrund verbunden sind, der als Teil des visuellen Feedbacks wiederzugeben ist, Daten, die mit einer vollen oder teilweisen Darstellung der einen oder der mehreren Hände verbunden sind, oder Daten, die mit dem Konfigurieren der Fläche mit variabler Struktur verbunden sind, um das taktile Feedback bereitzustellen, einschließen.
  • Bei Ausführungsformen kann das Verfahren weiter das Verarbeiten der Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen durch das Peripheriegerät einschließen, um das visuelle oder taktile Feedback an den Benutzer bereitzustellen. Das Verfahren kann weiter mindestens das Beitragen zum Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer durch das Peripheriegerät einschließen. Das Beitragen kann das Beitragen zu mindestens einem aus dem Bestimmen eines Hintergrunds, der als Teil des visuellen Feedbacks wiederzugeben ist, das Bestimmen einer vollen oder teilweisen Darstellung von der einen oder den mehreren Händen oder das Bestimmen der Fläche mit variabler Struktur, um das taktile Feedback bereitzustellen, einschließen.
  • Bei Ausführungsformen kann das Bereitstellen der vorstehend genannten Verfahrensausführungsformen das Bereitstellen sowohl des visuellen als auch des taktilen Feedbacks einschließen.
  • Ausführungsformen von mindestens einem nicht flüchtigen computerlesbaren Speichermedium wurden auch offenbart. Das computerlesbare Speichermedium kann eine Vielzahl von Befehlen einschließen, die konfiguriert sind, um einem Peripheriegerät als Reaktion auf die Ausführung der Befehle durch einen Prozessor zu ermöglichen Positions-, Haltungs- oder Bewegungsdaten von einer oder mehreren Händen eines Benutzers eines Computergeräts zu erfassen, während der Benutzer die eine oder die mehreren Hände innerhalb eines Hohlraums des Peripheriegeräts bewegt oder hält, um mit dem Computergerät zu interagieren; und dem Benutzer mindestens ein ausgewähltes aus visuellem Feedback über einen Bildschirm des Peripheriegeräts oder taktilem Feedback über eine Fläche mit variabler Struktur des Peripheriegerätes bereitzustellen, wobei das Bereitstellen mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen basiert.
  • Das Peripheriegerät kann auch in die Lage versetzt werden, das Erfassen auszuführen und Operationen für beide Hände des Benutzers bereitzustellen. Das Peripheriegerät kann auch in die Lage versetzt werden, die Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zum Computergerät zu senden. Das Peripheriegerät kann auch in die Lage versetzt werden, Daten vom Computergerät zu empfangen, die mit mindestens einem ausgewählten aus dem Bereitstellen von visuellem oder taktilem Feedback an den Benutzer verbunden sind. Die Daten, die mit dem Bereitstellen von visuellem oder taktilem Feedback an den Benutzer verbunden sind, können mindestens eines aus Daten, die mit einem Hintergrund verbundenen sind, der als Teil des visuellen Feedbacks zu rendern ist, Daten, die mit einer vollen oder teilweisen Darstellung der einen oder den mehreren Händen verbunden sind, oder Daten, die mit dem Konfigurieren der Fläche mit variabler Struktur verbunden sind, um das taktile Feedback bereitzustellen, einschließen.
  • Das Peripheriegerät kann auch in die Lage versetzt werden, die Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen für das Bereitstellen von visuellem oder taktilem Feedback an den Benutzer zu verarbeiten. Das Peripheriegerät kann auch in die Lage versetzt werden, mindestens zum Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer beizutragen. Der Beitrag kann das Beitragen zu mindestens einem aus dem Bestimmen eines Hintergrundes, der als Teil des visuellen Feedbacks wiederzugeben ist, dem Bestimmen einer vollen oder teilweisen Darstellung der einen oder den mehreren Händen oder dem Bestimmen der Fläche mit variabler Struktur, um das taktile Feedback bereitzustellen, einschließen.
  • Das Bereitstellen kann bei irgendeiner der vorstehend genannten Speichermediumausführungsformen das Bereitstellen sowohl des visuellen als auch taktilen Feedbacks einschließen.
  • Es wurden bestimmte Ausführungsformen beschrieben, doch für einen Fachmann ist es offensichtlich, dass eine große Vielfalt von anderen und/oder gleichartigen Implementierungen anstelle der bestimmten gezeigten und beschriebenen Ausführungsformen verwirklicht werden kann, ohne vom Umfang der vorliegenden Erfindung abzuweichen. Diese Anmeldung soll alle Anpassungen oder Varianten der hier besprochenen Ausführungsformen abdecken. Deshalb wird ausdrücklich hervorgehoben, dass die Ausführungsformen der vorliegenden Offenbarung nur durch die Ansprüche und deren gleichwertige Auslegungen eingegrenzt sind.

Claims (26)

  1. Peripheriegerät zum Erleichtern der menschlichen Interaktion mit einem Computergerät, umfassend ein Gerätekörper, der einen Hohlraum aufweist, welcher konfiguriert ist, eine oder mehrere Hände eines Benutzers des Computergeräts aufzunehmen; eine Vielzahl von innerhalb des Hohlraums angeordneten Sensoren, um Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zu erfassen, während der Benutzer die eine oder die mehreren Hände verwendet, um mit dem Computergerät zu interagieren; und mindestens ein ausgewähltes aus einem Bildschirm, der auf einer Außenoberfläche des Körpers angeordnet ist, oder einer Fläche mit variabler Struktur, die innerhalb des Hohlraums angeordnet ist, um mindestens ein entsprechendes ausgewähltes aus visuellem oder taktilem Feedback basierend mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten der einen oder der mehreren Hände an den Benutzer bereitzustellen.
  2. Peripheriegerät nach Anspruch 1, wobei der Gerätekörper ausgedehnt ist und ein ausgewähltes aus einem teilweise ellipsenförmigen Ende oder einem rechteckigen Ende aufweist.
  3. Peripheriegerät nach Anspruch 1, wobei der Hohlraum konfiguriert ist, beide Hände des Benutzers aufzunehmen.
  4. Peripheriegerät nach Anspruch 1, weiter umfassend eine Kommunikationsschnittstelle, die mit den Sensoren gekoppelt und konfiguriert ist, die Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zum Computergerät zu senden.
  5. Peripheriegerät nach Anspruch 1 weiter umfassend eine Kommunikationsschnittstelle, die mit mindestens einem ausgewählten aus dem Bildschirm oder der Fläche mit variabler Struktur gekoppelt und konfiguriert ist, Daten vom Computergerät zu empfangen, die mit mindestens einem entsprechenden aus dem Bereitstellen von visuellem oder taktilem Feedback an den Benutzer verbunden sind.
  6. Peripheriegerät nach Anspruch 5, wobei die Daten, die mit dem Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer verbunden sind, mindestens eines aus – Daten, die mit einem Hintergrund verbunden sind, der als Teil des visuellen Feedbacks wiederzugeben ist, – Daten, die mit einer vollen oder teilweisen Darstellung von der einen oder den mehreren Händen verbunden sind, oder – Daten, die mit dem Konfigurieren der Fläche mit variabler Struktur verbunden sind, um das taktile Feedback bereitzustellen, einschließt.
  7. Peripheriegerät nach Anspruch 1, weiter umfassend einen Prozessor, der mit den Sensoren gekoppelt und konfiguriert ist, um mindestens zum Verarbeiten der Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen beizutragen, um das visuelle oder taktile Feedback an den Benutzer bereitzustellen.
  8. Peripheriegerät nach Anspruch 1 weiter umfassend einen Prozessor, der mit mindestens einem aus dem Bildschirm oder der Fläche mit variabler Struktur gekoppelt und konfiguriert ist, mindestens zum Bereitstellen eines entsprechenden aus dem visuellen oder taktilen Feedback an den Benutzer beizutragen.
  9. Peripheriegerät nach Anspruch 8, wobei der Prozessor konfiguriert ist, zu mindestens einem aus – dem Bestimmen eines Hintergrundes, der als Teil des visuellen Feedbacks wiederzugeben ist, – dem Bestimmen einer vollen oder teilweisen Darstellung der einen oder der mehreren Hände oder – dem Bestimmen der Fläche mit variabler Struktur, um das taktile Feedback bereitzustellen, beizutragen.
  10. Peripheriegerät nach irgendeinem der vorhergehenden Ansprüche, wobei das Peripheriegerät sowohl den Bildschirm als auch die Fläche mit variabler Struktur umfasst.
  11. Verfahren, um menschliche Interaktion mit einem Computergerät zu erleichtern, umfassend: das Erfassen von Positions-, Haltungs- oder Bewegungsdaten von einer oder mehreren Händen eines Benutzers eines Computergeräts, während der Benutzer die eine oder die mehreren Hände innerhalb eines Hohlraums eines Peripheriegerätes bewegt oder hält, um mit dem Computergerät zu interagieren; und das Bereitstellen von mindestens einem ausgewählten aus visuellem Feedback über einen Bildschirm des Peripheriegerätes oder taktilem Feedback über eine Fläche mit variabler Struktur des Peripheriegerätes, wobei das Bereitstellen mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen basiert.
  12. Verfahren nach Anspruch 11, wobei das Erfassen und Bereitstellen für beide Hände des Benutzers ausgeführt wird.
  13. Verfahren nach Anspruch 11, weiter umfassend das Senden der Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zum Computergerät.
  14. Verfahren nach Anspruch 11, weiter umfassend das Empfangen von Daten vom Computergerät, die mit mindestens einem ausgewählten aus dem Bereitstellen von visuellem oder taktilem Feedback an den Benutzer verbunden sind.
  15. Verfahren nach Anspruch 14, wobei die Daten, die mit dem Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer verbunden sind, mindestens eines aus – Daten, die mit einem Hintergrund verbunden sind, der als Teil des visuellen Feedbacks wiederzugeben ist, – Daten, die mit einer vollen oder teilweisen Darstellung von der einen oder den mehreren Händen verbunden sind, oder – Daten, die mit dem Konfigurieren der Fläche mit variabler Struktur verbunden sind, um das taktile Feedback bereitzustellen, einschließt.
  16. Verfahren nach Anspruch 11 weiter umfassend das Verarbeiten der Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen durch das Peripheriegerät, um das visuelle oder taktile Feedback an den Benutzer bereitzustellen.
  17. Verfahren nach Anspruch 11 weiter umfassend mindestens das Beitragen zum Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer durch das Peripheriegerät.
  18. Verfahren nach Anspruch 17, wobei das Beitragen das Beitragen zu mindestens einem aus – dem Bestimmen eines Hintergrundes, der als Teil des visuellen Feedbacks wiederzugeben ist, – dem Bestimmen einer vollen oder teilweisen Darstellung der einen oder der mehreren Hände oder – dem Bestimmen der Fläche mit variabler Struktur, um das taktile Feedback bereitzustellen, umfasst.
  19. Verfahren nach irgendeinem der Ansprüche 11 bis 18, wobei das Bereitstellen das Bereitstellen sowohl des visuellen als auch des taktilen Feedbacks umfasst.
  20. Mindestens ein nicht flüchtiges computerlesbares Speichermedium, das eine Vielzahl von Befehlen aufweist, die konfiguriert sind, ein Peripheriegerät als Reaktion auf die Ausführung der Befehle durch einen Prozessor zu veranlassen: Positions-, Haltungs- oder Bewegungsdaten von einer oder mehreren Händen eines Benutzers eines Computergeräts zu erfassen, während der Benutzer die eine oder die mehreren Hände innerhalb eines Hohlraums des Peripheriegeräts bewegt oder hält, um mit dem Computergerät zu interagieren; und dem Benutzer mindestens ein ausgewähltes aus visuellem Feedback über einen Bildschirm des Peripheriegerätes oder taktilem Feedback über eine Fläche mit variabler Struktur des Peripheriegerätes bereitzustellen, wobei das Bereitstellen mindestens teilweise auf den Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen basiert.
  21. Speichermedium nach Anspruch 20, wobei die Befehle als Reaktion auf die Ausführung durch einen Prozessor des Peripheriegeräts, das Peripheriegerät veranlassen, das Erfassen auszuführen und Operationen für beide Hände des Benutzers bereitzustellen.
  22. Speichermedium nach Anspruch 20, wobei die Befehle als Reaktion auf die Ausführung durch einen Prozessor des Peripheriegerätes, das Peripheriegerät weiter veranlassen, die Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen zum Computergerät zu senden.
  23. Speichermedium nach Anspruch 20, wobei die Befehle, als Reaktion auf die Ausführung durch einen Prozessor des Peripheriegerätes, das Peripheriegerät weiter veranlassen, Daten vom Computergerät zu empfangen, die mit mindestens einem ausgewählten aus dem Bereitstellen von visuellem oder taktilem Feedback an den Benutzer verbunden sind.
  24. Speichermedium nach Anspruch 20, wobei die Befehle als Reaktion auf die Ausführung durch einen Prozessor des Peripheriegerätes, das Peripheriegerät weiter veranlassen, die Positions-, Haltungs- oder Bewegungsdaten von der einen oder den mehreren Händen für das Bereitstellen von visuellem oder taktilem Feedback an den Benutzer zu verarbeiten.
  25. Speichermedium nach Anspruch 20, wobei die Befehle, als Reaktion auf die Ausführung durch einen Prozessor des Peripheriegerätes, das Peripheriegerät weiter veranlassen, mindestens zum Bereitstellen des visuellen oder taktilen Feedbacks an den Benutzer beizutragen.
  26. Speichermedium nach irgendeinem der Ansprüche 20 bis 25, wobei das Bereitstellen das Bereitstellen sowohl des visuellen als auch des taktilen Feedbacks umfasst.
DE112013003238.4T 2012-06-27 2013-05-29 Peripheriegerät für visuelles und/oder taktiles Feedback Withdrawn DE112013003238T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
USUS-13/534,784 2012-06-27
US13/534,784 US20140002336A1 (en) 2012-06-27 2012-06-27 Peripheral device for visual and/or tactile feedback
PCT/US2013/043101 WO2014003949A1 (en) 2012-06-27 2013-05-29 Peripheral device for visual and/or tactile feedback

Publications (1)

Publication Number Publication Date
DE112013003238T5 true DE112013003238T5 (de) 2015-04-30

Family

ID=49777580

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013003238.4T Withdrawn DE112013003238T5 (de) 2012-06-27 2013-05-29 Peripheriegerät für visuelles und/oder taktiles Feedback

Country Status (4)

Country Link
US (1) US20140002336A1 (de)
CN (1) CN104335140B (de)
DE (1) DE112013003238T5 (de)
WO (1) WO2014003949A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11640582B2 (en) * 2014-05-28 2023-05-02 Mitek Systems, Inc. Alignment of antennas on near field communication devices for communication
CN107340871A (zh) * 2017-07-25 2017-11-10 深识全球创新科技(北京)有限公司 集成手势识别与超声波触觉反馈的装置及其方法和用途
CN108209932A (zh) * 2018-02-11 2018-06-29 西南交通大学 医疗监护系统以及医疗监护方法
US11549819B2 (en) * 2018-05-30 2023-01-10 International Business Machines Corporation Navigation guidance using tactile feedback implemented by a microfluidic layer within a user device

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1328597A (en) * 1995-11-30 1997-06-19 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US7336266B2 (en) * 2003-02-20 2008-02-26 Immersion Corproation Haptic pads for use with user-interface devices
KR20040088271A (ko) * 2003-04-09 2004-10-16 현대모비스 주식회사 장갑형 마우스
KR20060076293A (ko) * 2003-09-16 2006-07-04 가부시키가이샤 도쿄다이가쿠 티엘오 광학식 촉각센서 및 그 센서를 이용한 힘벡터 분포 재구성방법
KR20050102803A (ko) * 2004-04-23 2005-10-27 삼성전자주식회사 가상입력장치, 시스템 및 방법
US20060277466A1 (en) * 2005-05-13 2006-12-07 Anderson Thomas G Bimodal user interaction with a simulated object
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
US8233206B2 (en) * 2008-03-18 2012-07-31 Zebra Imaging, Inc. User interaction with holographic images
JP2012501020A (ja) * 2008-08-25 2012-01-12 ウニヴェルジテート チューリッヒ プロレクトラート エムエヌヴェー 調整可能な仮想現実システム
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP6148820B2 (ja) * 2009-03-12 2017-06-14 イマージョン コーポレーションImmersion Corporation サーフェースベースの触覚効果を特徴とするインターフェースのためのシステム及び方法
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US20100315335A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Pointing Device with Independently Movable Portions
JP5374266B2 (ja) * 2009-07-22 2013-12-25 株式会社シロク 光学式位置検出装置
US9055904B2 (en) * 2009-08-03 2015-06-16 Nike, Inc. Multi-touch display and input for vision testing and training
US20110043496A1 (en) * 2009-08-24 2011-02-24 Ray Avalani Bianca R Display device
KR101234111B1 (ko) * 2009-10-13 2013-02-19 한국전자통신연구원 비접촉 입력 인터페이싱 장치 및 이를 이용한 비접촉 입력 인터페이싱 방법
US9417694B2 (en) * 2009-10-30 2016-08-16 Immersion Corporation System and method for haptic display of data transfers
US8633916B2 (en) * 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
US8823639B2 (en) * 2011-05-27 2014-09-02 Disney Enterprises, Inc. Elastomeric input device

Also Published As

Publication number Publication date
CN104335140B (zh) 2018-09-14
US20140002336A1 (en) 2014-01-02
WO2014003949A1 (en) 2014-01-03
CN104335140A (zh) 2015-02-04

Similar Documents

Publication Publication Date Title
EP3932506B1 (de) Verfahren zum betreiben einer vorrichtung, insbesondere eines fahrgeschäftes, eines transportmittels, eines fitnessgeräts oder dergleichen
Hansen et al. The use of gaze to control drones
DE10004372B4 (de) Gestaltung von Kraftempfindungen für Computeranwendungen mit Geräuschen
DE60308541T2 (de) Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung
EP3275514A1 (de) Interaktives verfahren mit kombination aus virtualität und realität und system zur zusammenführung einer realen umgebung
DE112013003238T5 (de) Peripheriegerät für visuelles und/oder taktiles Feedback
DE102014223446B4 (de) Gerät, Verfahren sowie System zum Ausführen von Bewegungen durch Schwerpunktverlagerung und/oder Muskelbetätigung eines menschlichen Körpers
EP3050046B1 (de) Verfahren und vorrichtung zur steuerung einer haptischen vorrichtung
DE102013220203A1 (de) System und Verfahren für das Manipulieren einer Benutzerschnittstelle im Fahrzeug, wobei "Finger-Täler" benutzt werden
EP3394847A1 (de) Simulator zum training eines teams einer hubschrauberbesatzung
DE112017001781T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und nicht transientes, computerlesbares Medium
DE102014111386A1 (de) Verfahren zum Betreiben eines Fahrgeschäftes, insbesondere einer Achterbahn
DE102014114742A1 (de) Eine Vorrichtung zum Erzeugen eines Anzeigensteuerungssignals und ein Verfahren derselben
DE102019002881A1 (de) Lern-Unterstützungssystem und Aufzeichnungsmedium
DE102015100943A1 (de) Verfahren zum Betreiben einer Vorrichtung, insbesondere eines Fahrgeschäftes, eines Transportmittels, eines Fitnessgerätes oder dergleichen
WO2017160060A3 (ko) 가상 골프 시뮬레이션 장치, 가상 골프를 위한 영상 구현 방법 및 이를 기록한 컴퓨팅 장치에 의해 판독 가능한 기록 매체
CN205302690U (zh) 一种基于增强现实的儿童床上早教系统
DE102015212253B4 (de) Ausrichtungssensorsystem und Ausrichtungssensorikverfahren
DE112013007669T5 (de) Anzeigesteuervorrichtung und Anzeigesteuerverfahren
Mesárošová et al. Mixing augmented reality and EEG technology to create an unique learning tool for construction process
CN205507230U (zh) 虚拟现实眼镜
CN109426338A (zh) 一种新型虚拟现实服装
CN106621325B (zh) 一种赛车操作的模拟方法及系统
CN105487230A (zh) 虚拟现实眼镜
Moon et al. Designing AR game enhancing interactivity between virtual objects and hand for overcoming space limit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee