DE102014113233A1 - Verfahren zur Informationsverarbeitung und elektronisches Gerät - Google Patents

Verfahren zur Informationsverarbeitung und elektronisches Gerät Download PDF

Info

Publication number
DE102014113233A1
DE102014113233A1 DE102014113233.5A DE102014113233A DE102014113233A1 DE 102014113233 A1 DE102014113233 A1 DE 102014113233A1 DE 102014113233 A DE102014113233 A DE 102014113233A DE 102014113233 A1 DE102014113233 A1 DE 102014113233A1
Authority
DE
Germany
Prior art keywords
hand
detecting
electronic device
area
operating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014113233.5A
Other languages
English (en)
Inventor
Jesper Brehmer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Publication of DE102014113233A1 publication Critical patent/DE102014113233A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

Ein elektronisches Gerät weist ein Gehäuse, eine erste Displaykomponente und eine zweite Displaykomponente, welche jeweils an dem Gehäuse befestigt sind, und M Sensoren auf. Das Gehäuse weist eine Befestigungsstruktur auf, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines Nutzers befestigt werden kann. Die erste Displaykomponente weist ein Display auf, welches an einer ersten Oberfläche des Gehäuses angeordnet ist. Die zweite Displaykomponente weist eine Projektionslinse auf, welche an einer zweiten Oberfläche des Gehäuses angeordnet ist. Die erste Oberfläche und die zweite Oberfläche schneiden einander. Die M Sensoren sind durch das Gehäuse befestigt. Ein Verfahren zur Informationsverarbeitung weist die folgenden Schritte auf: Erfassen von Auslöseinformation durch einen ersten Sensor, falls das elektronische Gerät an dem ersten Bedienkörper befestigt ist, und Projizieren eines grafischen Bedieninterface auf einen Bedienbereich des ersten Bedienkörpers als Reaktion auf die Auslöseinformation.

Description

  • Technisches Gebiet
  • Die Offenbarung betrifft das Gebiet der Datenverarbeitungstechnologien und insbesondere ein Verfahren zur Informationsverarbeitung und ein elektronisches Gerät.
  • Hintergrund
  • Konventionell werden manche elektronischen Geräte wie zum Beispiel Smartwatches üblicherweise um Handgelenke von Nutzern getragen. Grafische Bedieninterfaces der Smartwatches werden auf Displays der Smartwatches angezeigt. Die Nutzer können Bedieninteraktionen bzw. Informationsinteraktionen mit den Smartwatches nur durch die grafischen Bedieninterfaces, welche auf den Displays angezeigt werden, ausführen, woraus sich ein mangelhaftes Nutzerergebnis ergibt.
  • Zusammenfassende Darstellung der Erfindung
  • Vor diesem Hintergrund werden in dieser Offenbarung ein Verfahren zur Informationsverarbeitung und ein elektronisches Gerät vorgeschlagen, um ein Problem mit bisherigen Technologien zu lösen, welches darin besteht, dass Nutzer Bedieninteraktionen mit den Smartwatches nur durch grafische Bedieninterfaces, welche auf den Displays angezeigt werden, ausführen können und woraus sich ein mangelhaftes Nutzererlebnis ergibt.
  • Es wird ein Verfahren zur Informationsverarbeitung aufgezeigt. Das Verfahren wird in einem elektronischen Gerät eingesetzt. Das elektronische Gerät weist ein Gehäuse, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren auf. Das Gehäuse weist eine Befestigungsstruktur auf, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines Nutzers befestigt werden kann. Die erste Displaykomponente und die zweite Displaykomponente sind an dem Gehäuse befestigt. Die erste Displaykomponente weist ein Display auf, und das Display ist an einer Oberfläche des Gehäuses angeordnet. Die zweite Displaykomponente weist eine Projektionslinse auf, und die Projektionslinse ist an einer zweiten Oberfläche des Gehäuses angeordnet. Die erste Oberfläche und die zweite Oberfläche schneiden einander. Die M Sensoren sind durch das Gehäuse fixiert.
  • Das Verfahren weist die folgenden Schritte auf:
    Erfassen von Auslöseinformation durch einen ersten Sensor unter den M Sensoren, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist; und
    Projizieren eines grafischen Bedieninterface auf einen Bedienbereich des ersten Bedienkörpers als Reaktion auf die Auslöseinformation, wobei der Bedienbereich und die zweite Oberfläche des Gehäuses des elektronischen Geräts auf der gleichen Seite angeordnet sind, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Es wird ein elektronisches Gerät aufgezeigt. Das elektronische Gerät weist ein Gehäuse, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren auf. Das Gehäuse weist eine Befestigungsstruktur auf, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines Nutzers befestigt werden kann. Die erste Displaykomponente und die zweite Displaykomponente sind an dem Gehäuse befestigt. Die erste Displaykomponente weist ein Display auf, und das Display ist an einer ersten Oberfläche des Gehäuses angeordnet. Die zweite Displaykomponente weist eine Projektionslinse auf, und die Projektionslinse ist an einer zweiten Oberfläche des Gehäuses angeordnet. Die erste Oberfläche und die zweite Oberfläche schneiden einander. Die M Sensoren sind durch das Gehäuse befestigt.
  • Das elektronische Gerät weist ferner eine erste Erfassungseinheit und eine erste Reaktionseinheit auf.
  • Die erste Erfassungseinheit dient zum Erfassen von Auslöseinformationen durch einen ersten Sensor unter den M Sensoren, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Die erste Reaktionseinheit dient zum Projizieren eines grafischen Bedieninterface auf einen Bedienbereich des ersten Bedienkörpers durch eine Projektionslinse als Reaktion auf die Auslöseinformation. Der Bedienbereich und die zweite Oberfläche des Gehäuses des elektronischen Geräts sind auf der gleichen Seite angeordnet, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Kurze Beschreibung der Zeichnungen
  • Die in der Beschreibung der Ausführungsbeispiele oder der herkömmlichen Technologien zu verwendenden Zeichnungen sind nachfolgend kurz beschrieben, um technische Lösungen gemäß den Ausführungsbeispielen der Offenbarung oder den herkömmlichen Technologien zu verdeutlichen. Es versteht sich, dass die Zeichnungen in der nachfolgenden Beschreibung nur manche Ausführungsbeispiele der Offenbarung wiedergeben. Andere Zeichnungen können durch den Fachmann basierend auf den Zeichnungen ohne jegliche kreative Tätigkeit erhalten werden.
  • 1 ist ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 2a und 2b sind schematische Strukturdiagramme eines elektronischen Geräts nach einem Ausführungsbeispiel der Offenbarung;
  • 3 zeigt, dass ein elektronisches Gerät, welches an einem ersten Arm befestigt ist, ein grafisches Bedieninterface durch eine Projektionslinse auf eine erste Hand an einem ersten Arm projiziert,
  • 4 ist ein weiteres schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 5 ist eine schematische Darstellung einer Bedienoperation (interactive operation) in einem Verfahren zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 6 ist ein schematisches Flussdiagram einer Bedienoperation in einem Verfahren zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 7 ist ein schematisches Flussdiagram einer Bedienoperation in einem Verfahren zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 8 ist ein schematisches Flussdiagram einer Bedienoperation in einem Verfahren zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 9 ist ein schematisches Flussdiagram einer Bedienoperation in einem Verfahren zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 10 ist ein schematisches Flussdiagram einer Bedienoperation in einem Verfahren zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
  • 11 ist ein schematisches Strukturdiagramm eines elektronischen Geräts nach einem Ausführungsbeispiel der Offenbarung; und
  • 12 ist ein weiteres schematisches Strukturdiagramm eines elektronischen Geräts nach einem Ausführungsbeispiel der Offenbarung.
  • Detaillierte Beschreibung der Ausführungsbeispiele
  • Technische Lösungen gemäß Ausführungsbeispielen der Offenbarung sind nachfolgend klar und umfassend im Zusammenhang mit den Zeichnungen in den Ausführungsbeispielen der Offenbarung beschrieben. Es versteht sich, dass die beschriebenen Ausführungsbeispiele lediglich einen Teil statt alle Ausführungsbeispiele der vorliegenden Offenbarung darstellen. Jegliche weiteren Ausführungsbeispiele, welche durch einen Fachmann, basierend auf den Ausführungsbeispielen der vorliegenden Offenbarung ohne kreative Tätigkeit erhalten werden, sollen unter den Geltungsbereich der vorliegenden Offenbarung fallen.
  • Mit dem Verfahren zur Informationsverarbeitung und dem elektronischen Gerät, welche in der Offenbarung aufgezeigt werden, kann Auslöseinformation durch einen Sensor erfasst werden, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist. Das grafische Bedieninterfache wird durch die Projektionslinse auf den Bedienbereich des ersten Bedienkörpers projiziert. In dem Verfahren zur Informationsverarbeitung und dem elektronischen Gerät, welche in der Offenbarung aufgezeigt werden, kann das grafische Bedieninterface durch die Projektionslinse auf einen vorderen Teil der ersten Hand des Nutzers projiziert werden. Daher kann der Nutzer eine Bedieninteraktion mit dem elektronischen Gerät durch das grafische Bedieninterface, welches auf dem vorderen Teil der ersten Hand angezeigt wird, ausführen und ein besseres Nutzererlebnis wird erreicht.
  • 1 ist ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung. Das Verfahren wird in einem elektronischen Gerät eingesetzt. 2 ist ein schematisches Strukturdiagramm des elektronischen Geräts. Das elektronische Gerät kann eine Rahmenstruktur oder ein Gehäuse 201, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren aufweisen. Das Gehäuse 201 weist eine Befestigungsstruktur 202 auf. Die Befestigungsstruktur 202 kann das elektronische Gerät an einem ersten Bedienkörper eines Nutzers befestigen. Die erste Displaykomponente und die zweite Displaykomponente sind an dem Gehäuse 201 befestigt. Die erste Displaykomponente weist ein Display 203 auf. Das Display 203 ist an einer ersten Oberfläche des Gehäuses 201 angeordnet. Die zweite Displaykomponente weist eine Projektionslinse 204 auf. Die Projektionslinse ist an einer zweiten Oberfläche des Gehäuses 201 angeordnet. Die erste Oberfläche und die zweite Oberfläche des Gehäuses schneiden einander. Die M Sensoren sind durch das Gehäuse 201 befestigt. Das Verfahren kann die folgenden Schritte S101–S102 aufweisen.
  • In Schritt S101 wird Auslöseinformation durch einen ersten Sensor unter den M Sensoren erfasst, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Der erste Bedienkörper ist ein Arm des Nutzers und eine erste Hand an dem ersten Arm.
  • Gemäß dem Ausführungsbeispiel gibt es viele Ausgestaltungen für das elektronische Gerät, um die Auslöseinformation durch den ersten Sensor unter den M Sensoren zu erfassen.
  • In einer Ausführung kann der erste Sensor ein berührungsempfindlicher Bildschirm (touch screen) sein und eine Berührungsschaltfläche (touch button) wird auf dem berührungsempfindlichen Bildschirm angezeigt. Das elektronische Gerät erfasst die Auslöseinformation, falls der berührungsempfindliche Bildschirm detektiert, dass die Berührungsschaltfläche berührt wird.
  • In einer weiteren Ausführung kann der erste Sensor eine physikalische Taste (physical button) sein, welche an dem Gehäuse vorgesehen ist. Das elektronische Gerät erfasst die Auslöseinformation, falls die physikalische Taste betätigt wird.
  • In noch einer weiteren Ausführung kann der erste Sensor eine Kamera sein. Die Kamera kann eine Geste des Nutzers erfassen. Das elektronische Gerät kann die Auslöseinformation erfassen, falls die durch die Kamera erfasste Geste mit einer vorgegebenen Geste übereinstimmt.
  • In Schritt S102 wird ein grafisches Bedieninterface als Reaktion auf die Auslöseinformation durch die Projektionslinse auf einen Bedienbereich des ersten Bedienkörpers projiziert.
  • Der Bedienbereich und die zweite Oberfläche des Gehäuses des elektronischen Geräts sind auf der gleichen Seite angeordnet, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Der Bedienbereich des ersten Bedienkörpers ist die erste Hand an dem ersten Arm.
  • Projizieren des grafischen Bedieninterface auf den Bedienbereich des ersten Bedienkörpers durch die Projektionslinse ist Projizieren des grafischen Bedieninterface auf eine Hand des Nutzers durch die Projektionslinse. 3 zeigt, dass das elektronische Gerät, welches an dem ersten Arm befestigt ist, das grafische Bedieninterface durch die Projektionslinse auf die erste Hand an dem ersten Arm projiziert.
  • In einem Fall kann eine Oberfläche des Bedienbereichs des ersten Bedienkörpers, welcher als Projektionsfläche zum Anzeigen des grafischen Bedieninterface fungiert, in etwa parallel zur zweiten Oberfläche des Gehäuses des elektronischen Geräts sein. Das heißt, ein vorderer Teil der ersten Hand an dem ersten Arm ist in etwa senkrecht zu dem ersten Arm. In diesem Fall kann das elektronische Gerät das grafische Bedieninterface durch die Projektionslinse auf den vorderen Teil der ersten Hand projizieren.
  • Es versteht sich, dass sich der Nutzer ermüdet fühlen kann, wenn er den vorderen Teil der ersten Hand für eine längere Zeit senkrecht zu dem ersten Arm hält. In einem weiteren Fall kann die Oberfläche des Bedienbereichs des ersten Bedienkörpers, welche als die Projektionsfläche zum Anzeigen des grafischen Bedieninterface fungiert, in etwa senkrecht zu der zweiten Oberfläche des Gehäuses des elektronischen Geräts liegen, um eine Ermüdung des Nutzers zu reduzieren und um es für den Nutzer komfortabler zu machen, das elektronische Gerät zu benutzen. Das heißt, ein vorderer Teil der ersten Hand an dem ersten Arm wird in eine gleiche Ebene wie der erste Arm gelegt. In diesem Fall kann die Projektionslinse dazu eingestellt werden, das grafische Bedieninterface auf den vorderen Teil der ersten Hand zu projizieren. Während der Einstellung der Projektionslinse kann das grafische Bedieninterface auf dem vorderen Teil der ersten Hand angezeigt werden und das grafische Bedieninterface kann für einen guten Anzeigeeffekt als ein Rechteck angezeigt werden.
  • In dem Verfahren zur Informationsverarbeitung gemäß dem Ausführungsbeispiel der Offenbarung kann die Auslöseinformation durch den Sensor erfasst werden, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist. Das grafische Bedieninterface wird durch die Projektionslinse auf den Bedienbereich des ersten Bedienkörpers projiziert. In dem Verfahren zur Informationsverarbeitung gemäß der Offenbarung kann das grafische Bedieninterface durch die Projektionslinse auf den vorderen Teil der ersten Hand des Nutzers projiziert werden. Dementsprechend kann der Nutzer eine Bedieninteraktion mit dem elektronischen Gerät nicht nur durch das grafische Bedieninterface, welches auf dem Display des elektronischen Geräts angezeigt wird, sondern auch durch das grafische Bedieninterface ausführen, welches auf dem vorderen Teil der ersten Hand angezeigt wird, womit eine bessere Nutzererfahrung erreicht wird.
  • 4 ist ein weiteres schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung. Das Verfahren kann ebenfalls in dem in 2 gezeigten elektronischen Gerät eingesetzt werden. Das Verfahren kann die folgenden Schritte S401–S404 aufweisen.
  • In Schritt S401 wird Auslöseinformation durch einen ersten Sensor unter den M Sensoren erfasst, falls das elektronische Gerät durch die Befestigungsstruktur an einem ersten Bedienkörper eines Nutzers befestigt ist.
  • Der erste Bedienkörper ist ein Arm des Nutzers und eine erste Hand an dem ersten Arm.
  • Gemäß dem Ausführungsbeispiel gibt es viele Ausgestaltungen für das elektronische Gerät, um die Auslöseinformation durch den ersten Sensor unter den M Sensoren zu erfassen.
  • In einer Ausführung kann der erste Sensor ein berührungsempfindlicher Bildschirm sein und eine Berührungsschaltfläche wird auf dem berührungsempfindlichen Bildschirm angezeigt. Das elektronische Gerät erfasst die Auslöseinformation, falls der berührungsempfindliche Bildschirm detektiert, dass die Berührungsschaltfläche berührt wird.
  • In einer weiteren Ausführung kann der erste Sensor eine physikalische Schaltfläche sein, welche an dem Gehäuse vorgesehen ist. Das elektronische Gerät erfasst die Auslöseinformation, falls die physikalische Schaltfläche betätigt wird.
  • In noch einer weiteren Ausführung kann der erste Sensor eine Kamera sein. Die Kamera kann eine Geste des Nutzers erfassen. Das elektronische Gerät kann die Auslöseinformation erfassen, falls die durch die Kamera erfasste Geste mit einer vorgegebenen Geste übereinstimmt.
  • In Schritt S402 wird ein grafisches Bedieninterface als Reaktion auf die Auslöseinformation durch die Projektionslinse auf einen Bedienbereich des ersten Bedienkörpers projiziert.
  • Der Bedienbereich und die zweite Oberfläche des Gehäuses des elektronischen Geräts sind auf der gleichen Seite angeordnet, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Der Bedienbereich des ersten Bedienkörpers ist die erste Hand an dem ersten Arm.
  • In einem Fall kann eine Oberfläche des Bedienbereichs des ersten Bedienkörpers, welcher als Projektionsfläche zum Anzeigen des grafischen Bedieninterface fungiert, in etwa parallel zur zweiten Oberfläche des Gehäuses des elektronischen Geräts sein. Das heißt, ein vorderer Teil der ersten Hand an dem ersten Arm ist in etwa senkrecht zu dem ersten Arm. In diesem Fall kann das elektronische Gerät das grafische Bedieninterface durch die Projektionslinse auf den vorderen Teil der ersten Hand projizieren.
  • Es versteht sich, dass sich der Nutzer ermüdet fühlen kann, wenn er den vorderen Teil der ersten Hand für eine längere Zeit senkrecht zu dem ersten Arm hält. In einem weiteren Fall kann die Oberfläche des Bedienbereichs des ersten Bedienkörpers, welche als die Projektionsfläche zum Anzeigen des grafischen Bedieninterface fungiert, in etwa senkrecht zu der zweiten Oberfläche des Gehäuses des elektronischen Geräts liegen, um eine Ermüdung des Nutzers zu reduzieren und um es für den Nutzer komfortabler zu machen, das elektronische Gerät zu benutzen. Das heißt, ein vorderer Teil der ersten Hand an dem ersten Arm wird in eine gleiche Ebene wie der erste Arm gelegt. In diesem Fall kann die Projektionslinse dazu eingestellt werden, das grafische Bedieninterface auf den vorderen Teil der ersten Hand zu projizieren. Während der Einstellung der Projektionslinse kann das grafische Bedieninterface auf dem vorderen Teil der ersten Hand angezeigt werden und das grafische Bedieninterface kann für einen guten Anzeigeeffekt als ein Rechteck angezeigt werden.
  • In Schritt S403 wird eine Bedienoperation des Bedienbereichs durch einen zweiten Sensor erfasst.
  • Die Bedienoperation ist eine Gestenoperation, welche von dem Bedienbereich ausgeführt wird.
  • Der zweite Sensor kann an der Befestigungsstruktur vorgesehen sein. Zum Beispiel kann der zweite Sensor als ein Drucksensor-Array bereitgestellt werden, welches an einer inneren Seite der Befestigungsstruktur angeordnet ist. Wenn der Bedienkörper die Bedienoperation ausführt, kann eine Vibration der Knochen des Arms verursacht werden. Die Vibration der Knochen wirkt auf das Drucksensor-Array und das elektronische Gerät kann die Bedienoperation basierend auf einem von dem Drucksensor-Array detektierten Druck bestimmen.
  • Alternativ kann der zweite Sensor eine Kamera sein, welche an dem Gehäuse befestigt und an der zweiten Oberfläche angeordnet ist.
  • In Schritt S404 wird das grafische Bedieninterface, welches auf der Oberfläche des Bedienbereichs, welche als Projektionsfläche fungiert, angezeigt wird, als Reaktion auf die Bedienoperation verändert.
  • In einer Ausführung kann die Bedienoperation des Bedienbereichs eine Beugebewegung von einem Finger der ersten Hand sein.
  • Jeder Finger der ersten Hand kann einer Funktion oder mehreren Funktionen entsprechen.
  • Falls jeder Finger der ersten Hand mit einer Funktion korrespondiert, wird ein Interface einer Funktion, welche mit der Beugeoperation des Fingers korrespondiert, als Reaktion auf die Bedienoperation angezeigt.
  • Zum Beispiel, wie in 5 gezeigt, korrespondiert ein Daumen der ersten Hand mit Funktion A, ein Zeigefinger der ersten Hand korrespondiert mit Funktion B, ein Mittelfinger der ersten Hand korrespondiert mit Funktion C, ein Ringfinger der ersten Hand korrespondiert mit Funktion D, und ein kleiner Finger der ersten Hand korrespondiert mit Funktion E. In einem Fall kann Aufforderungsinformation (prompt information) der Funktion, welche mit jedem Finger korrespondiert, auf dem Finger angezeigt werden, falls das elektronische Gerät die Projektionsfläche steuert, um das grafische Bedieninterface auf den vorderen Teil der ersten Hand zu projizieren. Der Benutzer kann durch die Aufforderungsinformation die Funktionen, welche mit den jeweiligen Fingern korrespondieren, einfach erkennen. Falls das elektronische Gerät durch den zweiten Sensor die Beugeoperation von einem Finger erfasst, zum Beispiel die Beugebewegung des Zeigefingers, kann ein derzeitig angezeigtes grafisches Bedieninterface in ein Interface der Funktion B umgeschaltet werden, weil der Zeigefinger mit Funktion B korrespondiert. Für Fälle von Beugeoperationen der anderen Finger gilt dies entsprechend. In einem anderen Fall wird die Aufforderungsinformation der Funktionen nicht auf den jeweiligen Fingern angezeigt, falls das elektronische Gerät die Projektionslinse steuert, um das grafische Bedieninterface auf dem vorderen Teil der ersten Hand anzuzeigen. Falls das elektronische Gerät durch den zweiten Sensor die Beugeoperation eines ersten Fingers erfasst, zum Beispiel die Beugeoperation des Zeigefingers, wird ein derzeitig angezeigtes grafisches Bedieninterface in ein Interface der Funktion B umgeschaltet. In Fällen von Beugeoperationen der anderen Finger gilt dies entsprechend. Ferner ist anzumerken, dass die Funktion, welche mit jedem Finger korrespondiert, durch den Nutzer eingestellt werden kann.
  • Falls jeder Finger oder ein Teil der Finger der ersten Hand mit mehreren Funktionen korrespondiert, können Umschaltungen der mehreren Funktionen erreicht werden, basierend auf einer Anzahl der Beugeoperationen des Fingers.
  • Zum Beispiel, wie in 6 gezeigt, korrespondiert der Daumen der ersten Hand mit einer Auswahlfunktion, der Zeigefinger der ersten Hand korrespondiert mit fünf Funktionen B1 bis B5, der Mittelfinger der ersten Hand korrespondiert mit fünf Funktionen C1 bis C5, der Ringfinger der ersten Hand korrespondiert mit fünf Funktionen D1 bis D5, und der kleine Finger der ersten Hand korrespondiert mit fünf Funktionen E1 bis E5. Nimmt man den Zeigefinger als Beispiel, so wird Funktion B1 zu Funktion B2 umgeschaltet, falls das elektronische Gerät eine Beugeoperation des Zeigefingers durch den ersten Sensor erfasst. Funktion B2 wird zu Funktion B3 umgeschaltet, falls das elektronische Gerät zwei aufeinanderfolgende Beugeoperationen des Zeigefingers durch den zweiten Sensor erfasst. Hier kann der Nutzer Funktion B3 mit der Beugeoperation des Daumens auswählen. Ein Interface der Funktion B3 kann angezeigt werden, falls das elektronische Gerät die Beugeoperation des Daumens durch den zweiten Sensor erfasst.
  • Wie in 7 gezeigt, kann jeder von dem Zeigefinger, dem Mittelfinger, dem Ringfinger und dem kleinen Finger der ersten Hand mit mehreren Buchstaben korrespondieren. Nimmt man den Mittelfinger als ein Beispiel, so korrespondiert der Mittelfinger mit den Buchenstaben H, I, J, K, L, M und N. Buchstabe H wird zu Buchstabe I umgeschaltet, falls der Mittelfinger einmal gebeugt wird und Buchstabe I wird zu Buchstabe J umgeschaltet, falls der Mittelfinger zweimal gebeugt wird. Hier kann der Nutzer den Daumen ausgehend von einer Ausgangsposition des Daumens zur Handfläche (palm) der ersten Hand bewegen, um den Buchstaben J auszuwählen, und kann den Daumen ausgehend von einer Ausgangsposition des Daumens weg von der Handfläche der Hand bewegen, um eine Returnanweisung auszulösen.
  • Es gibt weitere Ausführungen zusätzlich zu den oben beschriebenen Ausführungen.
  • In einer Ausführung kann die Bedienoperation des ersten Bedienbereichs eine Bewegungsoperation des Daumens der ersten Hand zu der Handfläche ausgehend von einer Ausgangsposition des Daumens sein. Hier wird eine Bestimmungsanweisung (determination instruction) ausgelöst und eine Operation, welche mit der Bestimmungsanweisung korrespondiert, wird auf einem Objekt, welches auf dem grafischen Bedieninterface angezeigt wird, als Reaktion auf die Bedienoperation ausgeführt.
  • In einer weiteren Ausführung kann die Bedienoperation des ersten Bedienbereichs eine Bewegungsoperation des Daumens der ersten Hand weg von der Handfläche ausgehend von einer Ausgangsposition des Daumens sein. Hier wird eine Löschanweisung ausgelöst und eine Operation, welche mit der Löschanweisung korrespondiert, wird auf einem Objekt, welches auf dem grafischen Bedieninterface angezeigt wird, als Reaktion auf die Bedienoperation ausgeführt.
  • In noch einer weiteren Ausführung kann die Bedienoperation des Bedienbereichs eine Beugeoperation sein, bei welcher eine Mehrzahl von Fingern der ersten Hand gleichzeitig gebeugt wird. Unterschiedliche Anweisungen werden durch das gleichzeitige Beugen unterschiedlicher Kombinationen von Fingern ausgelöst. Hierbei wird eine Anweisung, welche mit der Beugeoperation, bei welcher die Mehrzahl von Fingern gleichzeitig gebeugt wird, ausgelöst und eine Operation, welche mit der Anweisung korrespondiert, wird in Reaktion auf die Bedienoperation ausgeführt.
  • Wie in 8 gezeigt, kann eine Anweisung, ein Leerzeichen einzufügen, zum Beispiel zwischen zwei Buchstaben, durch gleichzeitiges Beugen von sowohl dem Zeigefinger als auch dem Mittelfinger ausgelöst werden. Eine Anweisung zum Teilen (sharing instruction) kann durch gleichzeitiges Beugen des Mittelfingers, des Ringfingers und des kleinen Fingers ausgelöst werden.
  • Ferner kann die Beugeoperation, bei welcher mehrere Finger gleichzeitig gebeugt werden, eine Beugeoperation sein, bei welcher wenigstens vier Finger gleichzeitig gebeugt werden. Hierbei weisen das Auslösen der Anweisung, welche mit der Beugeoperation, bei welcher mehrere Finger gleichzeitig gebeugt werden, und das Ausführen der Operation, welche mit der Anweisung korrespondiert, ein Umschalten eines grafischen Bedieninterface, welches derzeit auf der Oberfläche des Bedienbereichs angezeigt wird, welche als die Projektionsfläche fungiert, in ein Hauptinterface auf.
  • Zum Beispiel, wie in 9 gezeigt, schaltet das elektronische Gerät von einem derzeitigen grafischen Bedieninterface ("APP") zu dem Hauptinterface ("HOME") um, falls der Zeigefinger, der Mittelfinger, der Ringfinger und der kleine Finger gleichzeitig gebeugt werden.
  • In einer weiteren Ausführung kann die Bedienoperation eine Rotation der ersten Hand sein, und eine Rotation des ersten Arms wird durch die Rotation der ersten Hand verursacht. Hierbei wird ein Objekt, welches auf dem derzeitigen grafischen Bedieninterface angezeigt wird, als Reaktion auf die Bedienoperation vergrößert. Ob das angezeigte Objekt vergrößert oder verkleinert wird, kann basierend auf einer Rotationsrichtung des ersten Arms bestimmt werden.
  • Gemäß dem Ausführungsbeispiel kann die Rotationsrichtung des ersten Arms durch einen Winkelsensor oder Schwerkraftsensor bestimmt werden.
  • Zum Beispiel, wie in 10 gezeigt, kann das angezeigte Objekt vergrößert werden, falls die erste Hand gegen den Uhrzeigersinn gedreht wird und kann das angezeigte Objekt verkleinert werden, falls die erste Hand im Uhrzeigersinn gedreht wird.
  • In dem Verfahren zur Informationsverarbeitung gemäß dem Ausführungsbeispiel der Offenbarung kann die Auslöseinformation durch den ersten Sensor erfasst werden, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper befestigt ist. Das grafische Bedieninterface wird durch die Projektionslinse auf den Bedienbereich des ersten Bedienkörpers projiziert. Das grafische Bedieninterface, welches auf der Oberfläche des Bedienbereiches, welche als die Projektionsfläche fungiert, angezeigt wird, kann verändert werden, falls die Bedienoperation des Bedienbereichs durch den zweiten Sensor erfasst wird. Mit dem Verfahren zur Informationsverarbeitung gemäß der Offenbarung kann das grafische Bedieninterface durch die Projektionslinse auf den vorderen Teil der ersten Hand des Nutzers projiziert werden. Dementsprechend kann der Nutzer eine Bedieninteraktion mit dem elektronischen Gerät nicht nur durch das grafische Bedieninterface, welches auf der Anzeige des elektrischen Geräts angezeigt wird, ausführen, sondern auch durch das grafische Bedieninterface, welches auf dem vorderen Teil der ersten Hand angezeigt wird, und der Nutzer kann das grafische Bedieninterface mit einer Hand bedienen, wodurch ein besseres Nutzererlebnis erreicht wird.
  • In dem Verfahren zur Informationsverarbeitung nach den vorangegangenen Ausführungsbeispielen wird die Bedienoperation des Bedienbereichs des ersten Bedienkörpers ausgeführt. Zum Beispiel ist das elektronische Gerät an einem linken Arm befestigt, das grafische Bedieninterface wird auf den vorderen Teil einer linken Hand projiziert, und der Nutzer führt Operationen auf dem grafischen Bedieninterface durch die linke Hand aus. Alternativ kann die Bedienoperation durch einen zweiten Bedienkörper ausgeführt werden. Zum Beispiel ist das elektronische Gerät an dem linken Arm befestigt, das grafische Bedieninterface wird auf den vorderen Teil der linken Hand projiziert, und der Nutzer führt Operationen mit einer Hand auf dem grafischen Bedieninterface, welches auf dem vorderen Teil der linken Hand angezeigt wird, aus. Die Bedienoperation kann als Gesten eingestellt werden, welche mit verschiedenen Funktionen korrespondieren.
  • Gemäß einem Ausführungsbeispiel der Offenbarung wird ferner ein elektronisches Gerät aufgezeigt, welches mit den vorangegangen Verfahren korrespondiert.
  • 11 zeigt ein schematisches Strukturdiagramm eines elektronischen Geräts nach einem Ausführungsbeispiel der Offenbarung. Das elektronische Gerät weist ein Gehäuse, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren auf. Das Gehäuse weist eine Befestigungsstruktur auf. Die Befestigungsstruktur kann das elektronische Gerät an einem ersten Bedienkörper eines Nutzers befestigen. Die erste Displaykomponente und die zweite Displaykomponente sind an dem Gehäuse befestigt. Die erste Displaykomponente weist ein Display auf. Das Display ist an einer ersten Oberfläche des Gehäuses angeordnet. Die zweite Displaykomponente weist eine Projektionslinse auf. Die Projektionslinse ist an einer zweiten Oberfläche des Gehäuses angeordnet. Die erste Oberfläche und die zweite Oberfläche schneiden einander. Die M Sensoren sind durch das Gehäuse fixiert. Das elektronische Gerät weist ferner eine erste Erfassungseinheit 1101 und eine erste Reaktionseinheit 1102 auf.
  • Die erste Erfassungseinheit 1101 dient zum Erfassen von Auslöseinformation durch einen ersten Sensor unter den M Sensoren, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Die erste Reaktionseinheit 1102 dient zum Projizieren eines grafischen Bedieninterface auf einen beliebigen Bereich des ersten Bedienkörpers durch die Projektionslinse als Reaktion auf die Auslöseinformation.
  • Der Bedienbereich und die zweite Oberfläche des Gehäuses des elektronischen Geräts sind auf der gleichen Seite angeordnet, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist.
  • Der Bedienbereich des ersten Bedienkörpers ist eine erste Hand an dem ersten Arm.
  • In einer Ausführung ist eine Oberfläche des Bedienbereichs, welche als Projektionsfläche zum Anzeigen des grafischen Bedieninterface fungiert, in etwa senkrecht zur Seitenfläche des Gehäuses des elektronischen Geräts.
  • Die Auslöseinformation kann durch den Sensor erfasst werden, falls das elektronische Gerät gemäß dem Ausführungsbeispiel der Offenbarung durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist. Das grafische Bedieninterface wird durch die Projektionslinse auf den Bedienbereich des ersten Bedienkörpers projiziert. Mit dem elektronischen Gerät gemäß dem Ausführungsbeispiel der Offenbarung kann das grafische Bedieninterface durch die Projektionslinse auf den vorderen Teil der ersten Hand des Nutzers projiziert werden. Dementsprechend kann der Nutzer eine Bedieninteraktion mit dem elektronischen Gerät nicht nur durch das grafische Bedieninterface, welches auf dem Display des elektronischen Geräts angezeigt wird, ausführen, sondern auch durch das grafische Bedieninterface, welches auf dem vorderen Teil der ersten Hand angezeigt wird, wodurch ein besseres Nutzererlebnis erreicht wird.
  • 12 ist ein weiteres schematisches Strukturdiagramm eines elektronischen Geräts nach einem Ausführungsbeispiel der Offenbarung. Neben der ersten Erfassungseinheit 1101 und der ersten Reaktionseinheit 1102, welche das elektronische Gerät nach dem vorangegangen Ausführungsbeispiel aufweist, weist das elektronische Gerät gemäß dem Ausführungsbeispiel ferner eine zweite Erfassungseinheit 1201 und eine zweite Reaktionseinheit 1202 auf.
  • Die zweite Erfassungseinheit 1201 dient zum Erfassen einer Bedienoperation des Bedienbereichs durch einen zweiten Sensor.
  • Gemäß dem Ausführungsbeispiel weisen die M Sensoren den zweiten Sensor auf. Der zweite Sensor kann ein Drucksensor-Array sein, welches an der Befestigungsstruktur vorgesehen ist oder eine Kamera, welche in dem Gehäuse befestigt und an der zweiten Oberfläche angeordnet ist.
  • Die zweite Reaktionseinheit 1202 dient zum Ändern des grafischen Bedieninterface, welches auf der Oberfläche des Bedienbereichs, welche als Projektionsfläche fungiert, angezeigt wird, als Reaktion auf die Bedienoperation.
  • Der Bedienkörper ist ein erster Arm des Nutzers und eine erste Hand an dem ersten Arm und der Bedienbereich ist die erste Hand an dem ersten Arm.
  • In einer Ausführung ist die Bedienoperation eine Beugebewegung von einem Finger der ersten Hand. Jeder Finger der ersten Hand korrespondiert mit einer Funktion. Hierbei dient die zweite Reaktionseinheit 1202 zum Anzeigen eines Interface der Funktion, welche mit der Beugeoperation des Fingers korrespondiert.
  • In einer Ausführung ist die Bedienoperation des Bedienbereichs eine Bewegungsoperation eines Daumens der ersten Hand zu einer Handfläche der ersten Hand ausgehend von einer Ausgangsposition des Daumens. Hierbei dient die zweite Reaktionseinheit 1202 zur Auslösen einer Bestimmungsanweisung und zum Ausführen einer Operation, welche mit der Bestimmungsanweisung korrespondiert, auf einem Objekt, welches auf dem grafischen Bedieninterface angezeigt wird.
  • In einer Ausführung ist die Bedienoperation des Bedienbereichs eine Bewegungsoperation des Daumens der ersten Hand weg von der Handfläche der ersten Hand ausgehend von der Ausgangsposition des Daumens. Hierbei dient die zweite Reaktionseinheit 1202 zum Auslösen einer Löschanweisung und zum Ausführen einer Operation, welche mit der Löschanweisung korrespondiert, auf einem Objekt, welches auf dem grafischen Bedieninterface angezeigt wird.
  • In einer Ausführung ist die Bedienoperation des Bedienbereichs eine Beugeoperation, bei welcher mehrere Fingern der ersten Hand gleichzeitig gebeugt werden. Unterschiedliche Anweisungen werden durch gleichzeitiges Beugen verschiedener Kombinationen von Fingern erhalten. Hierbei dient die zweite Reaktionseinheit 1202 zum Auslösen einer Anweisung, welche mit der Beugeoperation, bei welcher gleichzeitig mehrere Finger gebeugt werden, korrespondiert und zum Ausführen der Operation, welche mit der Anweisung korrespondiert.
  • In einer Ausführung ist die Beugeoperation, bei welcher gleichzeitig mehrere Finger gebeugt werden, eine Beugeoperation, bei welcher wenigstens vier Finger gleichzeitig gebeugt werden. Hierbei weisen das Auslösen der Anweisung, welche mit der Beugeoperation, bei welcher die mehreren Finger gebeugt werden, korrespondiert, und das Ausführen der Operation, welche mit der Anweisung korrespondiert, ein Umschalten eines grafischen Bedieninterface, welches derzeit auf der Oberfläche des Bedienbereichs, welche als Projektionsfläche fungiert, angezeigt wird, in ein Hauptinterface auf.
  • In einer Ausführung ist die Bedienoperation des Bedienbereichs eine Rotation der ersten Hand, und eine Rotation des ersten Arms wird durch die Rotation der ersten Hand bewirkt. Hierbei dient die zweite Reaktionseinheit 1202 zum Vergrößern eines Objekts, welches auf dem grafischen Bedieninterface angezeigt wird.
  • Die Auslöseinformation kann durch den ersten Sensor erfasst werden, falls das elektronische Gerät gemäß dem Ausführungsbeispiel der Offenbarung durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist. Das grafische Bedieninterface wird durch die Projektionslinse auf den Bedienbereich des ersten Bedienkörpers projiziert. Das grafische Bedieninterface, welches auf der Oberfläche des Bedienbereichs, welcher als Projektionsfläche fungiert, angezeigt wird, kann verändert werden, falls die Bedienoperation des Bedienbereichs durch den zweiten Sensor erfasst wird. Mit dem elektronischen Gerät gemäß dem Ausführungsbeispiel der Offenbarung kann das grafische Bedieninterface durch die Projektionslinse auf den vorderen Teil der ersten Hand des Nutzers projiziert werden. Dementsprechend kann der Nutzer eine Bedieninteraktion mit dem elektronischen Gerät nicht nur durch das grafische Bedieninterface, welches auf dem Display des elektronischen Geräts angezeigt wird, ausführen, sondern auch mit dem grafischen Bedieninterface, welches auf dem vorderen Teil der ersten Hand angezeigt wird, und der Nutzer kann Operationen auf dem grafischen Bedieninterface mit einer Hand ausführen, wodurch ein besseres Nutzererlebnis erreicht wird.
  • Es ist anzumerken, dass die Ausführungsbeispiele in der Beschreibung progressiv bzw. aufeinander aufbauend beschrieben sind. Unterschiede zu anderen Ausführungsbeispielen sind in der Beschreibung von jedem Ausführungsbeispiel hervorgehoben, wohingegen für ähnliche Teile der Ausführungsbeispiele aufeinander verwiesen werden kann. Ausführungsbeispiele von Vorrichtungen oder Ausführungsbeispiele von Systemen, welche Ausführungsbeispielen von Verfahren ähneln, sind kurz beschrieben und gleiche Teile können auf Beschreibungen der Ausführungsbeispiele von Verfahren Bezug nehmen.
  • Es ist ferner anzumerken, dass hierbei relative Angaben wie "erste(r)" oder "zweite(r)" lediglich dazu verwendet werden, um eine Einheit oder Operation von einer anderen Einheit oder Operation zu unterscheiden anstatt zu erfordern oder zu implizieren, dass es eine tatsächliche Beziehung oder Reihenfolge zwischen diesen Einheiten oder Operationen gibt. Ferner sind Ausdrücke wie "aufweisen", "umfassen" oder andere Varianten hiervon nicht als ausschließlich zu verstehen. Entsprechend kann ein Prozess, ein Verfahren, ein Artikel oder eine Vorrichtung, welcher eine Serie von Elementen umfasst, nicht nur diese Elemente, sondern auch andere Elemente, welche nicht explizit aufgelistet und inhärente Elemente des Prozesses, des Verfahrens, des Artikels oder der Vorrichtung sind, umfassen. Im Fall keiner weiteren Beschränkungen schließt ein Element, welches durch eine Aussage auf "ein ... aufweisend" beschränkt ist, nicht aus, dass es noch andere ähnliche Elemente in dem Prozess, dem Verfahren, dem Artikel oder der Vorrichtung, welche das Element aufweist, geben kann.
  • Schritte der Verfahren oder Algorithmen gemäß den Ausführungsbeispielen der Offenbarung können durch eines von oder eine Kombination von Hardware und einem von einem Prozessor ausgeführten Softwaremodul implementiert sein. Das Softwaremodul kann in Form eines Random-Access Memory (RAM), eines Speichers, eines Read-Only Memory (ROM), eines elektrisch programmierbaren ROM, eines elektrisch löschbar programmierbaren ROM, eines Registers, einer Hardware, einer bewegbaren Scheibe, einer CD-ROM oder in einem beliebigen anderem Format eines herkömmlichen Speichermediums bereitgestellt werden.
  • Mit der obigen Beschreibung der offenbarten Ausführungsbeispiele kann der Fachmann die vorliegende Offenbarung implementieren oder nutzen. Verschiedene Abwandlungen dieser Ausführungsbeispiele sind für den Fachmann offensichtlich und die zugrundeliegenden Prinzipien, welche in der vorliegenden Offenbarung definiert sind, können in anderen Ausführungsformen implementiert werden, ohne von dem Gedanken oder dem Geltungsbereich der vorliegenden Offenbarung abzuweichen. Daher ist die vorliegende Offenbarung nicht auf diese hierin offenbarten Ausführungsbeispiele beschränkt, sondern beansprucht den breitesten Schutz, welcher mit den Prinzipien und neuen Charakteristika, welche in der vorliegenden Offenbarung offenbart sind, im Einklang steht.

Claims (14)

  1. Verfahren mit folgenden Schritten: Erfassen von Auslöseinformation durch einen ersten Sensor aus einer Mehrzahl von M Sensoren, falls ein elektronisches Gerät an einem ersten Bedienkörper eines Nutzers befestigt ist; und Projizieren eines grafischen Bedieninterface auf einen Bedienbereich des ersten Bedienkörpers mit einem Projektor durch eine Projektionslinse als Reaktion auf die Auslöseinformation.
  2. Verfahren nach Anspruch 1, wobei das Projizieren auf einen Bedienbereich Folgendes aufweist: Projizieren auf eine Oberfläche des Bedienbereichs, welche als Projektionsfläche zum Anzeigen des grafischen Bedieninterface fungiert, etwa senkrecht zu einer Oberfläche, welche den Projektor trägt.
  3. Verfahren nach einem der vorangegangen Ansprüche, wobei die M Sensoren einen zweiten Sensor aufweisen, wobei der zweite Sensor ein Drucksensor-Array oder eine Kamera ist; wobei das Verfahren ferner folgende Schritte aufweist: Erfassen einer Bedienoperation des Bedienbereichs durch den zweiten Sensor; und Ändern des grafischen Bedieninterface, welches auf der Oberfläche des Bedienbereichs angezeigt wird, welche als Projektionsfläche fungiert, als Reaktion auf die Bedienoperation.
  4. Verfahren nach Anspruch 3, wobei das Projizieren auf einen Bedienbereich des ersten Bedienkörpers eine Projektion auf einen ersten Arm des Nutzers und eine erste Hand an dem ersten Arm ist und der Bedienbereich die erste Hand an dem ersten Arm ist; das Erfassen der Bedienoperation des Bedienbereichs ist ein Erfassen einer Beugeoperation von einem oder mehreren Fingern der ersten Hand, wobei beim Erfassen jeder Finger der ersten Hand mit einer Funktion korrespondiert und das Interface der Funktion, welche mit der Beugeoperation des Fingers korrespondiert, wird als Reaktion auf das Erfassen der Bedienoperation angezeigt; oder das Erfassen der Bedienoperation von des ersten Bedienbereichs ist ein Erfassen einer Bewegungsoperation eines Daumens der ersten Hand zu einer Handfläche der ersten Hand ausgehend von einer Ausgangsposition des Daumens, und eine Bestimmungsanweisung wird ausgelöst und eine Operation, welche mit der Bestimmungsanweisung korrespondiert, wird auf einem Objekt, welches auf dem grafischen Bedieninterface angezeigt wird, als Reaktion auf das Erfassen der Bedienoperation ausgeführt; oder das Erfassen der Bedienoperation des ersten Bedienbereichs ist ein Erfassen einer Bewegungsoperation eines Daumens der ersten Hand weg von einer Handfläche der ersten Hand ausgehend von einer Ausgangsposition des Daumens, und eine Löschanweisung wird ausgelöst und eine Operation, welche mit der Löschanweisung korrespondiert, wird auf einem Objekt, welches auf dem grafischen Bedieninterface angezeigt wird, als Reaktion auf das Erfassen der Bedienoperation ausgeführt; oder das Erfassen der Bedienoperation des ersten Bedienbereichs ist ein Erfassen einer Operation, bei welcher eine Mehrzahl von Fingern der ersten Hand gleichzeitig gebeugt werden, wobei unterschiedliche Anweisungen ausgelöst werden durch Beugeoperationen, bei welchen unterschiedliche Kombinationen von Fingern der ersten Hand gleichzeitig gebeugt werden, und eine Anweisung, welche mit der Beugeoperation, bei welcher die Mehrzahl von Fingern der ersten Hand gleichzeitig gebeugt werden, korrespondiert, wird ausgelöst, und eine Operation, welche mit der Anweisung korrespondiert, wird als Reaktion auf das Erfassen der Bedienoperation ausgeführt.
  5. Verfahren nach 4, wobei das Erfassen der Bedienoperation des ersten Bedienbereichs ein Erfassen einer Beugeoperation ist, bei welcher mindestens vier Finger gleichzeitig gebeugt werden; und das Auslösen der Anweisung, welche mit der Beugeoperation korrespondiert, bei welcher die mehreren Finger gleichzeitig gebeugt werden, und das Ausführen der Operation, welche mit der Anweisung korrespondiert, ein Ändern eines grafischen Bedieninterface, welches derzeit auf der Oberfläche des Bedienbereichs angezeigt wird, welcher als Projektionsfläche fungiert, in ein Hauptinterface aufweist.
  6. Verfahren nach einem der Ansprüche 3 bis 5, wobei das Projizieren auf einen Bedienbereich des ersten Bedienkörpers eine Projektion auf einen ersten Arm des Nutzers und eine erste Hand an dem ersten Arm ist und der Bedienbereich die erste Hand an dem ersten Arm ist; das Erfassen der Bedienoperation des ersten Bedienbereichs ist ein Erfassen einer Rotation der ersten Hand; und ein Objekt, welches auf einem derzeitigen grafischen Bedieninterface angezeigt wird, wird als Reaktion auf das Erfassen der Bedienoperation vergrößert.
  7. Elektronisches Gerät mit einem Gehäuse, welches eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren trägt, wobei das Gehäuse eine Befestigungsstruktur aufweist, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines Nutzers befestigt werden kann; wobei die erste Displaykomponente an einer ersten Oberfläche des Gehäuses angeordnet ist; wobei die zweite Displaykomponente eine Projektionslinse aufweist, wobei die Projektionslinse an einer zweiten Oberfläche des Gehäuses angeordnet ist; und wobei die erste Oberfläche und die zweite Oberfläche einander schneiden.
  8. Elektronisches Gerät nach Anspruch 7, wobei das elektronische Gerät ferner aufweist: eine erste Erfassungseinheit zum Erfassen von Auslöseinformation durch einen ersten Sensor unter den M Sensoren, falls das elektronische Gerät durch die Befestigungsstruktur an dem ersten Bedienkörper des Nutzers befestigt ist; und eine erste Reaktionseinheit zum Projizieren eines grafischen Bedieninterface auf einen Bedienbereich des ersten Bedienkörpers durch die Projektionslinse als Reaktion auf die Auslöseinformation, wobei der Bedienbereich und die zweite Oberfläche des Gehäuses auf der gleichen Seite angeordnet sind, falls das elektronische Gerät an dem ersten Bedienkörper des Nutzers befestigt ist.
  9. Elektronisches Gerät nach Anspruch 8, wobei die zweite Oberfläche des Gehäuses etwa senkrecht zu einer Oberfläche des Bedienbereichs ist, welche als Projektionsfläche zum Anzeigen des grafischen Bedieninterface fungiert.
  10. Elektronisches Gerät nach einem der Ansprüche 7 bis 9, wobei die M Sensoren einen zweiten Sensor aufweisen, wobei der zweite Sensor ein auf der Befestigungsstruktur angeordnetes Drucksensor-Array oder eine Kamera aufweist, welche in dem Gehäuse befestigt und an der zweiten Oberfläche angeordnet ist; wobei das elektronische Gerät ferner Folgendes aufweist: eine zweite Erfassungseinheit zum Erfassen einer Bedienoperation des Bedienbereichs durch den zweiten Sensor; und eine zweite Reaktionseinheit zum Ändern des grafischen Bedieninterface, welches auf der Oberfläche des Bedienbereichs angezeigt ist, welche als Projektionsfläche fungiert, als Reaktion auf die Bedienoperation.
  11. Elektronisches Gerät nach Anspruch 10, wobei das Projizieren auf einen Bedienbereich des ersten Bedienkörpers eine Projektion auf einen ersten Arm des Nutzers und eine erste Hand an dem ersten Arm ist und der Bedienbereich die erste Hand an dem ersten Arm ist; das Erfassen der Bedienoperation des Bedienbereichs ist ein Erfassen einer Beugeoperation von einem oder mehreren Fingern der ersten Hand, wobei beim Erfassen jeder Finger der ersten Hand mit einer Funktion korrespondiert und die zweite Reaktionseinheit ein Interface der Funktion anzeigt, welche mit der Beugeoperation des Fingers korrespondiert; oder das Erfassen der Bedienoperation des ersten Bedienbereichs ist ein Erfassen einer Bewegungsoperation eines Daumens der ersten Hand zu einer Handfläche der ersten Hand ausgehend von einer Ausgangsposition des Daumens, und die zweite Reaktionseinheit löst eine Bestimmungsanweisung aus und führt eine Operation, welche mit der Bestimmungsanweisung korrespondiert, auf einem Objekt aus, welches auf dem grafischen Bedieninterface angezeigt wird; oder das Erfassen der Bedienoperation des ersten Bedienbereichs ist ein Erfassen einer Bewegungsoperation eines Daumens der ersten Hand weg von einer Handfläche der ersten Hand ausgehend von einer Ausgangsposition des Daumens, und die zweite Reaktionseinheit löst eine Löschanweisung aus und führt eine Operation, welche mit der Löschanweisung korrespondiert, auf einem Objekt aus, welches auf dem grafischen Bedieninterface angezeigt wird; oder das Erfassen der Bedienoperation des ersten Bedienbereichs ist ein Erfassen einer Operation, bei welcher eine Mehrzahl von Fingern der ersten Hand gleichzeitig gebeugt werden, wobei unterschiedliche Anweisungen ausgelöst werden durch Beugeoperationen, bei welchen unterschiedliche Kombinationen von Fingern der ersten Hand gleichzeitig gebeugt werden, und die zweite Reaktionseinheit löst eine Anweisung aus, welche mit der Beugeoperation korrespondiert, bei welcher die Mehrzahl von Fingern der ersten Hand gleichzeitig gebeugt werden, und führt eine Operation aus, welche mit der Anweisung korrespondiert.
  12. Elektronisches Gerät nach Anspruch 11, wobei das Erfassen der Bedienoperation des ersten Bedienbereichs ein Erfassen einer Beugeoperation ist, bei welcher mindestens vier Finger gleichzeitig gebeugt werden; und die zweite Reaktionseinheit ändert ein grafisches Bedieninterface, welches derzeit auf der Oberfläche des Bedienbereichs angezeigt ist, welche als Projektionsfläche fungiert, in ein Hauptinterface.
  13. Elektronisches Gerät nach einem der Ansprüche 10 bis 12, wobei die Projektion auf einen Bedienbereich des ersten Bedienkörpers eine Projektion auf einen ersten Arm des Nutzers und eine erste Hand an dem ersten Arm ist und der Bedienbereich die erste Hand an dem ersten Arm ist; das Erfassen der Bedienoperation des ersten Bedienbereichs ein Erfassen einer Rotation der ersten Hand ist; und die zweite Reaktionseinheit ein Objekt vergrößert, welches auf einem derzeitigen grafischen Bedieninterface angezeigt wird.
  14. Computerlesbares Speichermedium mit Befehlen zur Ausführung durch einen Computer zum Erfassen von Auslöseinformation durch einen ersten Sensor aus einer Mehrzahl von M Sensoren, falls ein elektronisches Gerät an einem ersten Bedienkörper eines Nutzers befestigt ist; und Projizieren eines grafischen Bedieninterface auf einen Bedienbereich des ersten Bedienkörpers mit einem Projektor durch eine Projektionslinse als Reaktion auf die Auslöseinformation.
DE102014113233.5A 2014-02-24 2014-09-15 Verfahren zur Informationsverarbeitung und elektronisches Gerät Pending DE102014113233A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410062588.3A CN104866079B (zh) 2014-02-24 2014-02-24 一种信息处理方法及电子设备
CN201410062588.3 2014-02-24

Publications (1)

Publication Number Publication Date
DE102014113233A1 true DE102014113233A1 (de) 2015-08-27

Family

ID=53782347

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014113233.5A Pending DE102014113233A1 (de) 2014-02-24 2014-09-15 Verfahren zur Informationsverarbeitung und elektronisches Gerät

Country Status (3)

Country Link
US (1) US20150241968A1 (de)
CN (1) CN104866079B (de)
DE (1) DE102014113233A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101909540B1 (ko) * 2014-10-23 2018-10-18 삼성전자주식회사 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법
US9886086B2 (en) * 2015-08-21 2018-02-06 Verizon Patent And Licensing Inc. Gesture-based reorientation and navigation of a virtual reality (VR) interface
JP2017054251A (ja) * 2015-09-08 2017-03-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11188154B2 (en) * 2018-05-30 2021-11-30 International Business Machines Corporation Context dependent projection of holographic objects
CN112461341B (zh) * 2020-11-13 2022-04-05 深圳市西城微科电子有限公司 基于全桥电路的电子称及介质
CN114764293A (zh) * 2021-01-04 2022-07-19 北京小米移动软件有限公司 一种可穿戴设备的控制方法、装置、可穿戴设备和存储介质
US11914789B2 (en) * 2022-01-20 2024-02-27 Htc Corporation Method for inputting letters, host, and computer readable storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
EP2587345A3 (de) * 2007-08-19 2013-06-26 Ringbow Ltd. Am Finger getragene Vorrichtungen und zugehörige Verwendungsverfahren
US10061387B2 (en) * 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US9936473B2 (en) * 2011-05-03 2018-04-03 Nokia Technologies Oy Method and apparatus for managing radio interfaces
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
CN109799900B (zh) * 2012-11-01 2023-02-28 艾卡姆有限公司 手腕可安装计算通信和控制设备及其执行的方法
CN103246351B (zh) * 2013-05-23 2016-08-24 刘广松 一种用户交互系统和方法
CN103558918B (zh) * 2013-11-15 2016-07-27 上海威璞电子科技有限公司 在智能手表中实现手势识别技术的方法

Also Published As

Publication number Publication date
US20150241968A1 (en) 2015-08-27
CN104866079B (zh) 2018-11-09
CN104866079A (zh) 2015-08-26

Similar Documents

Publication Publication Date Title
DE102014113233A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
DE102014113229B4 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
CN106354418B (zh) 一种基于触摸屏的操控方法和装置
DE102010060975A1 (de) Virtuelles Touchpad für eine Berührungsanordnung
DE102017120515A1 (de) Informationsverarbeitungsverfahren, Elektronikgerät und Informationsverarbeitungsvorrichtung
DE102009025236A1 (de) Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm
DE10251296A1 (de) flexibles Engabesystem / Mehrfinger-System
DE112014001224T5 (de) Tragbare Vorrichtung
DE102015211357A1 (de) Eingabevorrichtung für fahrzeuge
EP2883738B1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
DE102015116477A1 (de) Datenverarbeitungsverfahren und Elektronikgerät
DE112017003886T5 (de) Bedienungseingabevorrichtung
WO2014001460A1 (de) Verfahren zum empfangen einer eingabe auf einem berührungsempfindlichen feld
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
CN103870061A (zh) 在多点触控设备上实现鼠标功能的方法
DE102007018364A1 (de) Zeigeeinrichtung zum Dreidimensional-Raum-Navigieren unter Verwendung mehrerer fingerbetätigter Sensoren
DE202012001316U1 (de) Vorrichtung zur Bedienung eines Berührungsbildschirms
DE102015218476A1 (de) Verfahren zum Anzeigen von Symbolen und elektronische Vorrichtung
CN111124242B (zh) 功能按键展示方法、装置、电子设备和存储介质
EP3274789B1 (de) Kraftfahrzeugsimulationsanordnung zur simulation einer virtuellen umgebung mit einem virtuellen kraftfahrzeug und verfahren zur simulation einer virtuellen umgebung
EP3268852B1 (de) Verfahren zur gezielten auswahl von angezeigten elementen auf einer berührungssensitiven anzeige
DE19858647A1 (de) Ergonomische Maussteuerung
EP2489997B1 (de) Bedienvorrichtung für eine Waage
DE102006045968A1 (de) Comuptereingabegerät zur Steuerung von Computerprogrammen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication