DE102014113229B4 - Verfahren zur Informationsverarbeitung und elektronisches Gerät - Google Patents

Verfahren zur Informationsverarbeitung und elektronisches Gerät Download PDF

Info

Publication number
DE102014113229B4
DE102014113229B4 DE102014113229.7A DE102014113229A DE102014113229B4 DE 102014113229 B4 DE102014113229 B4 DE 102014113229B4 DE 102014113229 A DE102014113229 A DE 102014113229A DE 102014113229 B4 DE102014113229 B4 DE 102014113229B4
Authority
DE
Germany
Prior art keywords
graphical user
interface
user interface
electronic device
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014113229.7A
Other languages
English (en)
Other versions
DE102014113229A1 (de
Inventor
Jesper Brehmer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Publication of DE102014113229A1 publication Critical patent/DE102014113229A1/de
Application granted granted Critical
Publication of DE102014113229B4 publication Critical patent/DE102014113229B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zur Informationsverarbeitung, wobei das Verfahren folgende Schritte aufweist:Erfassen (S101, S301) von Auslöseinformation durch einen Sensor aus einer Mehrzahl von Sensoren in einem elektronischen Gerät;Projizieren (S102, S302) eines grafischen Bedieninterface auf einen ersten Teil eines Nutzers durch eine Projektionslinse (204) als Reaktion auf die Auslöseinformation;Erfassen (S103, S303) einer Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, durch die Mehrzahl von Sensoren; undÄndern des grafischen Bedieninterface als Reaktion auf die Bedienoperation (S104);wobei die grafische Bedienoperation eine auf dem grafischen Bedieninterface ausgeführte Wischoperation aufweist; undwobei das Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation folgende Schritte aufweist:Bestimmen einer Wischdistanz der Wischoperation (S304); undÄndern einer Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation (S305).

Description

  • Technisches Gebiet
  • Die Offenbarung betrifft das Gebiet der Datenverarbeitung und insbesondere ein Verfahren zur Informationsverarbeitung und ein elektronisches Gerät.
  • Hintergrund
  • Bei der Entwicklung elektronischer Geräte stellen die Nutzer hohe Anforderungen an die Displays der elektronischen Geräte. Das Nutzererlebnis kann verbessert werden, falls die Nutzer mit den elektronischen Geräten durch größere Mensch-Computer-Bedieninterfaces (human-computer interaction interfaces) interagieren können.
  • Eine Größe des elektronischen Gerätes ist in verschiedenen Anwendungsfällen beschränkt. Nimmt man eine sogenannte Smartwatch als Beispiel, so muss der Nutzer die Smartwatch bisher um sein Handgelenk tragen, um eine Informationseingabe mit der Smartwatch zu auszuführen. Infolgedessen ist die Größe der Smartwatch beschränkt, ist die Fläche des Displays der Smartwatch beschränkt und entsprechend ist die Fläche des Mensch-Computer-Bedieninterface beschränkt, woraus sich ein mangelhaftes Nutzererlebnis ergibt.
  • Da das Mensch-Computer-Bedieninterface auf dem Display angezeigt wird, ist die Fläche des Mensch-Computer-Bedieninterface im Falle eines Displays gegebene Größe beschränkt. Das heißt, die Größe des Mensch-Computer-Bedieninterface wird durch die Größe des Displays des elektronischen Gerätes beeinflusst, woraus sich ein mangelhaftes Nutzererlebnis ergibt.
  • In den Veröffentlichungen von Harrison et al., „Skinput: Appropriating the Body as an Input Surface“, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, S.453-462, CHI 2010 sowie Harrison et al., „OmniTouch: Wearable Multitouch Interaction Everywhere“, Proceedings of the 24th annual ACM symposium on User interface software and technology, S. 441-450, UIST 2011, wird vorgeschlagen, die Körperoberfläche als Bedieninterface zu verwenden.
  • US 2012 / 0 249 409 A1 offenbart ein Verfahren und eine Vorrichtung zum Bereitstellen von Benutzer-Interfaces.
  • Zusammenfassende Darstellung der Erfindung
  • Vor diesem Hintergrund werden in dieser Offenbarung ein Verfahren zur Informationsverarbeitung und ein elektronisches Gerät vorgeschlagen, um bisherige Probleme zu lösen, wonach eine Fläche eines Displays der Smartwatch und eine Fläche eines Mensch-Computer-Interface beschränkt sind, da eine Größe einer Smartwatch beschränkt ist, und entsprechend ein mangelhaftes Nutzererlebnis verursacht wird.
  • Es wird ein Verfahren zur Informationsverarbeitung bereitgestellt. Das Verfahren wird in einem elektronischen Gerät eingesetzt. Das elektronische Gerät weist ein Gehäuse, welches beispielsweise eine Rahmenstruktur sein kann, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren auf. Der Rahmenstrukturkörper weist eine Befestigungsstruktur auf, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines ersten Nutzers befestigt werden kann. Die erste Displaykomponente und die zweite Displaykomponente sind an der Rahmenstruktur befestigt. Die erste Displaykomponente weist ein Display auf, welches an einer ersten Oberfläche der Rahmenstruktur angeordnet ist. Die zweite Displaykomponente weist eine Projektionslinse auf, welche an einer zweiten Oberfläche der Rahmenstruktur angeordnet ist. Die erste Oberfläche schneidet die zweite Oberfläche. Die M Sensoren sind durch die Rahmenstruktur fixiert. Die M Sensoren weisen einen ersten Sensor auf, welcher an der zweiten Oberfläche der Rahmenstruktur angeordnet ist.
  • Das Verfahren weist folgende Schritte auf:
    • Erfassen von Auslöseinformation durch einen zweiten Sensor unter den M Sensoren;
    • Projizieren eines grafischen Bedieninterface auf einen ersten Teil des ersten Bedienkörpers durch die Projektionslinse als Reaktion auf die Auslöseinformation, wobei der erste Teil des ersten Bedienkörpers auf der gleichen Seite wie die zweite Oberfläche angeordnet ist;
    • Erfassen einer Bedienoperation (interaction operation) bzw. eines Bedienvorgangs, welche durch einen zweiten Bedienkörper auf dem grafischen Bedieninterface ausgeführt wird, durch den ersten Sensor; und
    • Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation;
    • wobei die grafische Bedienoperation eine auf dem grafischen Bedieninterface ausgeführte Wischoperation aufweist; und
    • wobei das Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation folgende Schritte aufweist:
      • Bestimmen einer Wischdistanz der Wischoperation; und
      • Ändern einer Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation.
  • Es wird ein elektronisches Gerät bereitgestellt. Das elektronische Gerät weist eine Rahmenstruktur, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren auf. Die Rahmenstruktur weist eine Befestigungsstruktur auf, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines ersten Nutzers befestigt werden kann. Die erste Displaykomponente und die zweite Displaykomponente sind an der Rahmenstruktur befestigt. Die erste Displaykomponente weist ein Display auf, welches an einer ersten Oberfläche der Rahmenstruktur angeordnet ist. Die zweite Displaykomponente weist eine Projektionslinse auf, welche an einer zweiten Oberfläche der Rahmenstruktur angeordnet ist. Die erste Oberfläche schneidet die zweite Oberfläche. Die M Sensoren sind durch den Rahmenstrukturkörper fixiert. Die M Sensoren weisen einen ersten Sensor auf, welcher an der zweiten Oberfläche der Rahmenstruktur angeordnet ist.
  • Das elektronische Gerät weist ferner Folgendes auf:
    • eine erste Erfassungseinheit zum Erfassen von Auslöseinformation durch einen zweiten Sensor unter den M Sensoren;
    • eine erste Reaktionseinheit zum Projizieren eines grafischen Bedieninterface auf einen ersten Teil eines ersten Bedienkörpers durch die Projektionslinse als Reaktion auf die von der Erfassungseinheit erfasste Auslöseinformation, wobei sich der erste Teil des ersten Bedienkörpers auf der gleichen Seite wie die zweite Oberfläche befindet;
    • eine zweite Erfassungseinheit zum Erfassen einer Bedienoperation, welche durch einen zweiten Bedienkörper auf dem grafischen Bedieninterface ausgeführt wird, durch den ersten Sensor; und
    • eine zweite Reaktionseinheit zum Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation;
    • wobei die Bedienoperation eine auf dem grafischen Bedieninterface ausgeführte Wischoperation ist; und
    • wobei die zweite Reaktionseinheit Folgendes aufweist:
      • eine erste Bestimmungsuntereinheit zum Bestimmen einer Wischdistanz der Wischoperation; und
      • eine erste Steueruntereinheit zum Ändern einer Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation.
  • In dem Verfahren zur Informationsverarbeitung und dem elektronischen Gerät gemäß dieser Offenbarung kann die Auslöseinformation durch den zweiten Sensor, welcher an dem elektronischen Gerät angeordnet ist, erfasst werden. Das grafische Bedieninterface kann durch die Projektionslinse auf den ersten Bedienkörper (den Arm des Nutzers) projiziert werden. Dann kann die Bedienoperation, welche auf dem grafischen Bedieninterface durch den zweiten Bedienkörper (die Hand des Nutzers) ausgeführt wird, durch den ersten Sensor erfasst werden und das grafische Bedieninterface kann verändert werden. Mit dem Verfahren zur Informationsverarbeitung und dem elektronischen Gerät gemäß Ausführungsformen der Offenbarung kann das grafische Bedieninterface auf den Arm des Nutzers projiziert werden und das grafische Bedieninterface, welches auf den Arm des Nutzers projiziert wird, kann als Reaktion auf die Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, verändert werden. Die Größe des grafischen Bedieninterface ist nicht durch die Größen des elektronischen Gerätes und des Displays beschränkt, was zu einem guten Nutzererlebnis führt.
  • Figurenliste
  • Die in der Beschreibung der Ausführungsbeispiele der Offenbarung zu verwendenden Zeichnungen sind nachfolgend kurz beschrieben, um eine technische Lösung gemäß den Ausführungsbeispielen der Offenbarung oder den herkömmlichen Technologien zu verdeutlichen. Es versteht sich, dass andere Zeichnungen durch den Fachmann, basierend auf den hierin offenbarten Zeichnungen ohne jegliche kreative Tätigkeit erhalten werden können.
    • 1 ist ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
    • 2a und 2b sind schematische Strukturdiagramme eines elektronischen Gerätes nach einem Ausführungsbeispiel der Offenbarung;
    • 3 ist ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
    • 4a, 4b, 4c zeigen eine Implementierung eines Prozesses zum Ändern einer Größe eines grafischen Bedieninterface;
    • 5 zeigt ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
    • 6 zeigt ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung;
    • 7 zeigt eine schematisches Darstellung des Ausführens einer Operation auf einem Anwendungsicon unter mehreren auf einem Interface angezeigten Anwendungsicons;
    • 8 ist ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung; und
    • 9 ist ein schematisches Strukturdiagramm eines elektronischen Gerätes nach einem Ausführungsbeispiel der Offenbarung.
  • Detaillierte Beschreibung der Ausführungsbeispiele
  • Es versteht sich, dass die beschriebenen Ausführungsbeispiele lediglich einen Teil statt alle Ausführungsbeispiele der vorliegenden Offenbarung darstellen. Jegliche weiteren Ausführungsbeispiele, welche durch einen Fachmann, basierend auf den Ausführungsbeispielen der vorliegenden Offenbarung ohne kreative Tätigkeit erhalten werden, sollen unter den Geltungsbereich der vorliegenden Offenbarung fallen.
  • 1 ist ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung. Das Verfahren wird in einem elektronischen Gerät eingesetzt. Ein Aufbau des elektronischen Gerätes ist in 2 gezeigt. Das elektronische Gerät weist eine Rahmenstruktur 201, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren auf. Die Rahmenstruktur 201 weist eine Befestigungsstruktur 202 auf, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines ersten Nutzers befestigt werden kann. Die erste Displaykomponente und die zweite Displaykomponente sind an der Rahmenstruktur 201 befestigt. Die erste Displaykomponente weist ein Display 203 auf, welches an einer ersten Oberfläche der Rahmenstruktur 201 angeordnet ist. Die zweite Displaykomponente weist eine Projektionslinse 204 auf, welche an einer zweiten Oberfläche der Rahmenstruktur 201 angeordnet ist. Die erste Oberfläche schneidet die zweite Oberfläche. Die M Sensoren sind durch die Rahmenstruktur 201 fixiert. Die M Sensoren weisen einen ersten Sensor 205 auf und der erste Sensor ist an der zweiten Oberfläche der Rahmenstruktur 201 angeordnet. Das Verfahren kann die folgenden Schritte S101-S104 aufweisen.
  • Im Schritt S101 wird Auslöseinformation durch einen zweiten Sensor unter den M Sensoren erfasst.
  • Es gibt verschiedene Ausführungsformen für das elektronische Gerät, um die Auslöseinformation durch den zweiten Sensor zu erfassen.
  • In einer Ausgestaltung kann der zweite Sensor ein berührungsempfindlicher Bildschirm (touch screen) sein. Eine Berührungsschaltfläche (touch button) wird auf dem berührungsempfindlichen Bildschirm angezeigt und das elektronische Gerät erfasst die Auslöseinformation, falls der berührungsempfindliche Bildschirm detektiert, dass die Berührungsschaltfläche berührt wird.
  • In einer Ausgestaltung kann der zweite Sensor eine physikalische Taste (physical button) sein, welche an der Rahmenstruktur angeordnet ist, und das elektronische Gerät erfasst die Auslöseinformation, falls die physikalische Taste betätigt wird.
  • In einer Ausgestaltung kann der zweite Sensor eine Kamera sein. Die Kamera kann eine Geste eines Nutzers erfassen und das elektronische Gerät erfasst die Auslöseinformation, falls die durch die Kamera erfasste Geste mit einer vorgegebenen Geste übereinstimmt.
  • In einer Ausgestaltung kann der zweite Sensor eine auf dem Display angeordnete Berührungseinheit sein. Falls ein bedienbares Objekt auf dem Display angezeigt wird und die Berührungseinheit eine Berührungsbedienung, welche auf dem bedienbaren Objekt ausgeführt wird, detektiert, erfasst das elektronische Gerät die Auslöseinformation. Zum Beispiel wird Benachrichtigungsinformation (prompting information) (wie z. B., dass eine Kurznachricht empfangen wird) auf dem Display angezeigt und das elektronische Gerät kann Auslöseinformation erfassen, falls die Benachrichtigungsinformation durch den Nutzer angeklickt wird.
  • In Schritt S102 wird ein grafisches Bedieninterface durch die Projektionslinse auf einen ersten Teil des ersten Bedienkörpers projiziert als Reaktion auf die Auslöseinformation. Der erste Teil des ersten Bedienkörpers befindet sich auf der gleichen Seite wie die zweite Oberfläche.
  • Der erste Bedienkörper ist ein Arm des Nutzers. Das elektronische Gerät projiziert das grafische Bedieninterface durch die Projektionslinse auf den Arm des Nutzers.
  • In Schritt S103 wird eine Bedienoperation, welche auf dem grafischen Bedieninterface durch einen zweiten Bedienkörper ausgeführt wird, durch den ersten Sensor erfasst.
  • Der erste Sensor kann eine Kamera sein, der zweite Bedienkörper kann eine Hand des Nutzers sein und die Bedienoperation kann eine Berührungsgeste sein. Das elektronische Gerät kann die auf dem grafischen Bedieninterface durch den Nutzer ausgeführte Berührungsgeste durch die Kamera erfassen.
  • In Schritt S104 wird das grafische Bedieninterface als Reaktion auf die Bedienoperation verändert.
  • Das grafische Bedieninterface kann auf verschiedene Weise verändert werden. Zum Beispiel kann eine Größe des grafischen Bedieninterface oder können auf dem grafischen Bedieninterface angezeigte Inhalte verändert werden.
  • In dem Verfahren zur Informationsverarbeitung gemäß dieser Offenbarung kann die Auslöseinformation durch den zweiten Sensor, welcher an dem elektronischen Gerät angeordnet ist, erfasst werden. Das grafische Bedieninterface kann durch die Projektionslinse auf den ersten Bedienkörper (den Arm des Nutzers) projiziert werden. Dann kann die Bedienoperation, welche auf dem grafischen Bedieninterface durch den zweiten Bedienkörper (die Hand des Nutzers) ausgeführt wird, durch den ersten Sensor erfasst werden und das grafische Bedieninterface kann verändert werden. Mit dem Verfahren zur Informationsverarbeitung gemäß dem Ausführungsbeispiel der Offenbarung kann das grafische Bedieninterface auf den Arm des Nutzers projiziert werden und das grafische Bedieninterface, welches auf den Arm des Nutzers projiziert wird, kann als Reaktion auf die Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, verändert werden. Die Größe des grafischen Bedieninterface ist nicht durch die Größen des elektronischen Gerätes und des Displays beschränkt, was zu einem guten Nutzererlebnis führt.
  • 3 zeigt ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung gemäß einem Ausführungsbeispiel der Offenbarung. Das Verfahren wird ebenfalls für das in 2 gezeigten elektronischen Gerät eingesetzt. Das Verfahren kann die folgenden Schritte S301-S305 aufweisen.
  • In Schritt 301 wird Auslöseinformation durch den zweiten Sensor unter den M Sensoren erfasst.
  • Für Ausgestaltungen des elektronischen Gerätes, um die Auslöseinformation durch den zweiten Sensor zu erfassen, kann auf das vorhergehende Ausführungsbeispiel Bezug genommen werden, welches an dieser Stelle nicht wiederholt wird.
  • In Schritt S302 wird ein grafisches Bedieninterface durch die Projektionslinse auf einen ersten Teil eines ersten Bedienkörpers projiziert als Reaktion auf die Auslöseinformation. Der erste Teil des ersten Bedienkörpers befindet sich auf der gleichen Seite wie die zweite Oberfläche.
  • Das grafische Bedieninterface, welches auf dem ersten Bedienkörper angezeigt wird, d.h., auf dem Arm des Nutzers, kann ein kleines Interface, ein Teil des Interface oder ein Interface, welches Benachrichtigungsinformation anzeigt, sein.
  • In Schritt S303 wird eine Wischoperation (sliding operation), welche auf dem grafischen Bedieninterface durch einen zweiten Bedienkörper ausgeführt wird, durch den ersten Sensor erfasst.
  • Die Wischoperation, welche auf der grafischen Bedieninterface durch den zweiten Bedienkörper ausgeführt wird, kann eine Wischoperation weg von der zweiten Oberfläche sein.
  • In Schritt S304 wird eine Wischdistanz der Wischoperation bestimmt.
  • Die M Sensoren können einen dritten Sensor aufweisen, welcher zum Erfassen der Wischdistanz der Wischoperation dient. Der dritte Sensor kann an der zweiten Oberfläche der Rahmenstruktur angeordnet sein. Der dritte Sensor kann ein Entfernungssensor sein, ist jedoch nicht darauf beschränkt. Der Entfernungssensor kann eine Wischdistanz der Wischoperation weg von der zweiten Oberfläche detektieren, welche durch den zweiten Bedienkörper ausgeführt wird.
  • In Schritt S305 wird eine Größe des grafischen Bedieninterface, basierend auf der Wischdistanz der Wischoperation, verändert.
  • Das elektronische Gerät kann eine Größe des grafischen Bedieninterface, basierend auf der Wischdistanz, welche durch den dritten Sensor detektiert wird, ändern. Zum Beispiel, je länger die Wischdistanz ist, desto größer ist das grafische Bedieninterface, welches auf dem ersten Bedienkörper angezeigt wird.
  • Ein Beispiel für ein Ändern der Größe des grafischen Bedieninterface ist in 4 gezeigt. Eine Berührungseinheit ist an einer Seite des Displays des elektronischen Gerätes vorgesehen. Die Berührungseinheit dient zum Detektieren einer durch einen Finger des Nutzers ausgeführten Berührungsoperation. Das elektronische Gerät erfasst die Auslöseinformation, falls der Nutzer die Berührungseinheit mit seinem Finger anklickt (wie in 4a gezeigt). Das grafische Bedieninterface wird durch die Projektionslinse auf den Arm des Nutzers projiziert und das grafische Bedieninterface, welches auf den Arm des Nutzers projiziert wird, ist eine kleines Interface (wie in 4b gezeigt). Das elektronische Gerät vergrößert das kleine Interface basierend auf der Wischdistanz, falls der Finger des Nutzers auf dem kleinen Interface die Wischoperation weg von der zweiten Oberfläche ausführt (wie in 4c gezeigt).
  • In dem in dieser Offenbarung bereitgestellten Verfahren zur Informationsverarbeitung wird das grafische Bedieninterface auf den Arm des Nutzers projiziert. Der Nutzer kann die Größe des grafischen Bedieninterface, welches auf den Arm des Nutzers projiziert wird, mit der Wischoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, verändern. Die Größe des grafischen Bedieninterface ist nicht durch die Größen des elektronischen Gerätes und des Displays beschränkt, was zu einem guten Nutzererlebnis führt.
  • 5 zeigt ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung. Das Verfahren wird ebenfalls für das in 2 gezeigte elektronische Gerät eingesetzt. Das Verfahren kann die folgenden Schritte S501-S505 aufweisen.
  • In Schritt 501 wird Auslöseinformation durch den zweiten Sensor unter den M Sensoren erfasst.
  • In Schritt 502 wird ein grafisches Bedieninterface durch die Projektionslinse auf einen ersten Teil eines ersten Bedienkörpers projiziert als Reaktion auf die Auslöseinformation. Der erste Teil des ersten Bedienkörpers befindet sich auf der gleichen Seite wie die zweite Oberfläche.
  • Zum Beispiel ist der zweite Sensor eine Berührungseinheit. Der zweite Sensor ist an dem Display, welches an der ersten Oberfläche der Rahmenstruktur angeordneten ist, angeordnet. Benachrichtigungsinformation wird auf dem Display, welches an der ersten Oberfläche der Rahmenstruktur angeordnet ist, angezeigt, falls das elektronische Gerät Informationen wie eine Kurznachricht empfängt. Das elektronische Gerät erfasst die Auslöseinformation, falls der Nutzer die Berührungseinheit anklickt, um eine Operation auf der Benachrichtigungsinformation, welche auf dem Display angezeigt wird, auszuführen. Dann wird als Reaktion auf die Auslöseinformation ein Interface, welches die Benachrichtigungsinformation anzeigt, auf den ersten Bedienkörper projiziert.
  • In Schritt S503 wird eine Wischoperation, welche auf dem Interface, welches die Benachrichtigungsinformation anzeigt, durch einen zweiten Bedienkörper ausgeführt wird, durch den ersten Sensor erfasst.
  • Der zweite Bedienkörper kann eine Hand des Nutzers sein. Zum Beispiel kann der erste Bedienkörper der linke Arm des Nutzers sein und der zweite Bedienkörper kann die rechte Hand des Nutzers sein. Das elektronische Gerät projiziert das grafische Bedieninterface durch die Projektionslinse auf den linken Arm des Nutzers und der Nutzer führt durch die rechte Hand des Nutzers eine Bedienoperation auf de, grafischen Bedieninterface aus, welches auf dem linken Arm des Nutzers angezeigt wird.
  • In Schritt S504 wird eine Wischdistanz der Wischoperation bestimmt.
  • In Schritt S505 wird eine Größe des Interface, welches die Benachrichtigungsinformation anzeigt, basierend auf der Wischdistanz der Wischoperation verändert und Inhalte der Benachrichtigungsinformation werden auf dem Interface mit veränderter Größe angezeigt.
  • Für ein Beispiel für ein Ändern der Größe des Interface, welches die Benachrichtigungsinformation anzeigt, kann auf 4 verwiesen werden. Eine Berührungseinheit ist an einer Seite des Displays des elektronischen Gerätes vorgesehen. Die Berührungseinheit dient zum Detektieren einer durch einen Finger des Nutzers ausgeführten Berührungsoperation. Das elektronische Gerät erfasst die Auslöseinformation, falls der Nutzer die Berührungseinheit mit seinem Finger anklickt (wie in 4a gezeigt). Das grafische Bedieninterface wird durch die Projektionslinse auf den Arm des Nutzers projiziert und das grafische Bedieninterface, welches auf den Arm des Nutzers projiziert wird, ist eine kleines Interface (wie in 4b gezeigt). Das elektronische Gerät vergrößert das kleine Interface basierend auf der Wischdistanz, falls der Finger des Nutzers auf dem kleinen Interface die Wischoperation weg von der zweiten Oberfläche ausführt und die Inhalte der Benachrichtigungsinformation werden auf dem vergrößerten Interface angezeigt (wie in 4c gezeigt). Angenommen, dass die Benachrichtigungsinformation darüber benachrichtigt, dass eine Kurznachricht empfangen wird, so vergrößert das elektronische Gerät, falls das elektronische Gerät die Wischoperation, welche auf dem Interface der Benachrichtigungsinformation ausgeführt wird, basierend auf der Wischdistanz der Wischoperation das Interface, welches die Benachrichtigungsinformation anzeigt, und Inhalte, welche auf dem vergrößerten Interface angezeigt werden, werden von der Benachrichtigungsinformation zu Inhalten der Kurznachricht umgeschaltet.
  • In dem in dieser Offenbarung bereitgestellten Verfahren zur Informationsverarbeitung wird das grafische Bedieninterface auf den Arm des Nutzers projiziert. Der Nutzer kann die Größe des grafischen Bedieninterface, welches auf den Arm des Nutzers projiziert wird, durch die Wischoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, verändern und die auf dem grafischen Bedieninterface angezeigten Inhalte können verändert werden. Die Größe des grafischen Bedieninterface ist nicht durch die Größen des elektronischen Gerätes und des Displays beschränkt, was zu einem guten Nutzererlebnis führt.
  • 6 zeigt ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung. Das Verfahren wird ebenfalls für das in 2 gezeigte elektronische Gerät eingesetzt. Das Verfahren kann die folgenden Schritte S601-S604 aufweisen.
  • In Schritt S601 wird Auslöseinformation durch den zweiten Sensor unter den M Sensoren erfasst.
  • In Schritt S602 wird ein Interface, welches Anwendungsicons anzeigt, als Reaktion auf die Auslöseinformation auf einen ersten Teil eines ersten Bedienkörpers projiziert. Der erste Teil des ersten Bedienkörpers befindet sich auf der gleichen Seite wie die zweite Oberfläche.
  • Gemäß dem Ausführungsbeispiel hat das elektronische Gerät einen Standard-Modus und einen Smart-Modus.
  • In dem Standard-Modus kann das elektronische Gerät Informationen wie z.B. Zeit nur auf dem Display, welches an der ersten Oberfläche der Rahmenstruktur angeordnet ist, anzeigen. Es versteht sich, dass dadurch Energie gespart wird, da das elektronische Gerät in dem Standard-Modus nur zum Anzeigen von Information wie z.B. Zeit dient.
  • Das elektronische Gerät schaltet von dem Standard-Modus zu dem Smart-Modus um, falls Auslöseinformation erfasst wird. In dem Smart-Modus projiziert das elektronische Gerät das Interface, welches die Anwendungsicons anzeigt, auf den ersten Teil des ersten Bedienkörpers und das elektronische Gerät kann auf eine Operation reagieren, welche von einem Nutzer auf einem Anwendungsicon, welches auf dem Interface, welches die Anwendungsicons anzeigt, ausgeführt wird.
  • Es versteht sich, dass das Display, welche an der ersten Oberfläche der Rahmenstruktur angeordnet ist, im Smart-Modus Information anzeigen kann oder auch nicht.
  • In Schritt S603 wird eine Berührungsoperation, welche durch einen zweiten Bedienkörper auf einem ersten Anwendungsicon der auf dem Interface angezeigten Anwendungsicons ausgeführt wird, durch den ersten Sensor erfasst.
  • In Schritt S604 wird eine erste Anwendung, welche mit dem ersten Anwendungsicon korrespondiert, gestartet und das Interface, welches die Anwendungsicons anzeigt, zu einem Interface des ersten Anwendungsprogramms umgeschaltet.
  • Zum Beispiel schaltet das elektronische Gerät im Standard-Modus von dem Standard-Modus in den Smart-Modus um, falls Auslöseinformation erfasst wird, wie in 7 gezeigt. Das Interface, welches die Anwendungsicons anzeigt, wird durch die Projektionslinse auf den Arm des Nutzers projiziert. Der Nutzer kann eine Operation auf einem Anwendungsicon unter den Anwendungsicons, welche auf dem Interface angezeigt werden, ausführen. Der Nutzer kann mit seinem Finger auf ein Anwendungsicon unter den Anwendungsicons, welche auf dem Interface angezeigt werden, anklicken, um die erste Anwendung, welche mit dem angeklickten Anwendungsicon korrespondiert, zu starten. Das elektronische Gerät schaltet von einem aktuellen Interface zu einem Interface der ersten Anwendung um. Zum Beispiel startet das elektronische Gerät, falls der Nutzer auf ein Icon zum Abspielen für Musik anklickt, eine Anwendung zur Musikwiedergabe, um ein Lied abzuspielen und schaltet von dem Interface, welches die Anwendungsicons anzeigt, um zu einem Interface der Anwendung zur Musikwiedergabe.
  • In dem in dieser Offenbarung bereitgestellten Verfahren zur Informationsverarbeitung wird das grafische Bedieninterface, welches die Anwendungsicons anzeigt, auf den Arm des Nutzers projiziert. Der Nutzer startet die erste Anwendung durch die Berührungsoperation, welche auf dem ersten Anwendungsicon unter den Anwendungsicons, welche auf dem Interface angezeigt werden, und das elektronische Gerät schaltet von der Anzeige, welche die Anwendungsicons anzeigt, um zu dem Interface der ersten Anwendung. Eine Größe des grafischen Bedieninterface, welche auf den Arm des Nutzers projiziert wird, ist nicht durch die Größen des elektronischen Gerätes und des Displays beschränkt, was zu einem guten Nutzererlebnis führt.
  • 8 ist ein schematisches Flussdiagramm eines Verfahrens zur Informationsverarbeitung nach einem Ausführungsbeispiel der Offenbarung. Das Verfahren wird ebenfalls für das in 2 gezeigte elektronische Gerät eingesetzt. Das Verfahren kann die folgenden Schritte S801-S807 aufweisen.
  • In Schritt S801 wird Auslöseinformation durch den zweiten Sensor unter den M Sensoren erfasst.
  • In Schritt S802 wird ein Interface, welches Benachrichtigungsinformation anzeigt, als Reaktion auf die Auslöseinformation durch die Projektionslinse auf einen ersten Teil eines ersten Bedienkörpers projiziert. Der erste Teil des ersten Bedienkörpers befindet sich auf der gleichen Seite wie die zweite Oberfläche.
  • In Schritt S803 wird eine Wischoperation, welche auf der Interface, welche die Anfrageinformation anzeigt, durch einen zweiten Bedienkörper ausgeführt wird, durch den ersten Sensor erfasst.
  • Der erste Sensor kann eine Vorrichtung zur Bilderfassung wie beispielsweise eine Kamera sein, ist jedoch nicht darauf beschränkt.
  • In Schritt S804 wird eine Wischdistanz der Wischoperation bestimmt.
  • In Schritt S805 wird eine Größe eines grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation verändert und Anwendungsicons, welche ein Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt, werden auf dem Interface mit veränderter Größe angezeigt.
  • In Schritt S806 wird eine Berührungsoperation, welche auf dem die Benachrichtigungsinformation tragenden Anwendungsicon durch einen zweiten Bedienkörper ausgeführt wird, durch den ersten Sensor erfasst.
  • In Schritt S807 wird ein Interface, welches die Anwendungsicons anzeigt, welche das Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt, als Reaktion auf die Berührungsoperation zu einem Interface, welches Inhalte der Benachrichtigungsinformation anzeigt, umgeschaltet.
  • Zum Beispiel, falls das elektronische Gerät drei Kurznachrichten empfängt wird auf dem Display, welches auf der ersten Oberfläche der Rahmenstruktur angeordnet ist, die Benachrichtigungsinformation „drei Kurznachrichten empfangen“ angezeigt. Angenommen, dass der zweite Sensor eine auf dem Display angeordnete Berührungseinheit ist, so erfasst das elektronische Gerät die Auslöseinformation, falls der Nutzer die angezeigte Benachrichtigungsinformation anklickt und das Interface, welches die Benachrichtigungsinformation anzeigt, wird als Reaktion auf die Auslöseinformation auf den ersten Bedienkörper projiziert. Das Interface, welches die Benachrichtigungsinformation anzeigt, kann ein kleines Interface sein, welches nur die Benachrichtigungsinformation anzeigt.
  • Falls die Wischoperation, welche durch eine Hand des Nutzers auf dem Interface, welches die Benachrichtigungsinformation anzeigt, ausgeführt wird, durch den ersten Sensor erfasst wird, vergrößert das elektronische Gerät das Interface, welches die Benachrichtigungsinformation anzeigt, basierend auf der Wischdistanz des Fingers des Nutzers. Die auf dem Interface angezeigten Inhalte werden verändert. Das heißt, das Interface, welches die Benachrichtigungsinformation anzeigt, wird zu einem vergrößerten Interface umgeschaltet, welche die Anwendungsicons anzeigt. Ein Kurznachrichten-Icon wird auf dem vergrößerten Interface angezeigt, welches die Anwendungsicons anzeigt. Das Kurznachrichten-Icon kann ein Zeichen „3“ tragen, um den Nutzer zu benachrichtigen, dass drei Kurznachrichten empfangen wurden.
  • Falls eine Berührungsoperation durch den Finger des Nutzers auf dem Kurznachrichten-Icon ausgeführt wird, welches auf dem Interface, welches die Anwendungs-Icons anzeigt, durch den ersten Sensor erfasst wird, d.h., falls der Nutzer das Kurznachrichten-Icon mit seinem Finger anklickt, schaltet das elektronische Gerät von einem bisherigen Interface, welches die Anwendungsicons anzeigt, zu einem Interface um, welches die Inhalte der drei Kurznachrichten anzeigt. Das heißt, das elektronische Gerät zeigt die Inhalte der drei Kurznachrichten auf dem Arm des Nutzers an.
  • In dem in dieser Offenbarung bereitgestellten Verfahren zur Informationsverarbeitung wird das grafische Bedieninterface auf den Arm des Nutzers projiziert. Der Nutzer kann mit einer Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, die Größe und die angezeigten Inhalte des grafischen Benutzerinterface, welche auf den Arm des Nutzers projiziert werden, ändern. Die Größe der grafischen Benutzerinterface, welche auf den Arm des Nutzers projiziert wird, ist nicht durch die Größen des elektronischen Gerätes und des Displays beschränkt, was zu einem guten Nutzererlebnis führt.
  • Entsprechend den vorstehenden Verfahren zur Informationsverarbeitung wird weiterhin ein elektronisches Gerät nach einem Ausführungsbeispiel der Offenbarung bereitgestellt. Wie in 7 gezeigt, weist das elektronische Gerät eine Rahmenstruktur, eine erste Displaykomponente, eine zweite Displaykomponente und M Sensoren auf. Die Rahmenstruktur weist eine Befestigungsstruktur, mit welcher das elektronische Gerät an einem ersten Bedienkörper eines ersten Nutzers befestigt werden kann. Die erste Displaykomponente und die zweite Displaykomponente sind an der Rahmenstruktur befestigt. Die erste Displaykomponente weist ein Display auf, welches an einer ersten Oberfläche der Rahmenstruktur angeordnet ist. Die zweite Displaykomponente weist eine Projektionslinse auf, welche an einer zweiten Oberfläche der Rahmenstruktur angeordnet ist. Die erste Oberfläche schneidet die zweite Oberfläche. Die M Sensoren sind durch die Rahmenstruktur fixiert. Die M Sensoren weisen einen ersten Sensor auf, welcher an der zweiten Oberfläche der Rahmenstruktur angeordnet ist. Das elektronische Gerät kann ferner eine erste Erfassungseinheit 901, eine erste Reaktionseinheit 902, eine zweite Erfassungseinheit 903 und eine zweite Reaktionseinheit 904 aufweisen.
  • Die erste Erfassungseinheit 901 dient zum Erfassen von Auslöseinformation durch einen zweiten Sensor unter den M Sensoren.
  • Die erste Reaktionseinheit 902 dient zum Projizieren eines grafischen Bedieninterface auf einen ersten Teil eines Nutzers durch eine Projektionslinse als Reaktion auf die von der ersten Erfassungseinheit 90 erfasste Auslöseinformation. Der erste Teil des ersten Bedienkörpers befindet sich auf der gleichen Seite wie die zweite Oberfläche.
  • Die zweite Erfassungseinheit 903 dient zum Erfassen einer Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, durch den ersten Sensor.
  • Die zweite Reaktionseinheit 904 dient zum Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation, welche durch die zweite Erfassungseinheit 903 erfasst wird.
  • In dem in dieser Offenbarung vorgeschlagenen elektronischen Gerät kann die Auslöseinformation durch den zweiten Sensor, welcher an dem elektronischen Gerät angeordnet ist, erfasst werden. Das grafische Bedieninterface kann durch die Projektionslinse auf den ersten Bedienkörper (ein Arm des Nutzers) projiziert werden. Dann kann die Bedienoperation, welche durch einen zweiten Bedienkörper (eine Hand des Nutzers) auf dem grafischen Bedieninterface ausgeführt wird, durch den ersten Sensor erfasst werden, und das grafische Bedieninterface kann verändert werden. Mit dem elektronischen Gerät nach einem Ausführungsbeispiel der Offenbarung wird das grafische Benutzerinterface auf den Arm des Nutzers projiziert. Das grafische Bedieninterface, welches auf den Arm des Nutzers projiziert wird, kann als Reaktion auf die Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, verändert werden. Die Größe des grafischen Bedieninterface, welches auf den Arm des Nutzers projiziert wird, ist nicht durch die Größen des elektronischen Gerätes und des Displays beschränkt, was zu einem guten Nutzererlebnis führt.
  • In einer Ausgestaltung kann die Bedienoperation, welche durch die zweite Erfassungseinheit 903 erfasst wird, eine Wischoperation sein, welche durch den zweiten Bedienkörper auf dem grafischen Bedieninterface ausgeführt wird.
  • Hier kann die zweite Reaktionseinheit 904 eine erste Bestimmungsuntereinheit und eine erste Steueruntereinheit aufweisen. Die erste Bestimmungsuntereinheit dient zum Bestimmen einer Wischdistanz der Wischoperation und die erste Steuerungsuntereinheit dient zum Ändern der Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation.
  • In einer Ausführungsform kann die Bedienoperation eine Wischoperation sein, welche durch den zweiten Bedienkörper auf einem grafischen Bedieninterface ausgeführt wird, und das grafische Bedieninterface ist ein Interface, welches Benachrichtigungsinformation anzeigt.
  • Hier kann die zweite Reaktionseinheit 904 eine zweite Bestimmungsuntereinheit und eine zweite Steuerungsuntereinheit aufweisen. Die zweite Bestimmungsuntereinheit dient zum Bestimmen der Wischdistanz der Wischoperation und die zweite Steuerungsuntereinheit dient zum Ändern der Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation und zum Anzeigen der Benachrichtigungsinformation auf dem grafischen Bedieninterface mit veränderter Größe.
  • In einer Ausgestaltung kann das grafische Bedieninterface ein Interface sein, welches Anwendungsicons anzeigt und die Bedienoperation ist eine Berührungsoperation, welche durch den zweiten Bedienkörper auf einem ersten Anwendungsicon unter den auf dem Interface angezeigten Anwendungsicons ausgeführt wird.
  • Hier kann die zweite Reaktionseinheit 904 eine Anwendungsstartuntereinheit und eine dritte Steuerungsuntereinheit aufweisen. Die Anwendungsstartuntereinheit dient zum Starten einer ersten Anwendung, welche mit dem ersten Anwendungsicon korrespondiert, und die dritte Steuerungsuntereinheit dient zum Umschalten des Interface, welches die Anwendungsicons anzeigt, in ein Interface der ersten Anwendung.
  • Es ist anzumerken, dass das elektronische Gerät einen Standard-Modus und einen Smart-Modus hat. Das elektronische Gerät schaltet von dem Standard-Modus in den Smart-Modus um, falls die erste Erfassungseinheit 901 Auslöseinformation erfasst. In dem Smart-Modus ist das grafische Bedieninterface das Interface, welches die Anwendungsicons anzeigt.
  • In einer Ausgestaltung kann die Bedienoperation eine Wischoperation sein, welche durch den zweiten Bedienkörper auf dem grafischen Bedieninterface ausgeführt wird, und das grafische Bedieninterface ist ein Interface, welches Benachrichtigungsinformation anzeigt.
  • Hier kann die zweite Reaktionseinheit 904 eine dritte Bestimmungsuntereinheit, eine vierte Steueruntereinheit, eine Erfassungsuntereinheit und eine Reaktionsuntereinheit aufweisen. Die dritte Bestimmungsuntereinheit dient zum Bestimmen einer Wischdistanz der Wischoperation. Die vierte Steuerungsuntereinheit dient zum Ändern einer Größe des Interface, welches die Benachrichtigungsinformation anzeigt, basierend auf der Wischdistanz der Wischoperation und zum Anzeigen von Anwendungsicons auf dem Interface mit veränderter Größe, wobei die Anwendungsicons ein Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt. Die Erfassungsuntereinheit dient zum Erfassen einer auf dem Anwendungsicon, welches die Benachrichtigungsinformation trägt, ausgeführten Berührungsoperation durch den ersten Sensor. Die Reaktionsuntereinheit dient zum Umschalten des Interface, welches die Anwendungsicons anzeigt, welche das Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt, in ein Interface, welche Inhalte der Benachrichtigungsinformation anzeigt, als Reaktion auf die Berührungsoperation.
  • Es ist anzumerken, dass die Ausführungsbeispiele in der Beschreibung progressiv bzw. aufeinander aufbauend beschrieben sind. Unterschiede zu anderen Ausführungsbeispielen sind in der Beschreibung von jedem Ausführungsbeispiel hervorgehoben, wohingegen für ähnliche Teile der Ausführungsbeispiele aufeinander verwiesen werden kann. Ausführungsbeispiele von Vorrichtungen oder Ausführungsbeispiele von Systemen, welche Ausführungsbeispielen von Verfahren ähneln, sind kurz beschrieben und gleiche Teile können auf Beschreibungen der Ausführungsbeispiele von Verfahren Bezug nehmen.
  • Es ist ferner anzumerken, dass hierbei relative Angaben wie „erste(r)“ oder „zweiter“ lediglich dazu verwendet werden, um eine Einheit oder Operation von einer anderen Einheit oder Operation zu unterscheiden anstatt zu erfordern oder zu implizieren, dass es eine tatsächliche Beziehung oder Reihenfolge zwischen diesen Einheiten oder Operationen gibt. Ferner sind Ausdrücke wie „aufweisen“, „umfassen“ oder andere Varianten hiervon nicht ausschließlich zu verstehen. Entsprechend kann ein Prozess, ein Verfahren, ein Artikel oder eine Vorrichtung, welcher eine Serie von Elementen aufweist, nicht nur diese Elemente, sondern auch andere Elemente, welche nicht explizit aufgelistet und inhärente Elemente des Prozesses, des Verfahrens, des Artikels oder der Vorrichtung sind, aufweisen. Im Fall keiner weiteren Beschränkungen schließt ein Element, welches durch eine Aussage auf „ein ... aufweisend“ beschränkt ist, nicht aus, dass es noch andere ähnliche Elemente in dem Prozess, dem Verfahren, dem Artikel oder der Vorrichtung, welche das Element aufweist, geben kann.
  • Schritte der Verfahren oder Algorithmen gemäß den Ausführungsbeispielen der Offenbarung können durch eines von oder eine Kombination von Hardware und einem von einem Prozessor ausgeführten Softwaremodul implementiert sein. Das Softwaremodul kann in Form eines Random-Access Memory (RAM), eines Speichers, eines Read-Only Memory (ROM), eines elektrisch programmierbaren ROM, eines elektrisch löschbar programmierbaren ROM, eines Registers, einer Hardware, einer bewegbaren Scheibe, einer CD-ROM oder in einem beliebigen anderem Format eines herkömmlichen Speichermediums bereitgestellt werden.
  • Mit der obigen Beschreibung der offenbarten Ausführungsbeispiele kann der Fachmann die vorliegende Offenbarung implementieren oder nutzen. Verschiedene Abwandlungen dieser Ausführungsbeispiele sind für den Fachmann offensichtlich und die zugrundeliegenden Prinzipien, welche in der vorliegenden Offenbarung definiert sind, können in anderen Ausführungsformen implementiert werden, ohne von dem Gedanken oder dem Geltungsbereich der vorliegenden Offenbarung abzuweichen. Daher ist die vorliegende Offenbarung nicht auf diese hierin offenbarten Ausführungsbeispiele beschränkt, sondern beansprucht den breitesten Schutz, welcher mit den Prinzipien und neuen Charakteristika, welche in der vorliegenden Offenbarung offenbart sind, im Einklang steht.

Claims (10)

  1. Verfahren zur Informationsverarbeitung, wobei das Verfahren folgende Schritte aufweist: Erfassen (S101, S301) von Auslöseinformation durch einen Sensor aus einer Mehrzahl von Sensoren in einem elektronischen Gerät; Projizieren (S102, S302) eines grafischen Bedieninterface auf einen ersten Teil eines Nutzers durch eine Projektionslinse (204) als Reaktion auf die Auslöseinformation; Erfassen (S103, S303) einer Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, durch die Mehrzahl von Sensoren; und Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation (S104); wobei die grafische Bedienoperation eine auf dem grafischen Bedieninterface ausgeführte Wischoperation aufweist; und wobei das Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation folgende Schritte aufweist: Bestimmen einer Wischdistanz der Wischoperation (S304); und Ändern einer Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation (S305).
  2. Verfahren nach Anspruch 1, wobei das grafische Bedieninterface ein Interface aufweist, welches Benachrichtigungsinformation anzeigt; und wobei das Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation (S104) ferner folgenden Schritt aufweist: Anzeigen von Inhalten der Benachrichtigungsinformation auf dem grafischen Bedieninterface mit veränderter Größe (S505).
  3. Verfahren nach einem der vorangegangenen Ansprüche, ferner mit dem Schritt: Anzeigen eines Anwendungsicons, wobei die grafische Bedienoperation eine Berührungsoperation aufweist, welche auf dem Anwendungsicon ausgeführt wird; und wobei das Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation (S104) folgenden Schritt aufweist: Starten einer ersten Anwendung, welche mit dem Anwendungsicon korrespondiert, und Umschalten eines Interface, welches das Anwendungsicon anzeigt, in ein Interface der ersten Anwendung.
  4. Verfahren nach Anspruch 3, ferner mit dem Schritt: Umschalten von einem Standard-Modus in einen Smart-Modus als Reaktion auf das Erfassen der Auslöseinformation und wobei das grafische Bedieninterface in dem Smart-Modus ein Interface aufweist, welches das Anwendungsicon anzeigt.
  5. Verfahren nach einem der vorangegangenen Ansprüche, wobei das grafische Bedieninterface ein Interface aufweist, welches Benachrichtigungsinformation anzeigt; und wobei das Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation (S104) ferner folgende Schritte aufweist: Anzeigen von Anwendungsicons auf dem Interface mit veränderter Größe, wobei die Anwendungsicons ein Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt; Erfassen einer Berührungsoperation auf dem Anwendungsicon, welches die Benachrichtigungsinformation trägt, durch einen Sensor der Mehrzahl von Sensoren; und Umschalten des Interface, welches die Anwendungsicons anzeigt, welche das Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt, in ein Interface, welches Inhalte der Benachrichtigungsinformation anzeigt, als Reaktion auf die Berührungsoperation.
  6. Elektronisches Gerät mit einem Gehäuse; einer ersten Displaykomponente; einer zweiten Displaykomponente; und einer Mehrzahl von Sensoren, wobei das Gehäuse eine Befestigungsstruktur (202) aufweist, mit welcher das elektronische Gerät an einem Nutzer befestigt werden kann, wobei die erste und die zweite Displaykomponente am Gehäuse befestigt sind, wobei die erste Displaykomponente ein Display (203) aufweist, welches an einer ersten Oberfläche des Gehäuses angeordnet ist, wobei die zweite Displaykomponente eine Projektionslinse (204) aufweist, welche an einer zweiten Oberfläche des Gehäuses angeordnet ist, wobei die erste Oberfläche die zweite Oberfläche schneidet, wobei die Mehrzahl von Sensoren durch das Gehäuse fixiert ist, wobei die Mehrzahl von Sensoren einen ersten Sensor (205) aufweist, welcher an der zweiten Oberfläche des Gehäuses angeordnet ist, wobei das elektronische Gerät ferner Folgendes aufweist: eine erste Erfassungseinheit zum Erfassen von Auslöseinformation durch einen zweiten Sensor aus der Mehrzahl von Sensoren; eine erste Reaktionseinheit zum Projizieren eines grafischen Bedieninterface auf einen ersten Teil eines Nutzers durch die Projektionslinse (204) als Reaktion auf die Auslöseinformation; eine zweite Erfassungseinheit zum Erfassen einer Bedienoperation, welche auf dem grafischen Bedieninterface ausgeführt wird, durch den ersten Sensor (205); und eine zweite Reaktionseinheit zum Ändern des grafischen Bedieninterface als Reaktion auf die Bedienoperation; wobei die Bedienoperation eine auf dem grafischen Bedieninterface ausgeführte Wischoperation ist; und wobei die zweite Reaktionseinheit Folgendes aufweist: eine erste Bestimmungsuntereinheit zum Bestimmen einer Wischdistanz der Wischoperation; und eine erste Steueruntereinheit zum Ändern einer Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation.
  7. Elektronisches Gerät nach Anspruch 6, wobei das grafische Bedieninterface ein Interface ist, welches Benachrichtigungsinformation anzeigt; und wobei die zweite Reaktionseinheit ferner Folgendes aufweist: eine zweite Steueruntereinheit zum Ändern einer Größe des grafischen Bedieninterface basierend auf der Wischdistanz der Wischoperation und zum Anzeigen der Benachrichtigungsinformation auf dem grafischen Bedieninterface mit veränderter Größe.
  8. Elektronisches Gerät nach einem der Ansprüche 7 bis 9, wobei das grafische Bedieninterface ein Interface ist, welches Anwendungsicons anzeigt, wobei die Bedienoperation eine Berührungsoperation ist, welche durch einen zweiten Bedienkörper auf einem ersten Anwendungsicon unter den Anwendungsicons, welche auf dem grafischen Bedieninterface angezeigt werden, ausgeführt wird; und wobei die zweite Reaktionseinheit Folgendes aufweist: eine Anwendungsstartuntereinheit zum Starten einer ersten Anwendung, welche mit dem ersten Anwendungsicon korrespondiert; und eine dritte Steuerungsuntereinheit zum Umschalten des Interface, welches die Anwendungsicons anzeigt, in ein Interface der ersten Anwendung.
  9. Elektronisches Gerät nach Anspruch 8, wobei das elektronische Gerät einen Standard-Modus und einen Smart-Modus aufweist, wobei das elektronische Gerät von dem Standard-Modus in den Smart-Modus umschaltet, falls die erste Erfassungseinheit Auslöseinformation erfasst, und wobei das grafische Bedieninterface in dem Smart-Modus das Interface ist, welches die Anwendungsicons anzeigt.
  10. Elektronisches Gerät nach Anspruch 6, wobei das grafische Bedieninterface ein Interface ist, welches Benachrichtigungsinformation anzeigt; und wobei die zweite Reaktionseinheit ferner Folgendes aufweist: eine vierte Steuerungsuntereinheit zum Ändern einer Größe des Interface, welches die Benachrichtigungsinformation anzeigt, basierend auf der Wischdistanz der Wischoperation, und zum Anzeigen von Anwendungsicons auf dem Interface mit veränderter Größe, wobei die Anwendungsicons ein Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt; eine Erfassungsuntereinheit zum Erfassen einer auf dem Anwendungsicon, welches die Benachrichtigungsinformation trägt, ausgeführten Berührungsoperation durch den ersten Sensor (205); und eine Reaktionsuntereinheit zum Umschalten des Interface, welches die Anwendungsicons anzeigt, welche das Anwendungsicon aufweisen, welches die Benachrichtigungsinformation trägt, in ein Interface, welches Inhalte der Benachrichtigungsinformation anzeigt, als Reaktion auf die Berührungsoperation.
DE102014113229.7A 2014-02-24 2014-09-15 Verfahren zur Informationsverarbeitung und elektronisches Gerät Active DE102014113229B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410062773.2 2014-02-24
CN201410062773.2A CN104866170B (zh) 2014-02-24 2014-02-24 一种信息处理方法及电子设备

Publications (2)

Publication Number Publication Date
DE102014113229A1 DE102014113229A1 (de) 2015-08-27
DE102014113229B4 true DE102014113229B4 (de) 2022-03-31

Family

ID=53782346

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014113229.7A Active DE102014113229B4 (de) 2014-02-24 2014-09-15 Verfahren zur Informationsverarbeitung und elektronisches Gerät

Country Status (3)

Country Link
US (1) US9846529B2 (de)
CN (1) CN104866170B (de)
DE (1) DE102014113229B4 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102029756B1 (ko) * 2014-11-03 2019-10-08 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
KR20160055577A (ko) * 2014-11-10 2016-05-18 엘지전자 주식회사 웨어러블 디바이스
WO2016131926A1 (de) * 2015-02-18 2016-08-25 Wearable Life Science Gmbh Benutzerschnittstelle zur verwendung mit einem elektrostimulations-system
DE102018125956A1 (de) * 2018-10-18 2020-04-23 Karl Storz Se & Co. Kg Verfahren und System zur Steuerung von Geräten in steriler Umgebung
CN112716117B (zh) * 2020-12-28 2023-07-14 维沃移动通信有限公司 智能手环及其控制方法
CN112911259B (zh) * 2021-01-28 2023-04-28 维沃移动通信有限公司 投影设备及其控制方法
US11847256B2 (en) * 2022-03-04 2023-12-19 Humane, Inc. Presenting and aligning laser projected virtual interfaces

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120249409A1 (en) 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for providing user interfaces

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
CN101707649A (zh) * 2009-09-29 2010-05-12 宇龙计算机通信科技(深圳)有限公司 一种投影信息的交互操作方法、系统及移动终端
US8896578B2 (en) * 2010-05-03 2014-11-25 Lg Electronics Inc. Mobile terminal and method of controlling the same
US9134799B2 (en) * 2010-07-16 2015-09-15 Qualcomm Incorporated Interacting with a projected user interface using orientation sensors
CN102164204A (zh) * 2011-02-15 2011-08-24 深圳桑菲消费通信有限公司 一种具有交互式功能的手机及其交互方法
CN103051782B (zh) * 2012-12-10 2016-03-23 广东欧珀移动通信有限公司 一种移动终端投影调整方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120249409A1 (en) 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for providing user interfaces

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HARRISON, C. [et al.]: OmniTouch: Wearable Multitouch Interaction Everywhere. UIST'11, 2011, S. 441-450. DOI: 10.1145/2047196.2047255, In: ACM
HARRISON, C. [et al.]: Skinput: Appropriating the Body as an Input Surface. CHI 2010, 2010, S. 453-462. DOI: 10.1145/1753326.1753394, In: ACM

Also Published As

Publication number Publication date
DE102014113229A1 (de) 2015-08-27
US9846529B2 (en) 2017-12-19
CN104866170A (zh) 2015-08-26
US20150242094A1 (en) 2015-08-27
CN104866170B (zh) 2018-12-14

Similar Documents

Publication Publication Date Title
DE102014113229B4 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
DE112006004220B4 (de) Scrollen durch Listen als Reaktion auf die Bewegung eines Kontakts über eine Liste von Indexsymbolen
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
CN111414081A (zh) 用于提供触觉反馈的设备、方法和图形用户界面
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE102014113233A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
EP3190782A3 (de) Aktionskamera
DE202011109296U1 (de) Vorrichtung zur Bereitstellung eines visuellen Übergangs zwischen Bildschirmen
CN107957836A (zh) 录屏方法、装置及终端
DE202011110722U1 (de) Tragbare elektronische Vorrichtung mit scrollbarem Bereich
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
CN102662555A (zh) 一种终端复选操作方法和终端
DE102014019646B4 (de) Informationsverarbeitungsverfahren und elektronische Vorrichtung
CN108829314A (zh) 截图选区界面选择方法、装置、设备及存储介质
CN109643164B (zh) 信号处理装置、信号处理方法、程序以及电子器件
DE102011056940A1 (de) Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
KR101891306B1 (ko) 사람과 기계의 상호작용을 구현하는 방법 및 장치
CN104571811B (zh) 一种信息处理方法及电子设备
CN109782971A (zh) 智能终端及其屏幕显示方法、具有存储功能的装置
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
CN107626105B (zh) 游戏画面显示方法及装置、存储介质、电子设备
US10739984B1 (en) System for detection of input device
US20230269418A1 (en) Video display method, apparatus and storage medium
DE102015218476A1 (de) Verfahren zum Anzeigen von Symbolen und elektronische Vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final