DE102016124419A1 - Gestenbasierte steuerung einer benutzerschnittstelle - Google Patents

Gestenbasierte steuerung einer benutzerschnittstelle Download PDF

Info

Publication number
DE102016124419A1
DE102016124419A1 DE102016124419.8A DE102016124419A DE102016124419A1 DE 102016124419 A1 DE102016124419 A1 DE 102016124419A1 DE 102016124419 A DE102016124419 A DE 102016124419A DE 102016124419 A1 DE102016124419 A1 DE 102016124419A1
Authority
DE
Germany
Prior art keywords
user
control
near zone
control object
computer device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016124419.8A
Other languages
English (en)
Inventor
Ivan Poupyrev
Carsten Schwesig
Jack Schulze
Timo Arnall
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE102016124419A1 publication Critical patent/DE102016124419A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden Systeme und Verfahren zur Bereitstellung von gestenbasierter Steuerung einer Benutzerschnittstelle bereitgestellt. Zum Beispiel kann ein Vorhandensein eines Steuergegenstands in einer ersten Nahzone nahe einem Benutzergerät erkannt werden. Als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands können Präsentationsdaten entsprechend einem Präsentationsmodus einer dem Benutzercomputergerät zugeordneten Benutzerschnittstelle anzeigen gelassen werden. Es kann ein Vorhandensein des Steuergegenstands in einer zweiten Nahzone nahe dem Benutzercomputergerät erkannt werden. Die zweite Nahzone kann ein von der ersten Nahzone getrenntes physisches Gebiet definieren. Als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone können interaktive Daten entsprechend einem interaktiven Modus der Benutzerschnittstelle anzeigen gelassen werden.

Description

  • GEBIET
  • Die vorliegende Offenbarung betrifft allgemein das Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle, die einem Benutzercomputergerät zugeordnet ist.
  • HINTERGRUND
  • Da sich Computergeräte in Wohnstätten, Automobilen und Büros stark vermehren, wird die Notwendigkeit, diese Geräte nahtlos und intuitiv zu steuern, immer wichtiger. Zum Beispiel wünscht ein Benutzer möglicherweise, seine Medienspieler, Fernsehgeräte, Klimageräte usw. schnell und einfach zu steuern, von wo auch immer der Benutzer gerade ist.
  • Die Verwendung von Gesten zur Interaktion mit Computergeräten ist immer verbreiteter geworden. Gestenerkennungstechniken haben erfolgreich Gesteninteraktion mit Geräten ermöglicht, wenn diese Gesten an Geräteoberflächen gemacht werden, wie z. B. Touchscreens für Telefone und Tablets sowie Touchpads für Desktop-Computer. Benutzer wünschen jedoch zunehmend, mit ihren Geräten durch Gesten zu interagieren, die nicht an einer Oberfläche gemacht werden, wie z. B. durch Luft-Gesten, die in der Nähe eines Computergerätes durchgeführt werden.
  • KURZDARSTELLUNG
  • Aspekte und Vorteile von Ausführungsformen der vorliegenden Offenbarung werden teilweise in der folgenden Beschreibung dargelegt oder können aus der Beschreibung gelernt werden oder können durch Realisierung der Ausführungsformen erlernt werden.
  • Ein Beispiel-Aspekt der vorliegenden Offenbarung betrifft ein computerimplementiertes Verfahren zum Steuern des Betriebs eines Computergeräts.
  • Das Verfahren umfasst, mittels eines Benutzercomputergeräts ein Vorhandensein eines Steuergegenstands in einer ersten Nahzone nahe dem Benutzercomputergerät zu erkennen. Das Verfahren umfasst weiterhin, als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der ersten Nahzone mittels des Benutzercomputergeräts Präsentationsdaten entsprechend einem Präsentationsmodus einer dem Benutzercomputergerät zugeordneten Benutzerschnittstelle anzeigen zu lassen. Das Verfahren umfasst weiterhin, mittels des Benutzercomputergeräts ein Vorhandensein des Steuergegenstands in einer zweiten Nahzone nahe dem Benutzercomputergerät zu erkennen. Die zweite Nahzone definiert ein von der ersten Nahzone getrenntes physisches Gebiet. Das Verfahren umfasst weiterhin, als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone mittels des Benutzercomputergeräts interaktive Daten entsprechend einem interaktiven Modus der Benutzerschnittstelle anzeigen zu lassen.
  • Andere Beispiel-Aspekte der vorliegenden Offenbarung betreffen Systeme, Vorrichtungen, materielle, nichtflüchtige computerlesbare Medien, Benutzerschnittstellen, Speichergeräte und elektronische Geräte zum Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle.
  • Zum Beispiel können Ausführungsformen der Erfindung ein computerimplementiertes Verfahren zum Steuern des Betriebs eines Benutzercomputergeräts durch einen Benutzer bereitstellen, der einen Steuergegenstand wie z. B. einen Teil seines Körpers oder ein separates Objekt wie z. B. einen Stift bewegt oder handhabt, wobei das Benutzercomputergerät konfiguriert ist, eine graphische Benutzerschnittstelle mit mindestens einem Datenpräsentationsmodus und einem interaktiven Modus bereitzustellen. Das Verfahren umfasst dann, zu erkennen, ob sich der Steuergegenstand in einer ersten Nahzone oder einer zweiten Nahzone befindet, wobei diese Zonen zum Beispiel relativ zu dem Gerät definiert sind und proximal zu dem Gerät sind.
  • Wenn erkannt wird, dass sich der Steuergegenstand in der ersten Nahzone befindet, wird der Datenpräsentationsmodus für die graphische Benutzerschnittstelle verwendet. In diesem Modus können die angezeigten Daten zum Beispiel von der Position des Steuergegenstands innerhalb der ersten Nahzone abhängen, aber nicht von Steuergesten, die vom Benutzer mit dem Steuergegenstand gemacht werden. Wenn der Steuergegenstand als in der zweiten Nahzone befindlich erkannt wird, wird der interaktive Modus für die graphische Benutzerschnittstelle verwendet. Das Gerät kann so konfiguriert sein, dass in diesem Modus der Benutzer die graphische Benutzerschnittstelle unter Verwendung von Gesten steuern kann, die mit dem Steuergegenstand gemacht werden, wodurch zum Beispiel eine oder mehrere Aktionen des Geräts gesteuert werden.
  • Der Datenpräsentationsmodus und der interaktive Modus können sich in dem Sinne gegenseitig ausschließen, dass das Gerät dafür eingerichtet ist, dem Benutzer zu jedem Zeitpunkt nur einen dieser Modi darzubieten. Ähnlich können sich die ersten und zweiten Nahzonen in dem Sinne gegenseitig ausschließen, dass das Gerät dafür eingerichtet ist, zu bestimmen, dass sich der Steuergegenstand zu jedem Zeitpunkt nur in einer dieser Zonen befindet und optional in keiner dieser Zonen befindet und optional in einer oder mehreren weiteren Zonen befindet, worauf das Gerät mit unterschiedlicher Funktionalität oder unterschiedlichen Modi der grafischen Benutzerschnittstelle reagieren kann.
  • Der Steuergegenstand kann irgendein geeigneter Gegenstand oder irgendein geeignetes Objekt oder ein Teil eines derartigen Gegenstands oder Objekts sein, der bzw. das geeignet ist, erkannt zu werden, und zur Durchführung von Steuergesten geeignet ist, die durch das Benutzergerät erkennbar sind. Zum Beispiel könnte der Steuergegenstand ein Finger, eine Hand, ein Kopf, ein Auge, ein Arm usw. eines Benutzers sein oder ein vom Benutzer gehaltenes Objekt wie z. B. ein Stift sein.
  • Diese und andere Merkmale, Aspekte und Vorteile verschiedener Ausführungsformen werden mit Bezug auf die folgende Beschreibung und die beigefügten Ansprüche besser verständlich. Die begleitenden Zeichnungen, die in diese Beschreibung aufgenommen sind und einen Teil davon bilden, veranschaulichen Ausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung zur Erläuterung der zugehörigen Prinzipien.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Detaillierte Erörterungen von Ausführungsformen, die an einen Fachmann gerichtet sind, sind in der Beschreibung dargelegt, die auf die beigefügten Figuren Bezug nimmt, in denen:
  • 1 ein Blockdiagramm eines Beispiel-Systems zum Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle gemäß Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 2 eine Beispiel-Nahzonenkonfiguration gemäß Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 38 Beispiel-Anzeigekonfigurationen gemäß Ausführungsbeispielen der vorliegenden Offenbarung zeigen;
  • 9 ein Flussdiagramm eines Beispiel-Verfahrens zum Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle gemäß Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 10 ein Flussdiagramm eines Beispiel-Verfahrens zum Anzeigen lassen von Präsentationsdaten gemäß Ausführungsbeispielen der vorliegenden Offenbarung zeigt;
  • 11 ein Flussdiagramm eines Beispiel-Steuergestensatzes gemäß Ausführungsbeispielen der vorliegenden Offenbarung zeigt; und
  • 12 ein Beispiel-System gemäß Ausführungsbeispielen der vorliegenden Offenbarung zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Es wird nun im Detail auf Ausführungsformen Bezug genommen, von denen ein oder mehrere Beispiele in den Zeichnungen dargestellt sind. Jedes Beispiel dient der Erläuterung der Ausführungsformen und nicht der Beschränkung der vorliegenden Offenbarung. Tatsächlich wird es für den Fachmann offensichtlich sein, dass verschiedene Modifizierungen und Veränderungen an der vorliegenden Offenbarung vorgenommen werden können, ohne den Umfang oder Geist der vorliegenden Offenbarung zu verlassen. Zum Beispiel können Merkmale, die als Teil einer Ausführungsform dargestellt oder beschrieben sind, bei einer anderen Ausführungsform verwendet werden, um eine weitere Ausführungsform zu ergeben. Daher sollen Aspekte der vorliegenden Offenbarung solche Modifizierungen und Veränderungen abdecken.
  • Beispiel-Aspekte der vorliegenden Offenbarung sind auf das Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle gerichtet, die einem Benutzercomputergerät (z. B. Benutzergerät) zugeordnet ist. Zum Beispiel kann das Benutzergerät das Vorhandensein eines Steuergegenstands in einer oder mehreren Nahzonen nahe dem Benutzergerät erkennen und kann mindestens teilweise auf Basis des Vorhandenseins des Steuergegenstands innerhalb der Nahzonen Daten anzeigen. Die dem Benutzergerät zugeordnete Benutzerschnittstelle kann einen oder mehrere Steuerungsmodi umfassen. Als ein Beispiel kann das Benutzergerät ein Vorhandensein des Steuergegenstands in einer ersten Nahzone erkennen und kann als Antwort Präsentationsdaten entsprechend einem Präsentations-Steuermodus der Benutzerschnittstelle anzeigen lassen. Das Benutzergerät kann weiterhin ein Vorhandensein des Benutzers in einer zweiten Nahzone erkennen und kann als Antwort interaktive Daten entsprechend einem Interaktions-Steuermodus der Benutzerschnittstelle bereitstellen.
  • Insbesondere kann das Benutzergerät ein tragbares Computergerät, ein Smartphone, ein Tablet, ein Laptop-Computergerät, ein Desktop-Computergerät oder irgendein anderes geeignetes Benutzergerät sein. Das Benutzergerät kann konfiguriert sein, eine Bewegung eines Steuergegenstands (z. B. einer Hand des Benutzers, eines Auges des Benutzers, eines Kopfs des Benutzers, eines Stifts oder eines anderen Objekt, das durch den Benutzer gesteuert wird, und/oder irgendeines anderen geeignete Steuergegenstands) nahe dem Benutzergerät zu überwachen und eine oder mehrere Anzeigekonfigurationen der Benutzerschnittstelle mindestens teilweise auf Basis der Bewegung des Steuergegenstands zu bestimmen. Bei manchen Implementierungen kann das Benutzergerät ein in das Benutzergerät eingebettetes Radarmodul enthalten, das konfiguriert ist, Hochfrequenz-(HF)-Energie in Richtung eines Ziels auszustrahlen und Rücksignale zu empfangen, die die von einer Mehrzahl von dem Ziel zugeordneten Streustellen zum Benutzergerät zurück reflektierte Energie anzeigen. Das Radarmodul kann ein oder mehrere Antennenelemente enthalten, die konfiguriert sind, HF-Energie zu senden und/oder zu empfangen. Die empfangenen Rücksignale können verwendet werden, um ein Vorhandensein des Benutzers und/oder des Steuergegenstands zu erkennen, um eine Bewegung des Benutzers und/oder Steuergegenstands zu überwachen und/oder um eine oder mehrere Steuergesten zu bestimmen, die von dem Steuergegenstands durchgeführt werden.
  • Wie angegeben, können die durch die Benutzerschnittstelle des Benutzergeräts angezeigten Daten mindestens teilweise auf Basis eines Orts des Steuergegenstands relativ zu dem Benutzergerät bestimmt werden. Zum Beispiel können eine oder mehrere Nahzonen nahe dem Benutzergerät eingerichtet werden. Die Nahzonen können mindestens teilweise auf Basis eines Antennenstrahlmusters bestimmt werden, das durch die ein oder mehreren dem Benutzergerät zugeordneten Antennenelemente ausgebildet wird. Bei manchen Implementierungen kann jede Nahzone einen entsprechenden Steuermodus aufweisen, der der Benutzerschnittstelle zugeordnet ist. Zum Beispiel kann die erste Nahzone einem Präsentationsmodus entsprechen, der der Benutzerschnittstelle zugeordnet ist, und die zweite Nahzone kann einem interaktiven Modus entsprechen, der der Benutzerschnittstelle zugeordnet ist. Auf diese Weise kann das Benutzergerät einen Steuermodus, in dem zu arbeiten ist, mindestens teilweise auf Basis eines Orts des Steuergegenstands relativ zu dem Benutzergerät bestimmen. Zum Beispiel kann bei Erkennung des Steuergegenstands in der ersten Nahzone das Benutzergerät im Präsentationsmodus arbeiten. Als weiteres Beispiel kann bei Erkennung des Steuergegenstands in der zweiten Nahzone das Benutzergerät im interaktiven Modus arbeiten.
  • Während des Betriebs im Präsentationsmodus kann die Benutzerschnittstelle Präsentations-Anzeigedaten anzeigen, die einer oder mehreren Anwendungen zugeordnet sind, die durch das Benutzergerät implementiert werden. Zum Beispiel kann das Benutzergerät eine oder mehrere Anwendungen implementieren oder ihnen auf andere Weise zugeordnet sein. Solche Anwendungen können eine oder mehrere Messaging-Anwendungen, Wetter-Anwendungen, Benachrichtigungs-Anwendungen, Kalender-Anwendungen und/oder verschiedene andere geeignete Anwendungen umfassen. Bei Implementierungen, bei denen das Benutzercomputergerät ein tragbares Computergerät ist, wie z. B. eine Smartwatch, können die Anwendungen, die der Benutzerschnittstelle zugeordnet sind, als Komplikationen auf der Smartwatch-Front erscheinen oder ihr auf andere Weise zugeordnet sein. Bei manchen Implementierungen können die Präsentationsdaten nicht-interaktive Daten sein, die einer von dem Benutzergerät gehosteten Anwendung zugeordnet sind. Auf diese Weise ist ein Benutzer des Benutzergeräts möglicherweise nicht im Stande, mit den Präsentationsdaten zu interagieren. Als ein nicht einschränkendes Beispiel können die Präsentationsdaten nicht-interaktive Daten umfassen, die einer Messaging-Anwendung zugeordnet sind. Solche Daten können Daten umfassen, die einer oder mehreren E-Mail-Nachrichten, SMS-Nachrichten, Sofortnachrichten und/oder anderen geeigneten elektronischen Nachrichten zugeordnet sind, die von dem Benutzergerät empfangen werden.
  • Während des Betriebs im interaktiven Modus kann die Benutzerschnittstelle interaktive Anzeigedaten anzeigen, die einer oder mehreren verfügbaren Anwendungen zugeordnet sind, die von dem Benutzergerät gehostet werden, so dass ein Benutzer des Benutzergeräts mit den Daten und/oder der Benutzerschnittstelle interagieren kann. Zum Beispiel können die interaktiven Daten Piktogramme oder andere Anzeiger umfassen, die den ein oder mehreren verfügbaren Anwendungen zugeordnet sind, die dem Benutzergerät zugeordnet sind. Ähnlich wie der Präsentationsmodus können bei manchen Implementierungen die Piktogramme oder anderen Anzeiger als Komplikationen erscheinen, die einer Smartwatch-Front zugeordnet sind. Der Benutzer kann im Stande sein, durch die eine oder mehrere Anwendungen zu scrollen oder zu zirkulieren, die eine oder mehreren Anwendungen auszuwählen, innerhalb einer ausgewählten Anwendung zu scrollen oder zu zirkulieren, eine oder mehrere Benutzerschnittstellenelemente innerhalb einer Anwendung auszuwählen und/oder andere geeignete Interaktionen mit den interaktiven Daten durchzuführen. Zum Beispiel kann ein Benutzergerät gemäß Ausführungsbeispielen der vorliegenden Offenbarung eine Messaging-Anwendung, eine Wetter-Anwendung und eine Benachrichtigungs-Anwendung umfassen. Während das Benutzergerät im interaktiven Modus arbeitet (z. B. als Antwort auf eine Erkennung eines Vorhandenseins des Steuergegenstands in der zweiten Nahzone), kann der Benutzer durch die enthaltenen Anwendungen scrollen und eine Anwendung auswählen, um die Anwendung auf dem Benutzergerät laufen zu lassen. Der Benutzer kann weiterhin mit einer laufenden Anwendung durch Scrollen oder Zirkulieren durch die Anwendung interagieren oder ein oder mehrere Benutzerschnittstellenelemente auswählen, die der Anwendung zugeordnet sind.
  • Bei manchen Implementierungen kann der Benutzer durch die Verwendung einer oder mehrerer Steuergesten mit dem Benutzergerät interagieren. Zum Beispiel können die Steuergesten Luft-Gesten umfassen, die durch den Steuergegenstand nahe am Benutzergerät durchgeführt werden (z. B. während sich der Steuergegenstand in der zweiten Nahzone befindet). Die Steuergesten können Bewegungsmustern in der Luft entsprechen, die durch den Steuergegenstand durchgeführt werden. Auf diese Weise kann das Benutzergerät konfiguriert werden, eine Durchführung einer Steuergeste zu erkennen und als Antwort auf die Erkennung eine oder mehrere Aktionen auszuführen. Bei manchen Implementierungen kann das Benutzergerät als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone beginnen, auf Durchführungen von Steuergesten zu überwachen.
  • Das Benutzergerät kann einen Satz von vorbestimmten Steuergesten aufweisen, auf die das Benutzergerät reagieren können wird. Zum Beispiel kann das Benutzergerät Daten, die einen derartigen Steuergestensatz anzeigen, und eine oder mehrere entsprechende Aktionen speichern, die jeweils als Antwort auf die Erkennung einer Durchführung einer Steuergeste durchzuführen sind. Auf diese Weise kann das Benutzergerät ein erkanntes Bewegungsmuster, das durch den Steuergegenstand durchgeführt wird, vergleichen, um eine Übereinstimmung zwischen dem Bewegungsmuster und einer Steuergeste aus dem Satz von Steuergesten zu bestimmen. Wenn eine Übereinstimmung bestimmt wird, kann das Benutzergerät eine der Steuergeste entsprechende Aktion oder Tätigkeit durchführen.
  • Bei manchen Implementierungen können die Präsentationsdaten, die als Antwort auf eine Erkennung des Steuergegenstands in der ersten Nahzone angezeigt werden, mindestens teilweise auf Basis eines Orts des Steuergegenstands innerhalb der ersten Nahzone bestimmt werden. Wie oben angegeben, können solche Präsentationsdaten einer oder mehreren Anwendungen entsprechen, die als Komplikationen erscheinen, die einer auf einer Smartwatch-Front angezeigten Benutzerschnittstelle zugeordnet sind. Zum Beispiel kann die erste Nahzone eine oder mehrere Teilzonen umfassen, die innerhalb der ersten Nahzone liegen. Bei manchen Implementierungen kann die Anzahl der Teilzonen mindestens teilweise auf Basis einer anzuzeigenden Informationsmenge bestimmt werden. Zum Beispiel kann eine erste Anwendung eine erste Anzahl von Teilzonen aufweisen, die mindestens teilweise auf einer Informationsmenge basiert, die der ersten Anwendung zugeordnet ist, und eine zweite Anwendung kann eine zweite Anzahl von Teilzonen aufweisen, die mindestens teilweise auf einer Informationsmenge basiert, die der zweiten Anwendung zugeordnet ist. Das Benutzergerät kann ein Vorhandensein des Steuergegenstands innerhalb der einen oder mehreren Teilzonen bestimmen und kann anzuzeigende Präsentationsdaten mindestens teilweise auf Basis des Orts des Steuergegenstands relativ zu den ein oder mehreren Teilzonen bestimmen. Wenn sich zum Beispiel der Steuergegenstand innerhalb einer ersten Teilzone der ersten Nahzone befindet, kann das Benutzergerät erste Präsentationsdaten (z. B. eine oder mehrere Komplikationen) anzeigen lassen. Wenn sich der Steuergegenstand innerhalb einer zweiten Teilzone der ersten Nahzone befindet, kann das Benutzergerät zweite Präsentationsdaten (z. B. eine oder mehrere Komplikationen) anzeigen lassen. Auf diese Weise können die vom Benutzergerät angezeigten Präsentationsdaten mit dem Ort des Steuergegenstands innerhalb der ersten Nahzone variieren.
  • Als ein Beispiel kann ein Benutzergerät wie z. B. ein Smartwatch-Gerät den Steuergegenstand innerhalb der ersten Teilzone erkennen, während eine dem Smartwatch-Gerät zugeordnete Messaging-Anwendung läuft. Das Smartwatch-Gerät kann erste Präsentationsdaten bestimmen, die der anzuzeigenden Messaging-Anwendung zugeordnet sind. Die ersten Präsentationsdaten können Daten, die einer oder mehreren Komplikationen zugeordnet sind, die durch die Benutzerschnittstelle des Smartwatch-Geräts angezeigt werden, umfassen oder diesen auf andere Weise zugeordnet sein. Zum Beispiel können die ersten Präsentationsdaten Daten umfassen, die eine oder mehrere vom Benutzergerät empfangene Nachrichten (z. B. ungelesene Nachrichten) anzeigen, wie z. B. eine Kennung eines Absenders der ein oder mehreren Nachrichten und/oder eine Anzeige der Anzahl der Nachrichten. Wenn sich der Steuergegenstand zum Benutzergerät hin in die zweite Teilzone hinein bewegt, kann das Benutzergerät den Steuergegenstand innerhalb der zweiten Teilzone erkennen. Das Benutzergerät kann die zweiten Präsentationsdaten, die der Messaging-Anwendung zugeordnet sind, bestimmen und anzeigen lassen. Die zweiten Präsentationsdaten können zusätzliche oder andere Daten, die den ein oder mehreren Komplikationen zugeordnet sind, umfassen oder ihnen auf andere Weise zugeordnet sein. Zum Beispiel können die zweiten Präsentationsdaten mindestens einen Abschnitt eines Hauptteils (z. B. die ersten 10 Worte des Nachrichten-Hauptteils) einer empfangenen Nachricht enthalten.
  • Bei manchen Implementierungen können die Präsentationsdaten auf eine fortschreitende Art und Weise anzeigen gelassen werden, so dass als Antwort auf eine Annäherung des Steuergegenstands in Richtung auf das Benutzergerät zusätzliche oder andere Informationen anzeigen gelassen werden. Zum Beispiel kann die Dichte der angezeigten Informationen allmählich zunehmen, wenn sich der Steuergegenstand dem Benutzergerät nähert. Als ein Beispiel kann eine Anzahl von Komplikationen und/oder Daten, die einer Komplikation zugeordnet sind, zunehmen, wenn sich der Steuergegenstand dem Benutzergerät nähert. Auf diese Weise kann der Benutzer die Menge an Informationen und/oder die Art der angezeigten Informationen mindestens teilweise auf Basis einer Distanz des Steuergegenstands vom Benutzergerät steuern. Der Benutzer kann den Steuergegenstand an einem oder mehreren Orten relativ zum Benutzergerät positionieren, um die Anzeige der gewünschten Information zu ermöglichen. Wenn der Benutzer zum Beispiel mit den Daten interagieren möchte, kann der Benutzer den Steuergegenstand innerhalb der zweiten Nahzone positionieren. Wenn der Benutzer lediglich Informationen sehen möchte, die einer Anwendung zugeordnet sind (z. B. eine Anzahl ungelesener Nachrichten), kann der Benutzer den Steuergegenstand in der ersten Nahzone (z. B. in einer geeigneten Teilzone der ersten Nahzone) positionieren. Auf diese Weise kann das Benutzergerät, während es im Präsentationsmodus arbeitet, auf einen Ort des Steuergegenstands reagieren. Während es im interaktiven Modus arbeitet, kann das Benutzergerät auf eine Steuergeste reagieren, die durch den Steuergegenstand durchgeführt wird.
  • Bei manchen Implementierungen kann dem Benutzer eine Rückmeldung gegeben werden, um ein Verständnis eines Zustands oder Betriebsmodus des Benutzergeräts durch den Benutzer zu erleichtern. Zum Beispiel kann dem Benutzer visuelle oder akustische Rückmeldung gegeben werden, um dem Benutzer anzuzeigen, dass der Benutzer eine Schwelle zum Eintreten in die erste oder zweite Nahzone und/oder eine oder mehrere Teilzonen überschritten hat. Zum Beispiel kann die Benutzerschnittstelle einen Fortschrittsbalken enthalten, der eine Distanz oder einen Ort des Steuergegenstands relativ zu dem Benutzergerät und/oder zu einer oder mehreren Nahzonen oder Teilzonen anzeigt, die dem Benutzergerät zugeordnet sind. Ein solcher Fortschrittsbalken kann fortschreiten oder zurückgehen, wenn die Distanz zwischen dem Steuergegenstand und dem Benutzergerät zunimmt und zurückgeht. Als weiteres Beispiel kann die Benutzerschnittstelle ein Beleuchtungsmuster und/oder eine Veränderung der Beleuchtungshelligkeit bereitstellen, um anzuzeigen, dass das Benutzergerät in einem bestimmten Steuermodus arbeitet. Bei manchen Implementierungen können ein oder mehrere Audiotöne von dem Benutzergerät wiedergegeben werden, um dem Benutzer verschiedene Anzeigen bereitzustellen.
  • Das Benutzergerät kann weiterhin in einem Standby-Steuermodus arbeiten. Zum Beispiel kann das Benutzergerät in dem Standby-Modus arbeiten, wenn das Benutzergerät kein Vorhandensein des Steuergegenstands (z. B. in den ersten oder zweiten Nahzonen) erkennt. Während des Betriebs im Standby-Modus kann das Benutzergerät Standby-Daten anzeigen lassen, die dem Benutzergerät zugeordnet sind. Solche Standby-Daten können Daten umfassen, die dem Benutzergerät zugeordnet sind, wie z. B. Batterielebensdauer, Verbindungsdaten, Benachrichtigungsdaten und/oder andere Daten. Bei manchen Implementierungen können die Standby-Daten Zeitdaten umfassen, die eine aktuelle Zeit und/oder ein aktuelles Datum anzeigen. Zum Beispiel kann bei derartigen Implementierungen die Benutzerschnittstelle als ein Zifferblatt mit einem Stundenzeiger und einem Minutenzeiger oder einem anderen Zeitanzeiger konfiguriert sein. Während es im Standby-Modus arbeitet, kann das Benutzergerät auf einen Steuergegenstand überwachen. Wenn das Benutzergerät ein Vorhandensein des Steuergegenstands erkennt, kann das Benutzergerät den Standby-Modus verlassen und im Präsentationsmodus oder interaktiven Modus arbeiten (z. B. abhängig vom Ort des erkannten Steuergegenstands).
  • Unter Bezugnahme auf die Figuren werden nun Ausführungsbeispiele der vorliegenden Offenbarung näher erläutert. Zum Beispiel zeigt 1 ein Beispiel-System 100 zum Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle gemäß Ausführungsbeispielen der vorliegenden Offenbarung. Das System 100 enthält ein Benutzergerät 102 und einen Steuergegenstand 104. Der Steuergegenstand 104 kann irgendeinen geeigneten Gegenstand oder ein geeignetes Objekt umfassen, der bzw. das im Stande ist, Steuergesten durchzuführen, die durch das Benutzergerät 102 erkennbar sind. Bei manchen Implementierungen kann der Steuergegenstand ein Körperglied oder anderer Körperteil sein, der bzw. das einem Benutzer zugeordnet ist. Zum Beispiel kann der Steuergegenstand 104 eine Hand, ein Kopf, ein Auge, ein Arm usw. des Benutzers sein. Bei manchen Implementierungen kann der Steuergegenstand ein Objekt sein, das von dem Benutzer getragen werden kann, wie ein Stift oder ein anderes Objekt.
  • Das Benutzergerät 102 kann irgendein geeignetes Benutzercomputergerät sein, wie z. B. ein Smartphone, ein Tablet, ein tragbares Computergerät (z. B. Smartwatch), ein Laptop-Computergerät, ein Desktop-Computergerät oder irgendein anderes geeignetes Benutzercomputergerät. Das Benutzergerät 102 enthält ein Abfühlmodul 106, einen Gestenmanager 108, einen Schnittstellenmanager 110 und einen Bewegungsverfolger 112. Bei manchen Implementierungen kann das Abfühlmodul 106 ein oder mehrere Abfühlgeräte wie z. B. eine oder mehrere optische Kameras, Infrarotkameras, kapazitive Sensoren, induktive Sensoren und/oder verschiedene andere geeignete Sensorgeräte enthalten. Bei manchen Implementierungen kann das Abfühlmodul 106 ein Radarmodul sein. Zum Beispiel kann das Abfühlmodul 106 ein oder mehrere Antennenelemente umfassen, die konfiguriert sind, HF-Energiesignale auszustrahlen und/oder zu empfangen. Zum Beispiel können solche HF-Energiesignale in einer Richtung ausgebreitet werden, die durch ein Antennenstrahlmuster bestimmt wird, das durch die ein oder mehreren Antennenelemente ausgebildet wird. Bei manchen Implementierungen können die HF-Energiesignale in einer allgemeinen Richtung des Steuergegenstands 104 ausgebreitet werden. Auf diese Weise können die ausgebreiteten Energiesignale von dem Steuergegenstand 104 absorbiert oder gestreut werden. Die in Richtung des Benutzergeräts 102 kohärent zurückgestreuten Energiesignale können von den (empfangenden) Antennenelementen abgefangen werden.
  • Die empfangenen Energiesignale können dem Bewegungsverfolger 112 zugeführt werden. Der Bewegungsverfolger 112 kann konfiguriert sein, eine Bewegung des Steuergegenstands 104 zu überwachen. Zum Beispiel kann der Bewegungsverfolger 112 ein Bewegungsprofil bestimmen, das dem Steuergegenstand 104 zugeordnet ist. Das Bewegungsprofil kann Informationen umfassen, die der Bewegung des Steuergegenstands während eines oder mehrerer Zeitabschnitte zugeordnet sind. Zum Beispiel kann das Bewegungsprofil Geschwindigkeitsdaten, Ortsdaten (z. B. radiale Distanz, räumliche Koordinaten) und/oder andere Daten umfassen, die der Bewegung des Steuergegenstands während des einen oder der mehreren Zeitabschnitte zugeordnet sind. Auf diese Weise können zeitliche Änderungen, die der Bewegung des Steuergegenstands zugeordnet sind, verfolgt oder auf andere Weise überwacht werden.
  • Das Bewegungsprofil kann verwendet werden, um eine Benutzerschnittstelle zu steuern, die durch das Benutzergerät 102 anzeigen gelassen wird. Zum Beispiel kann das Bewegungsprofil verwendet werden, um ein Vorhandensein des Steuergegenstands 104 innerhalb einer oder mehrerer Nahzonen oder Teilzonen nahe dem Benutzergerät 102 zu erkennen. Zum Beispiel kann das Benutzergerät 102 eine oder mehrere zugeordnete Nahzonen mit vorbestimmten Grenzen aufweisen, die mindestens teilweise auf Basis eines Antennenstrahlmusters oder eines anderen Abfühlmusters, das dem Abfühlmodul 106 zugeordnet ist, bestimmt werden können. Erkennung eines Vorhandenseins des Steuergegenstands 104 in einer Nahzone kann das Benutzergerät 102 ansteuern, in einem bestimmten Steuermodus zu arbeiten. Zum Beispiel kann der Bewegungsverfolger 112 ein Vorhandensein des Steuergegenstands 104 innerhalb einer bestimmten Nahzone durch Vergleichen von Ortsdaten (z. B. räumlichen Koordinaten, radialer Distanz usw.) mit einem Ort der ein oder mehreren Grenzen einer Nahzone erkennen.
  • Wie angegeben, kann ein Steuermodus, in dem das Benutzergerät 102 arbeitet, mindestens teilweise auf Basis des Orts des Steuergegenstands 104 relativ zu den vorbestimmten Nahzonen bestimmt werden. Zum Beispiel kann der Schnittstellenmanager 110 das Benutzergerät 102 steuern, in einem bestimmten Steuermodus zu arbeiten. Bei manchen Implementierungen kann der Schnittstellenmanager 110 das Benutzergerät 102 mindestens teilweise auf Basis des Orts des Steuergegenstands 104 relativ zu einer ersten Nahzone und einer zweiten Nahzone steuern, in einem Standby-Modus, einem Präsentationsmodus oder einem interaktiven Modus zu arbeiten.
  • Die zweite Nahzone kann ein physisches Gebiet oder ein physischer Bereich sein, das bzw. der an das Benutzergerät 102 angrenzt, und die erste Nahzone kann ein physisches Gebiet oder ein physischer Bereich sein, das bzw. der an die zweite Nahzone angrenzt, so dass die zweite Nahzone die erste Nahzone und das Benutzergerät 102 trennt. Wie angegeben, können die Grenzen der ersten und zweiten Nahzonen mindestens teilweise auf Basis eines dem Abfühlmodul 106 zugeordneten Antennenstrahlmusters bestimmt werden. Zum Beispiel können die Grenzen der zweiten Nahzone so bestimmt werden, dass das Benutzergerät 102 Steuergesten, die durch den Steuergegenstand 104 durchgeführt werden, in ausreichendem Ausmaß erkennen kann, während sich der Steuergegenstand 104 innerhalb der zweiten Nahzone befindet. Ähnlich können die Grenzen der ersten Nahzone so bestimmt werden, dass das Benutzergerät 102 eine Bewegung des Steuergegenstands 104 ausreichend verfolgen kann, während sich der Steuergegenstand 104 in der ersten Nahzone befindet. Nahzonen können irgendeine geeignete Form haben. Bei manchen Implementierungen kann die Form der Nahzonen mindestens teilweise auf Basis des Antennenstrahlmusters bestimmt werden.
  • Wie angegeben, kann der Schnittstellenmanager 110 Daten, die auf einem Anzeigegerät anzuzeigen sind, das dem Benutzergerät 102 zugeordnet ist, mindestens teilweise auf Basis eines Vorhandenseins des Steuergegenstands 104 innerhalb der ersten Nahzone oder der zweiten Nahzone koordinieren oder regeln. Zum Beispiel kann der Schnittstellenmanager 110 das Benutzergerät 102 steuern, in einem Standby-Modus zu arbeiten, wenn der Steuergegenstand 104 nicht in der ersten oder zweiten Nahzone erkannt werden kann. Der Standby-Modus kann umfassen, Standby-Daten auf der Benutzerschnittstelle anzeigen zu lassen, wie z. B. Zeitdaten, die einem aktuellen Datum oder einer aktuellen Zeit zugeordnet sind. Wenn der Steuergegenstand 104 innerhalb der ersten Nahzone erkannt wird, kann der Schnittstellenmanager 110 das Benutzergerät 102 steuern, in einem Präsentationsmodus zu arbeiten. Der Präsentationsmodus kann umfassen, nicht-interaktive Daten anzeigen zu lassen, die einer aktuell auf dem Benutzergerät 102 laufenden Anwendung zugeordnet sind. Zum Beispiel kann die aktuell laufende Anwendung die Anwendung sein, mit der der Benutzer zuletzt interagiert hat. Der Präsentationsmodus kann ein fortschreitendes Enthüllen von Daten, die der Anwendung zugeordnet sind, mindestens teilweise auf Basis eines Orts des Steuergegenstands 104 innerhalb der ersten Nahzone umfassen. Wenn sich zum Beispiel der Steuergegenstand 104 dem Benutzergerät 102 nähert, können zusätzliche Präsentations-Anzeigedaten anzeigen gelassen werden. Zum Beispiel können die zusätzlichen Daten zuvor angezeigte Daten ersetzen, oder die zusätzlichen Daten können neue Daten sein, die zusätzlich zu den zuvor angezeigten Daten angezeigt werden, so dass die zusätzlichen Daten und die zuvor angezeigten Daten gleichzeitig angezeigt werden. Wenn der Steuergegenstand 104 eine Schwelle oder eine Grenze überschreitet, die die erste Nahzone und die zweite Nahzone trennt, kann der Schnittstellenmanager 110 das Benutzergerät 102 steuern, in einem interaktiven Modus zu arbeiten. Der interaktive Modus kann umfassen, interaktive Daten anzeigen zu lassen, so dass der Benutzer mit den durch die Benutzungsschnittstelle angezeigten Daten interagieren oder diese bearbeiten kann. Zum Beispiel können die interaktiven Daten einer oder mehreren verfügbaren Anwendungen zugeordnet sein, die dem Benutzergerät 102 zugeordnet sind. Zum Beispiel kann der Benutzer durch Anwendungen scrollen und eine Anwendung auswählen, um die ausgewählte Anwendung auf dem Benutzergerät 102 laufen zu lassen. Der Benutzer kann dann mit Daten innerhalb der ausgewählten Anwendung interagieren. Wie angegeben, kann der Benutzer durch eine Durchführung von einer oder mehreren Steuergesten mit solchen interaktiven Daten interagieren. Zum Beispiel kann der Benutzer den Steuergegenstand 104 sich gemäß einem oder mehreren Bewegungsmustern bewegen lassen, um das Benutzergerät 102 aufzufordern, eine oder mehrere Aktionen durchzuführen.
  • Während das Benutzergerät 102 im interaktiven Steuermodus arbeitet (z. B. während sich der Steuergegenstand 104 in der zweiten Nahzone befindet), kann der Gestenmanager 108 konfiguriert sein, eine Steuergeste (z. B. Luft-Handgeste) zu bestimmen, die durch den Steuergegenstand 104 durchgeführt wird. Zum Beispiel kann der Gestenmanager 108 auf Gestendaten 114 zugreifen, um ein durch den Steuergegenstand 104 durchgeführtes Bewegungsmuster mit einer Steuergeste abzugleichen, die den Gestendaten 114 zugeordnet ist. Insbesondere können die Gestendaten 114 einen Satz von vorbestimmten Steuergesten umfassen. Jede vorbestimmte Steuergeste kann auf eine Aktion oder Tätigkeit abgebildet sein, die als Antwort auf die Erkennung eines durch den Steuergegenstand 104 durchgeführten Bewegungsmusters, das mit der Steuergeste übereinstimmt, von dem Benutzergerät 102 durchzuführen ist. Auf diese Weise kann der Gestenmanager 108 das bestimmte Bewegungsprofil, das dem Steuergegenstand 104 zugeordnet ist, mit den Gestendaten 114 vergleichen, um zu bestimmen, ob das Bewegungsprofil mit einer vorbestimmten Steuergeste übereinstimmt. Wenn das Bewegungsprofil mit einer Steuergeste übereinstimmt, kann das Benutzergerät 102 die Aktion oder Tätigkeit durchführen, die der dazu passenden Steuergeste entspricht.
  • Die Steuergesten können eine Bewegungskomponente umfassen. Zum Beispiel kann bei Implementierungen, bei denen der Steuergegenstand 104 eine Hand des Benutzers ist, eine Steuergeste einer vorbestimmten Bewegung der Hand und/oder der Finger der Hand, wie z. B. Hand- und/oder Fingertranslation, -rotation, -streckung, -beugung, -abspreizung, -opposition, oder einer anderen Bewegung entsprechen. Als weiteres Beispiel kann bei Implementierungen, bei denen der Steuergegenstand 104 der Kopf des Benutzers ist, eine Steuergeste einer vorbestimmten Bewegung des Kopfs entsprechen, wie z. B. einer Streckung, Drehung, Biegung, Beugung oder einer anderen Bewegung. Als ein weiteres Beispiel kann bei Implementierungen, bei denen der Steuergegenstand 104 ein externes Objekt ist, wie z. B. ein vom Benutzer getragener Stift, eine Steuergeste einem vorbestimmten Bewegungsmuster des Stifts entsprechen. Bei manchen Implementierungen kann der Gestenmanager 108 konfiguriert sein, Gesten zu erkennen, die durch eine Mehrzahl von Steuergegenständen durchgeführt werden. Zum Beispiel kann der Gestenmanager 108 konfiguriert sein, eine erste Steuergeste, die durch eine Benutzerhand durchgeführt wird, und eine zweite Steuergeste, die durch einen Benutzer-Kopf durchgeführt wird, zu erkennen. Auf diese Weise können die Gestendaten 114 Steuergesten umfassen, die einem jedem von der Mehrzahl von Steuergegenständen zugeordnet sind.
  • Bewegungsmuster, die durch verschiedene Komponenten des Steuergegenstands 104 durchgeführt werden, können individuell beobachtet werden. Zum Beispiel können Bewegungen, die einem jedem Finger einer Hand zugeordnet sind, individuell überwacht werden. Bei manchen Implementierungen kann die Bewegung einer oder mehrerer Komponenten des Steuergegenstands 104 relativ zu einer oder mehreren anderen Komponenten des Steuergegenstands 104 verfolgt werden. Zum Beispiel kann eine Bewegung eines ersten Fingers einer Hand relativ zu einer Bewegung eines zweiten Fingers der Hand verfolgt werden.
  • Bei manchen Implementierungen können die Gestendaten 114 Daten umfassen, die einem repräsentativen Modell des Steuergegenstands 104 zugeordnet sind. Zum Beispiel können die Gestendaten 114 ein Modell einer menschlichen Hand umfassen, das relationale Positionsdaten für eine Hand und/oder Finger der Hand bereitstellt. Bei manchen Implementierungen kann ein derartiges Steuergegenstand-Modell eine prädiktive Verfolgung erleichtern, selbst wenn Teile des Steuergegenstands 104 nicht sichtbar sind. Zum Beispiel können bei derartigen Implementierungen Signale, die den sichtbaren Teilen des Steuergegenstands 104 zugeordnet sind, im Zusammenhang mit dem Steuergegenstand-Modell und/oder vergangenen Beobachtungen des Steuergegenstands 104 verwendet werden, um eine oder mehrere wahrscheinliche Positionen der Teile des Steuergegenstands 104 zu bestimmen, die aktuell nicht sichtbar sind.
  • 2 zeigt eine Beispiel-Nahzonenkonfiguration 120 gemäß Ausführungsbeispielen der vorliegenden Offenbarung. Die Nahzonenkonfiguration 120 umfasst eine erste Nahzone 122 und eine zweite Nahzone 124. Wie gezeigt, kann die erste Nahzone 122 einer relativ zum Benutzergerät 102 fernen Zone entsprechen, und die zweite Nahzone 124 kann einer relativ zum Benutzergerät 102 nahen Zone entsprechen. Die zweite Nahzone 124 erstreckt sich von dem Benutzergerät 102 nach außen, und die erste Nahzone 122 erstreckt sich von der zweiten Nahzone 124 nach außen. Auf diese Weise kann die zweite Nahzone 124 ein von der ersten Nahzone 122 getrenntes physisches oder räumliches Gebiet definieren. Erkennung des Steuergegenstands 104 (z. B. wie in 1 gezeigt) innerhalb der Nahzonenkonfiguration 120 kann eine oder mehrere Aktionen durch das Benutzergerät 102 auslösen.
  • Die Zonenkonfiguration 120 kann mindestens teilweise auf Basis des Abfühlmoduls 106 bestimmt werden. Zum Beispiel kann die Zonenkonfiguration 120 mindestens teilweise auf Basis eines Antennenstrahlmusters bestimmt werden, das durch die ein oder mehreren Antennenelemente des Abfühlmoduls 106 ausgebildet wird. Das Antennenstrahlmuster kann ein Gebiet nahe dem Benutzergerät 102 repräsentieren, in dem das Benutzergerät 102 im Stande ist, Objekte zu erkennen oder abzufühlen. Zum Beispiel können die Antennenelemente HF-Energiesignale in der allgemeinen Form des Antennenstrahlmusters ausstrahlen, und Objekte innerhalb des Antennenstrahlmusters können durch das Benutzergerät 102 beobachtet werden. Die Nahzonenkonfiguration 120 kann eine oder mehrere Unterteilungen des Antennenstrahlmusters ausbilden. Auf diese Weise können die Form und Größe der ersten Nahzone 122 und/oder der zweiten Nahzone 124 mindestens teilweise auf Basis des Antennenstrahlmusters bestimmt werden. Zum Beispiel kann die erste Nahzone 122 eine erste Unterteilung des Antennenstrahlmusters bilden, und die zweite Nahzone 124 kann eine zweite Unterteilung des Antennenstrahlmusters bilden. Auf diese Weise können die verschiedenen Unterteilungen, die die Nahzonenkonfiguration 120 definieren, das Antennenstrahlmuster im Wesentlichen definieren. Man erkennt, dass verschiedene andere Interaktionszonen-Anordnungen verwendet werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen, wie z. B. eine Nahzonenkonfiguration, die einen Abschnitt des Antennenstrahlmusters definiert. Zum Beispiel sind die erste Nahzone 122 und die zweite Nahzone 124 zwar als rechteckförmig dargestellt; so eine Darstellung soll aber nur der Veranschaulichung dienen. Eine oder mehrere Nahzonen gemäß Ausführungsbeispielen der vorliegenden Offenbarung können verschiedene andere geeignete Formen und/oder Größen haben.
  • Bei manchen Implementierungen kann, wenn der Steuergegenstand 104 innerhalb der ersten Nahzone 122 erkannt wird, das Benutzergerät 102 beginnen, die Bewegung des Steuergegenstands 104 zu überwachen. Zum Beispiel kann das Benutzergerät 102 ein Bewegungsprofil bestimmen, das dem Steuergegenstand 104 zugeordnet ist. Weiterhin kann eine Erkennung des Steuergegenstands 104 innerhalb der ersten Nahzone 122 einen Betrieb des Benutzergeräts 102 in einem Präsentationsmodus starten. Wie angegeben, kann der Präsentationsmodus eine Anzeige von nicht-interaktiven Präsentationsdaten auf einer dem Benutzergerät 102 zugeordneten Benutzerschnittstelle umfassen. Die Präsentationsdaten können Daten umfassen, die einer aktuell laufenden Anwendung zugeordnet sind, die dem Benutzergerät 102 zugeordnet ist. Wie angegeben, können die Präsentationsdaten bei manchen Implementierungen mindestens teilweise auf Basis einer Veränderung des Orts des Steuergegenstands 104 innerhalb der ersten Nahzone 122 auf eine fortschreitende Weise anzeigen gelassen werden.
  • Bei manchen Implementierungen kann die erste Nahzone 122 eine oder mehrere Teilzonen enthalten, die sich innerhalb der ersten Nahzone 122 befinden. Zum Beispiel können die ein oder mehreren Teilzonen mindestens einen Abschnitt der ersten Nahzone 122 unterteilen. Die Teilzonen können verwendet werden, um das Anzeigen lassen von Präsentationsdaten auszulösen. Bei manchen Implementierungen können die Teilzonen Distanzschwellen innerhalb der Nahzone 122 entsprechen. Zum Beispiel kann das Benutzergerät 102 als Antwort auf eine Erkennung des Steuergegenstands 104 innerhalb einer ersten Teilzone 126 erste Präsentationsdaten anzeigen lassen. Die ersten Präsentationsdaten können erste Anzeigedaten umfassen, die der aktuell laufenden Anwendung zugeordnet sind. Wenn zum Beispiel die aktuell laufende Anwendung eine Wetter-Anwendung ist, können die ersten Anzeigedaten eine aktuelle Temperatur umfassen, die einem oder mehreren geographischen Gebieten zugeordnet ist.
  • Als Antwort auf eine Erkennung des Steuergegenstands 104 innerhalb einer zweiten Teilzone 128 kann das Benutzergerät 102 zweite Präsentationsdaten anzeigen lassen. Die zweiten Präsentationsdaten können zweite Anzeigedaten umfassen, die der aktuell laufenden Anwendung zugeordnet sind. Wenn zum Beispiel die Wetter-Anwendung die aktuell laufende Anwendung ist, können die zweiten Anzeigedaten einen aktuellen Wetterzustand in den ein oder mehreren geographischen Gebieten umfassen. Zum Beispiel können die zweiten Anzeigedaten einen aktuellen Himmelbedeckungszustand (sonnig, teilweise bewölkt, meist bewölkt usw.), einen Niederschlagszustand und/oder andere Anzeigedaten angeben. Bei manchen Implementierungen können die zweiten Anzeigedaten eine geschätzte Dauer des aktuellen Zustands umfassen. Die zweiten Anzeigedaten können zusätzlich zu den ersten Anzeigedaten oder als Ersatz für die ersten Anzeigedaten anzeigen gelassen werden. Zum Beispiel können bei manchen Implementierungen die ersten Anzeigedaten und die zweiten Anzeigedaten gleichzeitig angezeigt werden. Bei alternativen Implementierungen können als Antwort auf das Eintreten des Steuergegenstands 104 aus der ersten Teilzone 126 in die zweite Teilzone 128 die ersten Anzeigedaten von der Anzeige entfernt und durch die zweiten Anzeigedaten ersetzt werden.
  • Als Antwort auf eine Erkennung des Steuergegenstands 104 innerhalb einer dritten Teilzone 130 kann das Benutzergerät 102 dritte Präsentationsdaten anzeigen lassen. Die dritten Präsentationsdaten können dritte Anzeigedaten umfassen, die der aktuell laufenden Anwendung zugeordnet sind. Wenn zum Beispiel die Wetter-Anwendung die aktuell laufende Anwendung ist, können die dritten Anzeigedaten zusätzliche Informationen in Bezug auf das aktuelle Wetter umfassen, wie z. B. eine Vorhersage oder bemerkenswerte erwartete bevorstehende Wetterereignisse. Die dritten Anzeigedaten können zusätzlich zu den ersten Anzeigedaten und/oder den zweiten Anzeigedaten oder als Ersatz für die ersten Anzeigedaten und/oder die zweiten Anzeigedaten angezeigt werden.
  • Wie angegeben, kann das Anzeigen lassen der verschiedenen Präsentationsdaten einen fortschreitenden ”Ausbau” der Daten implementieren. Wenn sich zum Beispiel der Steuergegenstand 104 dem Benutzergerät 102 nähert oder sich davon zurückzieht, können die verschiedenen Präsentationsdaten auf eine reaktive, intuitive Weise angezeigt oder von der Anzeige entfernt werden, um dem Benutzer einen Nutzen zu bieten, der mit der Interaktion des Benutzers mit dem Benutzergerät 102 verknüpft ist. Bei manchen Implementierungen können die Präsentationsdaten auf das Anzeigegerät ”gerollt” werden, um ein Scrollen der Anzeigedaten relativ zum Anzeigegerät zu simulieren. Zum Beispiel kann ein erster Abschnitt der Präsentationsdaten vor einem zweiten Abschnitt der Präsentationsdaten angezeigt werden. Der erste Abschnitt kann in einer oder mehreren Richtungen relativ zu der Benutzerschnittstelle verschoben werden, um Platz für den zweiten Abschnitt der Präsentationsdaten zu schaffen. Zum Beispiel können die Präsentationsdaten in einem Listenformat bereitgestellt werden, wobei jeder Eintrag der Liste mindestens teilweise auf Basis des Orts des Steuergegenstands 104 in Bezug auf das Benutzergerät 102 den Bildschirm auf und ab gescrollt wird. Zum Beispiel können die Daten in einer Vorwärtsrichtung gescrollt werden, wenn sich der Steuergegenstand 104 dem Benutzergerät 102 nähert, und in einer umgekehrten Richtung, wenn sich der Steuergegenstand 104 von dem Benutzergerät 102 zurückzieht.
  • Wenn sich der Steuergegenstand 104 in die zweite Nahzone 124 bewegt, kann das Benutzergerät 102 einen Betrieb in einem interaktiven Modus starten. Der interaktive Modus kann eine Interaktion durch den Benutzer mit der Benutzerschnittstelle ermöglichen. Wie angegeben, kann die Interaktion durch die Durchführung von Steuergesten durch den Steuergegenstand 104 ermöglicht werden. Zum Beispiel kann das Benutzergerät 102 auf Steuergesten überwachen, die durch den Steuergegenstand 104 durchgeführt werden, während sich der Steuergegenstand 104 innerhalb der zweiten Nahzone 124 befindet.
  • Zum Beispiel kann das Benutzergerät 102 das dem Steuergegenstand 104 zugeordnete Bewegungsprofil mit Gestendaten 114 vergleichen, um eine Übereinstimmung zwischen einem Bewegungsmuster des Steuergegenstands 104 und einer den Gestendaten 114 zugeordneten Steuergeste zu bestimmen. Wenn eine Übereinstimmung erkannt wird, kann das Benutzergerät 102 das Bewegungsmuster des Steuergegenstands 104 als eine Steuergeste interpretieren und kann eine oder mehrere Aktionen oder Tätigkeiten bestimmen, die als Antwort auf die Durchführung der Steuergeste durchzuführen sind. Bei manchen Implementierungen kann eine Übereinstimmung zwischen dem Bewegungsmuster und einer Steuergeste mindestens teilweise auf Basis eines Grades gefunden werden, in dem das Benutzergerät 102 sicher ist, dass das Bewegungsmuster eine Steuergeste sein soll. Zum Beispiel kann das Benutzergerät 102 das Bewegungsmuster mit Gestendaten 114 vergleichen, um einen Prozentsatz der Wahrscheinlichkeit (z. B. Sicherheit) zu bestimmen, dass das Bewegungsmuster eine Steuergeste sein sollte. Wenn der Prozentsatz der Wahrscheinlichkeit größer als ein Schwellenwert ist, kann eine Übereinstimmung bestimmt werden.
  • Als Antwort auf die Erkennung einer Durchführung einer Steuergeste durch den Steuergegenstand 104 kann das Benutzergerät 102 eine oder mehrere entsprechende Aktionen oder Tätigkeiten durchführen. Zum Beispiel können solche Aktionen oder Tätigkeiten Bedienerschnittstellen-Steueraktionen umfassen. Die Benutzerschnittstellen-Steueraktionen können mindestens teilweise auf Basis eines aktuellen Kontextes der Benutzerschnittstelle kontextbezogen sein. Auf diese Weise können die Steuergesten konfiguriert werden, es einem Benutzer zu ermöglichen, durch die Benutzerschnittstelle zu navigieren, um auf der Benutzerschnittstelle angezeigte Informationen zu sehen oder zu bearbeiten. Zum Beispiel können Aktionen, die als Antwort auf die Steuergesten durchzuführen sind, Scroll-Aktionen, Auswahl-Aktionen, Zoom-Aktionen und/oder andere geeignete Benutzerschnittstellen-Steueraktionen umfassen. Auf diese Weise kann der Benutzer durch eine oder mehrere Anwendungen navigieren, die dem Benutzergerät 102 zugeordnet sind, und kann eine Anwendung auswählen, um die Anwendung durch die Durchführung von Steuergesten (z. B. Luft-Handgesten) auf dem Benutzergerät 102 laufen zu lassen. Der Benutzer kann dann im Stande sein, durch die ausgewählte Anwendung zu navigieren, um Daten innerhalb der Anwendung zu sehen oder zu bearbeiten.
  • Wenn der Steuergegenstand 104 aus der zweiten Nahzone 124 entfernt wird, kann das Benutzergerät 102 die Überwachung auf Steuergesten beenden. Bei manchen Implementierungen kann die Anwendung, mit der der Benutzer unmittelbar vor dem Entfernen des Steuergegenstands 104 aus der zweiten Nahzone 124 interagiert hat, auf dem Benutzergerät weiterlaufen. Auf diese Weise kann, wenn der Steuergegenstand 104 nachfolgend innerhalb der ersten Nahzone 122 erkannt wird, das Benutzergerät 102 Präsentationsdaten anzeigen lassen, die einer solchen aktuell laufenden Anwendung zugeordnet sind.
  • Wie oben angegeben, wenn der Steuergegenstand 104 nicht innerhalb der ersten Nahzone 122 oder der zweiten Nahzone 124 erkannt wird, kann das Benutzergerät 102 in einem Standby-Modus arbeiten. Während es im Standby-Modus arbeitet, kann das Benutzergerät 102 Standby-Daten auf der Benutzerschnittstelle anzeigen lassen. Solche Standby-Daten können Zeitinformationen umfassen, die einem aktuellen Datum und einer aktuellen Zeit oder anderen Informationen zugeordnet sind. Bei manchen Implementierungen können die Standby-Daten konfiguriert sein, ein Uhren-Zifferblatt zu simulieren.
  • Man erkennt, dass die Nahzonenkonfiguration 120 nur zwecks Veranschaulichung dargestellt ist. Zum Beispiel können verschiedene andere Nahzonenkonfigurationen verwendet werden, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Insbesondere können verschiedene andere geeignete Nahzonenkonfigurationen mit verschiedenen anderen Nahzonen-Mengen, -Größen, -Formen usw. verwendet werden, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Außerdem können eine oder mehrere Nahzonen irgendeine geeignete Anzahl von Teilzonen umfassen. Wie oben angegeben, kann die Menge der Teilzonen mindestens teilweise auf Basis einer Anzahl anzuzeigender Anzeigedaten und/oder einer gewünschten Art und Weise, in der die Anzeigedaten anzuzeigen sind, bestimmt werden. Zum Beispiel können die Teilzonen konfiguriert sein, einen ”Ausbau” von Daten auf eine fortschreitende Weise zu ermöglichen, so dass eine gewünschte Anzahl von Dateniterationen (z. B. erste, zweite, dritte usw. Präsentationsdaten) angezeigt werden.
  • 38 zeigen Beispiel-Anzeigekonfigurationen einer Beispiel-Benutzerschnittstelle 200 gemäß Ausführungsbeispielen der vorliegenden Offenbarung. Wie gezeigt, kann die Benutzerschnittstelle 200 einem tragbaren Computergerät wie z. B. einer Smartwatch zugeordnet sein. Insbesondere kann die Benutzerschnittstelle 200 auf einem einer Front der Smartwatch zugeordneten Anzeigegerät angezeigt werden. Man erkennt jedoch, dass verschiedene andere geeignete Benutzerschnittstellen, die verschiedenen anderen geeigneten Benutzergeräten zugeordnet sind, verwendet werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Solche Anzeigekonfigurationen der Benutzerschnittstelle 200 können mindestens teilweise auf Basis eines Orts des Steuergegenstands 104 relativ zum Benutzergerät 102 bestimmt werden. Zum Beispiel können bei manchen Implementierungen solche Anzeigekonfigurationen mindestens teilweise auf Basis eines Vorhandenseins des Steuergegenstands 104 innerhalb der in 2 gezeigten Nahzonenkonfiguration 120 bestimmt werden.
  • Zum Beispiel zeigt 3 eine Anzeigekonfiguration 202, die auf einer Benutzerschnittstelle 200 angezeigt wird. Die Anzeigekonfiguration 202 kann einem Standby-Modus des Benutzergeräts 102 entsprechen. Wie gezeigt, umfasst die Anzeigekonfiguration 202 Standby-Daten, die als ein Zifferblatt konfiguriert sind, das eine aktuelle Zeit angibt. Zum Beispiel zeigt die Anzeigekonfiguration 202 ein Zifferblatt mit einem Minutenzeiger und einem Stundenzeiger, die eine aktuelle Zeit angeben. Die Anzeigekonfiguration 202 kann auf der Benutzerschnittstelle 202 angezeigt werden, wenn der Steuergegenstand 104 nicht innerhalb einer Nahzonenkonfiguration wie z. B. der Nahzonenkonfiguration 120 oder einer anderen dem Benutzergerät 102 zugeordneten Nahzonenkonfiguration erkannt wird.
  • Wenn das Benutzergerät 102 den Steuergegenstand 104 innerhalb der ersten Nahzone 122 erkennt, kann das Benutzergerät 102 den Betrieb in einem Präsentationsmodus starten. Zum Beispiel zeigt 4 eine der Benutzerschnittstelle 200 zugeordnete Anzeigekonfiguration 204. Die Anzeigekonfiguration 204 kann dem Präsentationsmodus entsprechen, der konfiguriert ist, nicht-interaktive Daten anzuzeigen, die einer aktuell laufenden Messaging-Anwendung zugeordnet sind. Auf diese Weise kann die Anzeigekonfiguration 204 erste Präsentationsdaten anzeigen, die der Benutzerschnittstelle 200 zugeordnet sind. Wenn zum Beispiel das Benutzergerät 102 den Steuergegenstand 104 innerhalb der ersten Nahzone 122 erkennt, kann das Benutzergerät 102 Präsentationsdaten anzeigen lassen, die der Anzeigekonfiguration 204 zugeordnet sind. Solche Präsentationsdaten umfassen ein Anwendungs-Piktogramm 205. Das Anwendungs-Piktogramm 205 ist der auf dem Benutzergerät 102 installierten Messaging-Anwendung zugeordnet. Wie gezeigt, kann das Anwendungs-Piktogramm 205 einer Komplikation entsprechen, die der auf dem Zifferblatt angezeigten Benutzerschnittstelle 200 zugeordnet ist. Wie gezeigt, umfasst das Anwendungs-Piktogramm 205 Nachrichten-Anzeiger 206 oder ist diesen auf andere Weise zugeordnet, sowie Absender-Kennungen 208, die der Messaging-Anwendung zugeordnet sind. Auf diese Weise kann die Anzeigekonfiguration 204 einen Benutzer mit ersten Präsentationsdaten versorgen, die eine anfängliche Anzeige von ungelesenen oder empfangenen Nachrichten anzeigen. Bei manchen Implementierungen können die Nachrichten-Anzeiger 206 und/oder Absender-Kennungen 208 mindestens teilweise auf Basis des Orts des Steuergegenstands 104 auf der Benutzerschnittstelle 200 gescrollt werden. Zum Beispiel können die Nachrichten-Anzeiger 206 und/oder Absender-Kennungen konfiguriert sein, auf einer individuellen Basis die Benutzerschnittstelle 200 auf und ab zu scrollen, wenn sich der Steuergegenstand 104 dem Benutzergerät 102 nähert oder davon zurückzieht.
  • Als ein Beispiel, wenn sich der Steuergegenstand 104 dem Benutzergerät 102 nähert, können der Nachrichten-Anzeiger 206 und/oder die Absender-Kennung 208, die der Nachricht von Todd zugeordnet sind, vor dem Nachrichten-Anzeiger 206 und/oder der Absender-Kennung 208, die den Nachrichten von Ivan und Timo zugeordnet sind, auf der Benutzerschnittstelle 200 angezeigt werden. Bei manchen Implementierungen können die Nachrichten in der Reihenfolge des Eintreffens der Nachrichten aufgelistet werden. Bei manchen Implementierungen können der Nachrichten-Anzeiger 206 und/oder die Absender-Kennung 208 von der Benutzerschnittstelle 200 weggescrollt werden, um Platz für eine oder mehrere zusätzliche anzuzeigende Nachrichten-Anzeiger und/oder Absender-Kennungen zu schaffen.
  • Wenn sich der Steuergegenstand 104 dem Benutzergerät 102 nähert, kann das Benutzergerät 102 zusätzliche oder andere Präsentationsdaten anzeigen. Zum Beispiel zeigt 5 eine Beispiel-Anzeigekonfiguration 210. Die Anzeigekonfiguration 210 kann zweiten Präsentationsdaten entsprechen, die auf der Benutzerschnittstelle 200 angezeigt werden, während sie im Präsentationsmodus arbeitet. Wie gezeigt, können die zweiten Präsentationsdaten zusätzliche Daten zu den ersten Präsentationsdaten entsprechend der Anzeigekonfiguration 204 umfassen. Die zweiten Präsentationsdaten können Präsentationsdaten sein, die dem Anwendungs-Piktogramm 205 zugeordnet sind. Zum Beispiel umfassen die zweiten Präsentationsdaten eine Nachrichtenvorschau 212, die einen Abschnitt der Nachricht von Timo zeigt. Die zweiten Präsentationsdaten umfassen weiterhin einen Empfangszeitpunkt-Anzeiger 214.
  • Die ersten Präsentationsdaten der Anzeigekonfiguration 204 und die zweiten Präsentationsdaten von 206 können mindestens teilweise auf Basis eines Orts des Steuergegenstands 104 innerhalb der ersten Nahzone 122 angezeigt werden. Zum Beispiel können die ersten Präsentationsdaten angezeigt werden, während der Steuergegenstand 104 in der Teilzone 126 vorhanden ist, und die zweiten Präsentationsdaten können angezeigt werden, wenn der Steuergegenstand 104 in die Teilzone 128 übertritt. Bei manchen Implementierungen kann die Anzeige der ersten und zweiten Präsentationsdaten ausgelöst werden, indem der Steuergegenstand 104 eine oder mehrere Distanzschwellen übertritt, die der ersten Nahzone 122 zugeordnet sind.
  • Wenn der Steuergegenstand 104 in die zweite Nahzone 124 eintritt, kann das Benutzergerät 102 den Betrieb im interaktiven Modus starten. Während es im interaktiven Modus ist, kann das Benutzergerät 102 interaktive Daten auf der Benutzerschnittstelle 200 anzeigen lassen. Zum Beispiel zeigt 6 eine Anzeigekonfiguration 216. Die Anzeigekonfiguration 216 kann dem interaktiven Modus des Benutzergeräts 102 entsprechen. Wenn der Steuergegenstand 104 in die zweite Nahzone 124 eintritt, kann das Benutzergerät 102 mit der Überwachung auf Steuergesten beginnen. Beim Erkennen einer Durchführung einer Steuergeste durch den Steuergegenstand 104 kann das Benutzergerät 102 auf Basis der erkannten Steuergeste eine oder mehrere Benutzerschnittstellen-Aktionen durchführen.
  • Wie gezeigt, bildet die Anzeigekonfiguration 216 die Nachrichtenvorschau 212 ab. Die Anzeigekonfiguration 216 bildet weiterhin Anwendungs-Piktogramme 218 und 220 ab. Die Anwendungs-Piktogramme 218 und 220 können Anwendungen entsprechen, die auf dem Benutzergerät 102 installiert sind. Ähnlich wie das Anwendungs-Piktogramm 205 können die Anwendungs-Piktogramme 218 und 220 als Komplikationen erscheinen, die der Smartwatch-Front zugeordnet sind. Die Anzeigekonfiguration 216 stellt weiterhin Zeitanzeiger 222 dar. Zum Beispiel entsprechen Zeitanzeiger den Uhrzeigern der in der Anzeigekonfiguration 202 dargestellten Zeitdaten. Zeitanzeiger können sich bewegen, wie sich Uhrzeiger bewegen, um das Verstreichen der Zeit widerzuspiegeln.
  • Während des Betriebs im interaktiven Modus kann das Benutzergerät 102 Steuergesten-Eingaben als vom Steuergegenstand 104 durchgeführt akzeptieren und kann die Benutzerschnittstelle 200 mindestens teilweise auf Basis der Steuergesten steuern. Wie angegeben, kann jede Steuergeste eines vorbestimmten Satzes von Steuergesten einer kontextbezogenen Benutzerschnittstellen-Steueraktion entsprechen, die als Antwort auf eine Erkennung einer Durchführung der Steuergeste durch den Steuergegenstand 104 durchzuführen ist. Zum Beispiel kann der Benutzer Steuergesten durchführen (z. B. durch Handhabung des Steuergegenstands 104), um das Benutzergerät aufzufordern, die Benutzerschnittstelle 200 in einer gewünschten Weise zu steuern. Zum Beispiel kann der Benutzer mit der Messaging-Anwendung interagieren, um eine oder mehrere Nachrichten auszuwählen, die in Gänze anzuzeigen sind. Wie in 7 gezeigt, kann bei einer Auswahl einer Nachricht das Benutzergerät 102 die gesamte Nachricht anzeigen lassen. 7 zeigt eine Beispiel-Anzeigekonfiguration 224. Zum Beispiel kann das Benutzergerät 102 einen Nachrichten-Hauptteil 226 anzeigen lassen, der der Mitteilungsvorschau 212 entspricht, die der von Timo empfangenen Nachricht zugeordnet ist. Bei manchen Implementierungen kann der Benutzer durch eine oder mehrere zusätzliche empfangene Nachrichten (z. B. die von Ivan und/oder Todd empfangenen Nachrichten) scrollen oder zirkulieren, so dass die Gesamtheit solcher zusätzlichen Nachrichten auf der Benutzerschnittstelle 202 angezeigt wird.
  • Unter nochmaliger Bezugnahme auf 6 kann der Benutzer auch durch Anwendungs-Piktogramme 218 und 220 (z. B. durch Durchführung von Steuergesten) navigieren. Zum Beispiel zeigt 8 eine Anzeigekonfiguration 228. Die Anzeigekonfiguration 228 zeigt das Anwendungs-Piktogramm 218 im Anschluss an eine Durchführung einer Steuergeste durch den Steuergegenstand 104, um zu einem Scrollen durch das Anwendungs-Piktogramme 218 aufzufordern. Wie gezeigt, entspricht das Anwendungs-Piktogramm 218 einer Wetter-Anwendung. Nach dem Scrollen durch das Anwendungs-Piktogramm 218 kann eine Vorschau 230 der Wetter-Anwendung auf der Benutzerschnittstelle 200 angezeigt werden. Der Benutzer kann dann das Anwendungs-Piktogramm 218 auswählen, um das Benutzergerät 102 aufzufordern, die Wetter-Anwendung zu öffnen, um die Wetter-Anwendung auf dem Benutzergerät 102 laufen zu lassen. Das Öffnen der Wetter-Anwendung kann auslösen, dass zusätzliche interaktive Daten, die der Wetter-Anwendung zugeordnet sind, auf der Benutzerschnittstelle 200 angezeigt werden. Der Benutzer kann dann in einer gewünschten Weise mit der Wetter-Anwendung interagieren.
  • Wie oben angegeben, ist zu erkennen, dass verschiedene andere Benutzerschnittstellen mit verschiedenen anderen Anzeigekonfigurationen verwendet werden können, ohne von dem Umfang der vorliegenden Offenbarung abzuweichen. Zum Beispiel können verschiedene Benutzerschnittstellen, die verschiedenen Benutzergeräten zugeordnet sind, verwendet werden und können unter Verwendung verschiedener geeigneter Steuergesten gesteuert werden. Außerdem können verschiedene andere geeignete Präsentationsdaten und/oder interaktive Daten, die verschiedenen anderen geeigneten Anwendungen zugeordnet sind, innerhalb der Benutzerschnittstelle angezeigt werden.
  • 9 zeigt ein Flussdiagramm eines Beispiel-Verfahrens (300) zum Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle gemäß Ausführungsbeispielen der vorliegenden Offenbarung. Das Verfahren (300) kann durch eine oder mehrere Computergeräte implementiert werden, wie z. B. ein oder mehrere der in 1 dargestellten Computergeräte. Außerdem zeigt 9 Schritte, die zwecks Veranschaulichung und Erörterung in einer bestimmten Reihenfolge durchgeführt werden. Der Fachmann erkennt anhand der hierin bereitgestellten Offenbarungen, dass die Schritte irgendeines der hierin erörterten Verfahren angepasst, neu angeordnet, erweitert, weggelassen oder in verschiedener Weise modifiziert werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen.
  • Bei (302) kann das Verfahren (300) umfassen, Standby-Daten anzeigen zu lassen, die einem Standby-Modus einer Benutzerschnittstelle entsprechen, die einem Benutzergerät zugeordnet ist. Zum Beispiel können die Standby-Daten Zeitdaten umfassen, die einer aktuellen Zeit und/oder einem aktuellen Datum oder anderen Daten zugeordnet sind. Bei manchen Implementierungen kann das Benutzergerät im Standby-Modus arbeiten, wenn das Benutzergerät keinen Steuergegenstand erkannt. Wie oben erwähnt, kann ein Steuergegenstand ein Gegenstand oder Objekt sein, der bzw. das konfiguriert ist, Steuergesten durchzuführen, um den Betrieb des Benutzergeräts zu steuern.
  • Bei (304) kann das Verfahren (300) umfassen, ein Vorhandensein des Steuergegenstands in einer ersten Nahzone nahe dem Benutzergerät zu erkennen. Die erste Nahzone kann in einer Nahzonenkonfiguration mit einer oder mehreren Nahzonen enthalten sein. Die erste Nahzone kann irgendeine geeignete Form und/oder Größe haben. Bei manchen Implementierungen können die Grenzen der ersten Nahzone mindestens teilweise auf Basis eines dem Benutzergerät zugeordneten Antennenstrahlmusters bestimmt werden.
  • Bei (306) kann das Verfahren (300) umfassen, Präsentationsdaten entsprechend einem Präsentationsmodus der Benutzerschnittstelle anzeigen zu lassen. Das Benutzergerät kann im Präsentationsmodus arbeiten, während der Steuergegenstand in der ersten Nahzone vorhanden ist. Zum Beispiel können die Präsentationsdaten als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der ersten Nahzone angezeigt werden. Die Präsentationsdaten können Daten umfassen, die einer aktuell laufenden Anwendung auf dem Benutzergerät zugeordnet sind. Die Präsentationsdaten können nicht-interaktive Daten sein. Bei manchen Implementierungen können die Präsentationsdaten für die Dauer der Zeit angezeigt werden, die der Steuergegenstand in der ersten Nahzone vorhanden ist. Bei manchen Implementierungen wird das Benutzergerät keine Steuergesten erkennen oder darauf reagieren, die durch den Steuergegenstand durchgeführt werden, während er im Präsentationsmodus arbeitet.
  • Bei (308) kann das Verfahren (300) umfassen, das Vorhandensein des Steuergegenstands in einer zweiten Nahzone nahe dem Benutzergerät zu erkennen. Die zweite Nahzone kann in der Nahzonenkonfiguration enthalten sein. Bei manchen Implementierungen kann die Nahzonenkonfiguration vorbestimmt sein. Die zweite Nahzone kann das Benutzergerät und die erste Nahzone trennen. Zum Beispiel kann die zweite Nahzone ein an das Benutzergerät angrenzendes Gebiet oder ein entsprechender Bereich sein und kann sich von dem Benutzergerät in einer oder mehreren Richtungen nach außen erstrecken. Die erste Nahzone kann an die zweite Nahzone angrenzen und kann sich von der ersten Nahzone in einer oder mehreren Richtungen nach außen erstrecken. Die ersten und zweiten Nahzonen können durch eine oder mehrere Grenzen oder Schwellen getrennt sein.
  • Bei (310) kann das Verfahren (300) umfassen, interaktive Daten entsprechend einem interaktiven Modus der Benutzerschnittstelle anzeigen zu lassen. Das Benutzergerät kann im interaktiven Modus arbeiten, während sich der Steuergegenstand in der zweiten Nahzone befindet. Zum Beispiel können die interaktiven Daten als Antwort auf das Vorhandensein des Steuergegenstands in der zweiten Nahzone angezeigt werden. Zum Beispiel können die interaktiven Daten Daten umfassen, die einer oder mehreren Anwendungen zugeordnet sind, die auf dem Benutzergerät installiert sind oder ihm auf andere Weise zugeordnet sind. Während es im interaktiven Modus arbeitet, kann das Benutzergerät konfiguriert sein, mit einem Benutzer zu interagieren (z. B. über durchgeführte Steuergesten).
  • Bei (312) kann das Verfahren (300) umfassen, eine Überwachung auf Steuergesten zu starten. Zum Beispiel kann das Benutzergerät den Steuergegenstand verfolgen und ein dem Steuergegenstand zugeordnetes Bewegungsprofil bestimmen. Wie angegeben, kann das Bestimmen des Bewegungsprofils umfassen, Geschwindigkeitsdaten, Ortsdaten (z. B. räumliche Koordinaten, radiale Distanz von einem Benutzergerät usw.) und/oder andere Daten während eines oder mehrerer Zeitabschnitte zu bestimmen. Das Bewegungsprofil kann mit einem Satz von vorbestimmten Steuergesten verglichen werden, um eine Übereinstimmung (oder eine ausreichende Übereinstimmung) zwischen einem Bewegungsmuster des Steuergegenstands und einer Steuergeste aus dem vorbestimmten Satz von Steuergesten zu bestimmen.
  • Bei (314) kann das Verfahren (300) umfassen, eine Durchführung einer Steuergeste durch den Steuergegenstand zu bestimmen, während sich der Steuergegenstand in der zweiten Nahzone befindet. Bei (316) kann das Verfahren (300) umfassen, eine oder mehrere Aktionen mindestens teilweise auf Basis der bestimmten Steuergeste durchzuführen. Zum Beispiel kann jede Steuergeste des Satzes von Steuergesten eine oder mehrere entsprechende Aktionen aufweisen, die als Antwort auf eine Erkennung einer Durchführung der Steuergeste durch den Steuergegenstand von dem Benutzergerät durchzuführen sind. Bei manchen Implementierungen können die eine oder die mehreren Aktionen Benutzerschnittstellen-Steueraktionen wie z. B. Scrollen, Auswählen, Zoomen usw. innerhalb der Benutzerschnittstelle entsprechen. Zum Beispiel können die Benutzerschnittstellen-Steueraktionen kontextbezogene Aktionen mindestens teilweise auf Basis eines aktuellen Zustands der Benutzerschnittstelle sein.
  • Wie oben angegeben, können bei manchen Implementierungen die ersten und/oder zweiten Nahzonen eine oder mehrere Teilzonen umfassen, die innerhalb der ersten und/oder zweiten Nahzone angeordnet sind. Erkennung des Steuergegenstands innerhalb der Teilzonen kann die Anzeige von Daten durch das Benutzergerät auslösen. Zum Beispiel zeigt 10 ein Flussdiagramm eines Beispiel-Verfahrens (400) zum Anzeigen lassen von ersten und zweiten Präsentationsdaten gemäß Ausführungsbeispielen der vorliegenden Offenbarung. Das Verfahren (400) kann durch eine oder mehrere Computergeräte wie z. B. eines oder mehrere der in 12 gezeigten Computergeräte implementiert werden. Außerdem zeigt 10 Schritte, die zwecks Veranschaulichung und Erörterung in einer bestimmten Reihenfolge durchgeführt werden. Der Fachmann erkennt anhand der hierin bereitgestellten Offenbarungen, dass die Schritte irgendein der hierin erörterten Verfahren angepasst, neu angeordnet, erweitert, weggelassen oder in verschiedener Weise modifiziert werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen.
  • Bei (402) kann das Verfahren (400) umfassen, ein Vorhandensein des Steuergegenstands in einer ersten Teilzone innerhalb einer Nahzone zu erkennen. Wie angegeben, kann die erste Teilzone ein Bereich oder ein Gebiet sein, der bzw. das einen Teil der Nahzone definiert. Auf diese Weise kann die erste Teilzone innerhalb der Nahzone liegen. Bei manchen Implementierungen kann die erste Teilzone eine Teilzone sein, die innerhalb der Nahzone am weitesten von dem Benutzergerät entfernt ist.
  • Bei (404) kann das Verfahren (400) umfassen, die ersten Präsentationsdaten anzeigen zu lassen. Die ersten Präsentationsdaten können als Antwort auf eine Erkennung des Vorhandenseins des Steuergegenstands in der ersten Teilzone anzeigen gelassen werden. Wie oben angegeben, können die ersten Präsentationsdaten einem Präsentationsmodus entsprechen, der der Benutzerschnittstelle zugeordnet ist, die dem Benutzergerät zugeordnet ist. Bei manchen Implementierungen können die ersten Präsentationsdaten eine erste Teilmenge der Präsentationsdaten umfassen, die im Zusammenhang mit dem Präsentationsmodus anzuzeigen sind. Zum Beispiel können die ersten Präsentationsdaten Daten umfassen, die einer aktuell auf dem Benutzergerät laufenden Anwendung zugeordnet sind.
  • Bei (406) kann das Verfahren (400) umfassen, ein Vorhandensein des Steuergegenstands in einer zweiten Teilzone innerhalb der Nahzone zu erkennen. Die zweite Teilzone kann einen von der ersten Teilzone getrennten Bereich oder ein derartiges Gebiet innerhalb der Nahzone definieren. Bei manchen Implementierungen können die ersten und zweiten Teilzonen benachbarte Teilzonen sein. Bei manchen Implementierungen kann die zweite Teilzone näher an dem Benutzergerät liegen als die erste Teilzone.
  • Bei (408) kann das Verfahren (400) umfassen, die zweiten Präsentationsdaten anzeigen zu lassen. Die zweiten Präsentationsdaten können als Antwort auf eine Erkennung des Vorhandenseins des Steuergegenstands in der zweiten Teilzone anzeigen gelassen werden. Bei manchen Implementierungen können die zweiten Präsentationsdaten eine zweite Teilmenge der Präsentationsdaten umfassen, die im Zusammenhang mit dem Präsentationsmodus anzuzeigen sind. Zum Beispiel können die zweiten Präsentationsdaten zusätzliche oder andere, der aktuell laufenden Anwendung zugeordnete Daten aus den ersten Präsentationsdaten umfassen. Die zweiten Präsentationsdaten können zusätzlich zu den ersten Präsentationsdaten oder als Ersatz für die ersten Präsentationsdaten angezeigt werden.
  • Bei manchen Implementierungen können eine oder mehrere zusätzliche Teilzonen (z. B. dritte Teilzone, vierte Teilzone usw.) verwendet werden, um die Anzeige von Zusatz-Präsentationsdaten (dritte Präsentationsdaten, vierte Präsentationsdaten usw.) auszulösen. Bei manchen Implementierungen können Distanzschwellen innerhalb der Nahzone verwendet werden, um eine Anzeige der verschiedenen Präsentationsdaten (z. B. erste Präsentationsdaten, zweite Präsentationsdaten, usw.) auszulösen. Bei derartigen Implementierungen können die Nahzonen einem Gebiet oder Bereich zwischen den Distanzschwellen entsprechen.
  • 11 zeigt einen Beispiel-Steuergestensatz 440 gemäß Ausführungsbeispielen der vorliegenden Offenbarung. Wie gezeigt, umfasst der Steuergestensatz 440 eine Mehrzahl von Steuergesten, die durch einen repräsentativen Steuergegenstand 442 (z. B. eine menschliche Hand) durchgeführt werden können. Insbesondere umfasst der Steuergestensatz 440 eine Steuergeste virtuelle Wählscheibe und eine Steuergeste virtuelle Taste. Bei manchen Implementierungen kann der Steuergestensatz eine oder mehrere zusätzliche Steuergesten umfassen, wie z. B. eine Steuergeste doppelte virtuelle Taste, eine Schüttelsteuergeste, eine lange Schüttelbewegungsgeste und/oder andere geeignete Steuergesten.
  • Wie gezeigt, umfassen die Steuergesten in dem Steuergestensatz 440 jeweils eine Bewegungskomponente durch den Steuergegenstand. Zum Beispiel kann die Steuergeste virtuelle Wählscheibe eine Drehung eines Daumens und Fingers einer menschlichen Hand umfassen, um ein Drehen eines Wählrades oder eines Drehknopfs nachzuahmen. Als weiteres Beispiel kann die Steuergeste virtuelle Taste eine Bewegung des Daumens oder eines Fingers in Richtung aufeinander umfassen, um das Drücken einer Taste nachzuahmen. Auf diese Weise kann eine doppelte virtuelle Antipp-Bewegung eine derartige Bewegung zweimal hintereinander umfassen, um ein doppeltes Drücken einer Taste nachzuahmen. Als ein weiteres Beispiel kann eine Schüttelsteuergeste eine Bewegung eines oder mehrerer Finger in einer Hin- und Herbewegung umfassen, um eine Schüttelbewegung nachzuahmen. Auf diese Weise kann eine lange Schüttelsteuergeste eine längere Hin- und Herbewegung des einen oder der mehreren Finger umfassen, um eine längere Schüttelbewegung nachzuahmen.
  • Wie oben angegeben, wenn ein Benutzercomputergerät (z. B. Smartwatch) gemäß Ausführungsbeispielen der vorliegenden Offenbarung eine Durchführung einer in dem Steuergestensatz 440 enthaltenen Steuergeste durch einen geeigneten Steuergegenstand (z. B. eine Hand eines Anwenders nahe dem Benutzergerät) erkennt, kann das Benutzercomputergerät eine oder mehrere Aktionen durchführen. Insbesondere können die Steuergesten in dem Steuergestensatz 440 auf eine oder mehrere Aktionen abgebildet werden, die als Antwort auf die Erkennung einer Steuergeste in einem Steuergestensatz durch einen Steuergegenstand durchzuführen sind. Derartige Aktionen können kontextbezogene Benutzerschnittstellen-Steueraktionen sein.
  • Als ein Beispiel kann die Steuergeste virtuelle Wählscheibe auf eine Aktion abgebildet werden, die einer Navigation durch die Benutzerschnittstelle zugeordnet ist. Die Navigation kann von einem aktuellen Kontext der Benutzerschnittstelle abhängig sein. Wenn zum Beispiel die Benutzerschnittstelle die Anzeigekonfiguration 228 von 8 anzeigt, kann eine Erkennung einer Durchführung der Steuergeste virtuelle Wählscheibe bewirken, dass das Benutzergerät durch auf der Benutzerschnittstelle angezeigte Komplikationen (z. B. Anwendungs-Piktogramme 205, 218, 220) zirkuliert oder scrollt. Als weiteres Beispiel kann, wenn die Benutzerschnittstelle die Anzeigekonfiguration 224 anzeigt, eine Erkennung einer Durchführung der Steuergeste virtuelle Wählscheibe bewirken, dass das Benutzergerät durch Nachrichten innerhalb der Messaging-Anwendung zirkuliert oder scrollt. Die Steuergeste virtuelle Wählscheibe kann eine bidirektionale Steuergeste sein. Auf diese Weise kann eine Drehung eines Daumens und eines Fingers in einer ersten Richtung (z. B. im Uhrzeigersinn) eine Navigation (z. B. Scrollen) in einer ersten Richtung bewirken, und eine Drehung eines Daumens und Fingers in einer zweiten Richtung (z. B. entgegen dem Uhrzeigersinn) kann eine Navigation (z. B. Scrollen) in einer zweiten Richtung bewirken.
  • Die Steuergeste virtuelle Taste kann auf eine Auswahlaktion abgebildet werden, die der Benutzerschnittstelle zugeordnet ist. Zum Beispiel kann eine Erkennung einer Durchführung der Steuergeste virtuelle Taste bewirken, dass das Benutzergerät eine auf dem Benutzergerät installierte Anwendung öffnet. Wenn zum Beispiel die Benutzerschnittstelle die Anzeigekonfiguration 216 anzeigt, kann eine Erkennung einer Durchführung der Steuergeste virtuelle Taste bewirken, dass das Benutzergerät die dem Anwendungs-Piktogramm 205 zugeordnete Messaging-Anwendung öffnet. Auf diese Weise kann eine detailliertere Ansicht der Messaging-Anwendung angezeigt werden, wie z. B. die in der Anzeigekonfiguration 224 angezeigte Ansicht. Bei manchen Implementierungen kann, wenn die ausgewählte Anwendung (z. B. als Antwort auf eine Erkennung einer Durchführung der Steuergeste virtuelle Taste) im Zeitpunkt der Auswahl nicht auf dem Benutzergerät läuft, die Steuergeste virtuelle Taste bewirken, dass die ausgewählte Anwendung auf dem Benutzergerät läuft. Wenn zum Beispiel gerade die Anzeigekonfiguration 228 auf der Benutzerschnittstelle angezeigt wird, kann eine Erkennung einer Durchführung der Steuergeste virtuelle Taste bewirken, dass die dem Anwendungs-Piktogramm 218 zugeordnete Wetter-Anwendung auf dem Benutzergerät läuft Die Steuergeste virtuelle Taste kann weiterhin bewirken, dass die Benutzerschnittstelle eine detailliertere Ansicht der Wetter-Anwendung öffnet. Wie angegeben, sobald die detailliertere Ansicht der Wetter-Anwendung angezeigt wird, können die dem Steuergestensatz 440 zugeordneten Steuergesten verwendet werden, um die Benutzerschnittstelle innerhalb der Wetter-Anwendung zu steuern.
  • 12 zeigt ein Beispiel-Computersystem 500, das verwendet werden kann, um die Verfahren und Systeme gemäß Beispiel-Aspekten der vorliegenden Offenbarung zu implementieren. Das System 500 kann unter Verwendung eines einzigen Computergeräts implementiert werden, oder das System 500 kann unter Verwendung einer Client-Server-Architektur implementiert werden, wobei ein Benutzercomputergerät über ein Netz 540 mit einem oder mehreren entfernten Computergeräte 530 kommuniziert. Das System 500 kann unter Verwendung anderer geeigneter Architekturen implementiert werden.
  • Wie angegeben, umfasst das System 500 ein Benutzercomputergerät 510. Das Benutzercomputergerät 510 kann irgendein geeigneter Typ von Computergerät sein, wie z. B. ein Universalcomputer, ein Spezialcomputer, ein Lautsprechergerät, ein Laptop, ein Desktop, ein Mobilgerät, ein Navigationssystem, ein Smartphone, ein Tablet, ein tragbares Computergerät, eine Anzeige mit einem oder mehreren Prozessoren, oder irgendein anderes geeignetes Computergerät. Das Benutzercomputergerät 510 kann einen oder mehrere Prozessoren 512 und ein oder mehrere Speichergeräte 514 aufweisen. Das Benutzercomputergerät 510 kann außerdem eine Netzschnittstelle enthalten, die verwendet wird, um über das Netz 540 mit einem oder mehreren entfernten Computergeräten 530 zu kommunizieren. Die Netzschnittstelle kann irgendwelche geeigneten Komponenten zum Koppeln mit einem oder mehreren Netzen enthalten, einschließlich zum Beispiel Sendern, Empfängern, Ports, Controllern, Antennen oder anderen geeigneten Komponenten.
  • Die ein oder mehreren Prozessoren 512 können irgendein geeignetes Verarbeitungsgerät wie z. B. einen Mikroprozessor, einen Mikrocontroller, eine integrierte Schaltung, ein Logikgerät, eine Graphikverarbeitungseinheit (GPU), die für effiziente Aufbereitung von Bildern oder Durchführung von anderen spezialisierten Berechnungen bestimmt ist, oder ein anderes geeignetes Verarbeitungsgerät enthalten. Die ein oder mehreren Speichergeräte 514 können ein oder mehrere computerlesbare Medien enthalten, einschließlich, aber nicht beschränkt auf, nichtflüchtiger computerlesbarer Medien, RAM, ROM, Festplatten, Flash-Laufwerke oder anderer Speichergeräte. Die ein oder mehreren Speichergeräte 514 können Informationen speichern, die für die ein oder mehreren Prozessoren 512 zugänglich sind, einschließlich computerlesbarer Anweisungen 516, die von den ein oder mehreren Prozessoren 512 ausgeführt werden können. Die Anweisungen 516 können irgendein Satz von Anweisungen sein, die bei Ausführung durch die ein oder mehreren Prozessoren 512 den einen oder die mehreren Prozessoren 512 veranlassen, Tätigkeiten durchzuführen. Zum Beispiel können die Anweisungen 516 von den ein oder mehreren Prozessoren 512 ausgeführt werden, um zum Beispiel das Abfühlmodul 106, den Gestenmanager 108, den Schnittstellenmanager 110 und/oder den Bewegungsverfolger 112, wie unter Bezugnahme auf 1 beschrieben, zu implementieren.
  • Wie in 12 gezeigt, können die eine oder mehreren Speichergeräte 514 außerdem Daten 518 speichern, die von den ein oder mehreren Prozessoren 512 abgerufen, verarbeitet, erzeugt oder gespeichert werden können. Die Daten 518 können zum Beispiel Gestendaten 114, gemäß Ausführungsbeispielen der vorliegenden Offenbarung bestimmte Bewegungsprofildaten, und andere Daten umfassen. Die Daten 518 können in einer oder mehreren Datenbanken gespeichert werden. Bei verschiedenen Implementierungen können die eine oder mehreren Datenbanken innerhalb des Benutzercomputergeräts 510 implementiert werden, mittels breitbandigem LAN oder WAN mit dem Benutzercomputergerät 510 verbunden werden und/oder durch das Netz 540 mit dem modularen Computergerät 510 verbunden werden. Die eine oder mehrere Datenbanken können aufgeteilt werden, so dass sie sich an mehreren Orten befinden.
  • Das Benutzercomputergerät 510 von 12 kann verschiedene Ein-/Ausgabegeräte zum Bereitstellen und Empfangen von Informationen von einem Benutzer enthalten, wie z. B. einen Touchscreen, ein Touch-Pad, Dateneingabetasten, Lautsprecher und/oder ein Mikrofon, das für Spracherkennung geeignet ist. Zum Beispiel kann das Benutzercomputergerät 510 ein Anzeigegerät 515 zum Darstellen einer Benutzerschnittstelle zum Anzeigen von Anwendungsdaten gemäß Beispiel-Aspekten der vorliegenden Offenbarung aufweisen.
  • Das Benutzercomputergerät 510 kann über das Netz 540 Daten mit einem oder mehreren entfernten Computergeräten 530 austauschen. Bei manchen Implementierungen kann ein entferntes Computergerät 530 ein Server wie z. B. ein Web-Server sein. In 12 sind zwar nur zwei entfernte Computergeräte 530 dargestellt, doch kann irgendeine Anzahl von entfernten Computergeräten 530 über das Netz 540 mit dem Benutzercomputergerät 510 verbunden sein.
  • Das oder die entfernten Computergeräte 530 können unter Verwendung irgendeines oder irgendwelcher geeigneten Computergeräte implementiert werden. Ähnlich wie das Benutzercomputergerät 510 kann ein entferntes Computergerät 530 einen oder mehrere Prozessoren 532 und einen Speicher 534 enthalten. Der eine oder die mehreren Prozessoren 532 können eine oder mehrere Zentraleinheiten (CPUs) und/oder andere Verarbeitungsgeräte enthalten. Der Speicher 534 kann ein oder mehrere computerlesbare Medien enthalten und kann Informationen speichern, die für die ein oder mehreren Prozessoren 532 zugänglich sind, einschließlich Anweisungen 536, die von dem einen oder den mehreren Prozessoren 532 ausgeführt werden können, und Daten 538.
  • Das entfernte Computergerät 530 kann außerdem eine Netzschnittstelle enthalten, die verwendet wird, um über das Netz 540 mit einem oder mehreren entfernten Computergeräten (z. B. Benutzercomputergerät 510) zu kommunizieren. Die Netzschnittstelle kann irgendwelche geeigneten Komponenten zum Koppeln mit einem oder mehreren Netzen enthalten, einschließlich zum Beispiel Sendern, Empfängern, Ports, Controllern, Antennen oder anderen geeigneten Komponenten.
  • Das Netz kann irgendein Typ von Kommunikationsnetz sein, wie z. B. ein lokales Netz (z. B. Intranet), ein Weitverkehrsnetz (z. B. Internet), ein Mobilfunknetz oder eine Kombination davon. Das Netz kann auch eine direkte Verbindung zwischen einem entfernten Computergerät 530 und dem Benutzercomputergerät 510 umfassen. Im Allgemeinen kann eine Kommunikation zwischen dem Benutzercomputergerät 510 und einem entfernten Computergerät 530 über eine Netzschnittstelle unter Verwendung irgendeines Typs von drahtgebundener und/oder drahtloser Verbindung unter Verwendung mannigfacher Kommunikationsprotokolle (z. B. TCP/IP, HTTP, SMTP, FTP), Codierungen oder Formate (z. B. HTML, XML) und/oder Schutzschemata (z. B. VPN, Secure HTTP, SSL) durchgeführt werden.
  • Die hierin erörterte Technologie bezieht sich auf Server, Datenbanken, Software-Anwendungen und andere computerbasierte Systeme sowie auf durchgeführte Aktionen und auf Informationen, die an solche Systeme und von solchen Systemen gesendet werden. Ein Fachmann wird erkennen, dass die inhärente Flexibilität von computerbasierten Systemen eine große Vielfalt von möglichen Konfigurationen, Kombinationen und Aufteilungen von Aufgaben und Funktionalität zwischen und unter Komponenten ermöglicht. Zum Beispiel können hierin erörterte Serverprozesse unter Verwendung eines einzigen Servers oder mehrerer in Kombination arbeitender Server implementiert werden. Datenbanken und Anwendungen können auf einem einzigen System oder über mehrere Systeme verteilt implementiert werden. Verteilte Komponenten können sequenziell oder parallel arbeiten.
  • Gemäß Ausführungsformen werden Systeme und Verfahren zum Bereitstellen von gestenbasierter Steuerung einer Benutzerschnittstelle bereitgestellt. Zum Beispiel kann ein Vorhandensein eines Steuergegenstands in einer ersten Nahzone nahe einem Benutzergerät erkannt werden. Als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands können Präsentationsdaten entsprechend einem Präsentationsmodus einer dem Benutzercomputergerät zugeordneten Benutzerschnittstelle anzeigen gelassen werden. Es kann ein Vorhandensein des Steuergegenstands in einer zweiten Nahzone nahe dem Benutzercomputergerät erkannt werden. Die zweite Nahzone kann ein von der ersten Nahzone getrenntes physisches Gebiet definieren. Als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone können interaktive Daten entsprechend einem interaktiven Modus der Benutzerschnittstelle anzeigen gelassen werden.
  • Der vorliegende Gegenstand ist zwar im Detail mit Bezug auf bestimmte Ausführungsbeispiele beschrieben worden, doch ist zu erkennen, dass der Fachmann, wenn er ein Verständnis des Vorhergehenden gewinnt, leicht Änderungen an, Veränderungen von und Äquivalente zu solchen Ausführungsformen erzeugen kann. Dementsprechend ist der Schutzbereich der vorliegenden Offenbarung beispielhaft und nicht beschränkend, und die Offenbarung des Gegenstands schließt nicht den Einschluss von derartigen Modifizierungen, Veränderungen und/oder Ergänzungen am vorliegenden Gegenstand aus, wie für einen Fachmann leicht ersichtlich ist.

Claims (20)

  1. Computerimplementiertes Verfahren zum Steuern des Betriebs eines Computergeräts, wobei das Verfahren umfasst: mittels eines Benutzercomputergeräts ein Vorhandensein eines Steuergegenstands in einer ersten Nahzone nahe dem Benutzercomputergerät zu erkennen; als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der ersten Nahzone mittels des Benutzercomputergeräts Präsentationsdaten entsprechend einem Präsentationsmodus einer dem Benutzercomputergerät zugeordneten Benutzerschnittstelle anzeigen zu lassen; mittels des Benutzercomputergeräts ein Vorhandensein des Steuergegenstands in einer zweiten Nahzone nahe dem Benutzercomputergerät zu erkennen, wobei die zweite Nahzone ein von der ersten Nahzone getrenntes physisches Gebiet definiert; und als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone mittels des Benutzercomputergeräts interaktive Daten entsprechend einem interaktiven Modus der Benutzerschnittstelle anzeigen zu lassen.
  2. Computerimplementiertes Verfahren nach Anspruch 1, das weiterhin umfasst: mittels des Benutzercomputergeräts eine Steuergeste zu bestimmen, die durch den Steuergegenstand durchgeführt wird, während sich der Steuergegenstand in der zweiten Nahzone befindet; und mittels des Benutzercomputergeräts mindestens teilweise auf Basis der bestimmten Steuergeste mindestens eine Aktion durchzuführen.
  3. Computerimplementiertes Verfahren nach Anspruch 2, wobei die mindestens eine Aktion eine der Steuerung der Benutzerschnittstelle zugeordnete Aktion umfasst.
  4. Computerimplementiertes Verfahren nach Anspruch 3, wobei die mindestens eine Aktion eine Steueraktion umfasst, die einem Scrollen durch eine Mehrzahl von Anwendungen zugeordnet ist, die der Benutzerschnittstelle zugeordnet sind.
  5. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, wobei die Präsentationsdaten mindestens teilweise auf Basis eines Orts des Steuergegenstands innerhalb der zweiten Nahzone bestimmt werden.
  6. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, das weiterhin umfasst: mittels des Benutzercomputergeräts ein Vorhandensein des Steuergegenstands in einer ersten Teilzone innerhalb der ersten Nahzone zu erkennen; mittels des Benutzercomputergeräts mindestens teilweise auf Basis des Vorhandenseins des Steuergegenstands in der ersten Teilzone erste anzuzeigende Präsentationsdaten zu bestimmen; und wobei das Anzeigen lassen von Präsentationsdaten mittels des Benutzercomputergeräts umfasst, die ersten Präsentationsdaten anzeigen zu lassen.
  7. Computerimplementiertes Verfahren nach Anspruch 6, das weiterhin umfasst: mittels des Benutzercomputergeräts ein Vorhandensein des Steuergegenstands in einer zweiten Teilzone innerhalb der ersten Nahzone zu erkennen; mittels des Benutzercomputergeräts mindestens teilweise auf Basis des Vorhandenseins des Steuergegenstands in der zweiten Teilzone zweite anzuzeigende Präsentationsdaten zu bestimmen; und wobei das Anzeigen lassen von Präsentationsdaten mittels des Benutzercomputergeräts umfasst, die zweiten Präsentationsdaten anzeigen zu lassen.
  8. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, wobei die Präsentationsdaten mindestens teilweise auf Basis einer aktuell laufenden Anwendung bestimmt werden, die dem Benutzercomputergerät zugeordnet ist.
  9. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, das weiterhin umfasst: mittels des Benutzercomputergeräts ein Vorhandensein des Steuergegenstands in einer dritten Nahzone nahe dem Benutzercomputergerät zu erkennen; und als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der dritten Nahzone mittels des Benutzercomputergeräts Standby-Daten anzeigen zu lassen, die einem Standby-Modus des Benutzercomputergeräts entsprechen.
  10. Computerimplementiertes Verfahren nach Anspruch 9, wobei die Standby-Daten Zeitdaten umfassen.
  11. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, das weiterhin umfasst, als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone mittels des Benutzercomputergeräts auf eine Durchführung einer Steuergeste durch den Steuergegenstand zu überwachen.
  12. Verfahren nach Anspruch 11, wobei die Überwachung mittels des Benutzercomputergeräts auf eine Durchführung einer Steuergeste durch den Steuergegenstand umfasst: mittels des Benutzercomputergeräts ein dem Steuergegenstand zugeordnetes Bewegungsmuster zu bestimmen; und mittels des Benutzercomputergeräts das Bewegungsmuster mit einer oder mehreren vorbestimmten Steuergesten zu vergleichen.
  13. Computersystem, umfassend: einen oder mehrere Prozessoren; und ein oder mehrere Speichergeräte, wobei die ein oder mehreren Speichergeräte computerlesbare Anweisungen speichern, die bei Ausführung durch die ein oder mehreren Prozessoren bewirken, dass die ein oder mehreren Prozessoren Tätigkeiten durchführen, wobei die Tätigkeiten umfassen: ein Vorhandensein eines Steuergegenstands in einer ersten Nahzone nahe dem Benutzercomputergerät zu erkennen; als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der ersten Nahzone Präsentationsdaten entsprechend einem Präsentationsmodus einer dem Benutzercomputergerät zugeordneten Benutzerschnittstelle anzeigen zu lassen; ein Vorhandensein des Steuergegenstands in einer zweiten Nahzone nahe dem Benutzercomputergerät zu erkennen, wobei die zweite Nahzone ein von der ersten Nahzone getrenntes physisches Gebiet definiert; und als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone interaktive Daten entsprechend einem interaktiven Modus der Benutzerschnittstelle anzeigen zu lassen.
  14. Computersystem nach Anspruch 13, wobei die Tätigkeiten weiterhin umfassen: eine Steuergeste zu bestimmen, die durch den Steuergegenstand durchgeführt wird, während sich der Steuergegenstand in der zweiten Nahzone befindet; und mindestens teilweise auf Basis der bestimmten Steuergeste mindestens eine Aktion durchzuführen.
  15. Computersystem nach Anspruch 13 oder 14, wobei die Tätigkeiten weiterhin umfassen: ein Vorhandensein des Steuergegenstands in einer ersten Teilzone innerhalb der ersten Nahzone zu erkennen; mindestens teilweise auf Basis des Vorhandenseins des Steuergegenstands in der ersten Teilzone erste anzuzeigende Präsentationsdaten zu bestimmen; und wobei das Anzeigen lassen von Präsentationsdaten umfasst, die ersten Präsentationsdaten anzeigen zu lassen.
  16. Computersystem nach Anspruch 15, wobei die Tätigkeiten weiterhin umfassen: ein Vorhandensein des Steuergegenstands in einer zweiten Teilzone innerhalb der ersten Nahzone zu erkennen; mindestens teilweise auf Basis des Vorhandenseins des Steuergegenstands in der zweiten Teilzone zweite anzuzeigende Präsentationsdaten zu bestimmen; und wobei das Anzeigen lassen von Präsentationsdaten umfasst, die zweiten Präsentationsdaten anzeigen zu lassen.
  17. Ein oder mehrere materielle, nichtflüchtige computerlesbare Medien, die computerlesbare Befehle speichern, die bei Ausführung durch einen oder mehrere Prozessoren bewirken, dass der eine oder die mehreren Prozessoren Tätigkeiten durchführen, wobei die Tätigkeiten umfassen: ein Vorhandensein eines Steuergegenstands in einer ersten Nahzone nahe dem Benutzercomputergerät zu erkennen; als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der ersten Nahzone Präsentationsdaten entsprechend einem Präsentationsmodus einer dem Benutzercomputergerät zugeordneten Benutzerschnittstelle anzeigen zu lassen; ein Vorhandensein des Steuergegenstands in einer zweiten Nahzone nahe dem Benutzercomputergerät zu erkennen, wobei die zweite Nahzone ein von der ersten Nahzone getrenntes physisches Gebiet definiert; und als Antwort auf das Erkennen des Vorhandenseins des Steuergegenstands in der zweiten Nahzone interaktive Daten entsprechend einem interaktiven Modus der Benutzerschnittstelle anzeigen zu lassen.
  18. Ein oder mehrere materielle, nichtflüchtige computerlesbare Medien nach Anspruch 17, wobei die Tätigkeiten weiterhin umfassen: eine Steuergeste zu bestimmen, die durch den Steuergegenstand durchgeführt wird, während sich der Steuergegenstand in der zweiten Nahzone befindet; und mindestens teilweise auf Basis der bestimmten Steuergeste mindestens eine Aktion durchzuführen.
  19. Ein oder mehrere materielle, nichtflüchtige computerlesbare Medien nach Anspruch 17 oder 18, wobei die Tätigkeiten weiterhin umfassen: ein Vorhandensein des Steuergegenstands in einer ersten Teilzone innerhalb der ersten Nahzone zu erkennen; mindestens teilweise auf Basis des Vorhandenseins des Steuergegenstands in der ersten Teilzone erste anzuzeigende Präsentationsdaten zu bestimmen; und wobei das Anzeigen lassen von Präsentationsdaten umfasst, die ersten Präsentationsdaten anzeigen zu lassen.
  20. Ein oder mehrere materielle, nichtflüchtige computerlesbare Medien nach Anspruch 19, wobei die Tätigkeiten weiterhin umfassen: ein Vorhandensein des Steuergegenstands in einer zweiten Teilzone innerhalb der ersten Nahzone zu erkennen; mindestens teilweise auf Basis des Vorhandenseins des Steuergegenstands in der zweiten Teilzone zweite anzuzeigende Präsentationsdaten zu bestimmen; und wobei das Anzeigen lassen von Präsentationsdaten umfasst, die zweiten Präsentationsdaten anzeigen zu lassen.
DE102016124419.8A 2016-05-16 2016-12-14 Gestenbasierte steuerung einer benutzerschnittstelle Ceased DE102016124419A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662336947P 2016-05-16 2016-05-16
US62/336,947 2016-05-16

Publications (1)

Publication Number Publication Date
DE102016124419A1 true DE102016124419A1 (de) 2017-11-16

Family

ID=57755448

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102016124419.8A Ceased DE102016124419A1 (de) 2016-05-16 2016-12-14 Gestenbasierte steuerung einer benutzerschnittstelle
DE202016008195.1U Active DE202016008195U1 (de) 2016-05-16 2016-12-14 Gestenbasierte Steuerung einer Benutzerschnittstelle

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202016008195.1U Active DE202016008195U1 (de) 2016-05-16 2016-12-14 Gestenbasierte Steuerung einer Benutzerschnittstelle

Country Status (5)

Country Link
US (2) US11003345B2 (de)
CN (2) CN107391004B (de)
DE (2) DE102016124419A1 (de)
GB (2) GB2554957B (de)
WO (1) WO2017200571A1 (de)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US10310620B2 (en) 2015-04-30 2019-06-04 Google Llc Type-agnostic RF signal representations
KR102002112B1 (ko) 2015-04-30 2019-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
CN107703764B (zh) * 2017-09-27 2020-02-21 珠海格力电器股份有限公司 设备控制方法和装置
US11416077B2 (en) 2018-07-19 2022-08-16 Infineon Technologies Ag Gesture detection system and method using a radar sensor
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10770035B2 (en) * 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
US10761611B2 (en) 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications
JP7316383B2 (ja) 2019-07-26 2023-07-27 グーグル エルエルシー Imuおよびレーダーを介した認証管理
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
KR102661485B1 (ko) 2019-08-30 2024-04-29 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
USD936681S1 (en) * 2019-11-22 2021-11-23 Honor Device Co., Ltd. Electronic display for a wearable device presenting a graphical user interface
USD936685S1 (en) * 2019-11-25 2021-11-23 Honor Device Co., Ltd. Electronic display for a wearable device presenting a graphical user interface
USD941859S1 (en) * 2019-11-25 2022-01-25 Honor Device Co., Ltd. Electronic display for a wearable device presenting a graphical user interface
US11989359B1 (en) 2023-01-24 2024-05-21 Kyndryl, Inc. Virtualization of digital crown actions based on actions performed with an electronic pen

Family Cites Families (174)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670987A (en) 1993-09-21 1997-09-23 Kabushiki Kaisha Toshiba Virtual manipulating apparatus and method
US6903723B1 (en) * 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
EP0905644A3 (de) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Vorrichtung zur Erkennung von Handgebärden
US6037893A (en) 1998-07-31 2000-03-14 Litton Systems, Inc. Enhanced motion compensation technique in synthetic aperture radar systems
US6303924B1 (en) 1998-12-21 2001-10-16 Microsoft Corporation Image sensing operator input device
US6971072B1 (en) * 1999-05-13 2005-11-29 International Business Machines Corporation Reactive user interface control based on environmental sensing
US6727892B1 (en) 1999-05-20 2004-04-27 Micron Technology, Inc. Method of facilitating the selection of features at edges of computer touch screens
ATE316658T1 (de) 1999-07-03 2006-02-15 Siemens Schweiz Ag Bewegungsmelder nach dem doppler-prinzip
US6608585B2 (en) 2001-03-02 2003-08-19 Massachusetts Institute Of Technology High-definition imaging apparatus and method
US7088343B2 (en) 2001-04-30 2006-08-08 Lenovo (Singapore) Pte., Ltd. Edge touchpad input device
US20030095154A1 (en) 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Method and apparatus for a gesture-based user interface
EP1324276B1 (de) 2001-12-28 2008-10-15 Matsushita Electric Works, Ltd. Verwendung eines elektronischen Schlüssels und elektronisches Sicherheitssystem
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7600234B2 (en) 2002-12-10 2009-10-06 Fisher-Rosemount Systems, Inc. Method for launching applications
KR101134027B1 (ko) 2004-06-29 2012-04-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 디스플레이 디바이스의 오염을 방지하는 방법 및 디바이스
US6970128B1 (en) 2004-10-06 2005-11-29 Raytheon Company Motion compensated synthetic aperture imaging system and methods for imaging
US6990335B1 (en) 2004-11-18 2006-01-24 Charles G. Shamoon Ubiquitous connectivity and control system for remote locations
KR100597798B1 (ko) 2005-05-12 2006-07-10 삼성전자주식회사 휴대용 단말기에서 동작인식을 위한 정보를 사용자에게제공하기 방법
IL170689A (en) 2005-09-06 2011-08-31 Camero Tech Ltd Imaging device through a wall
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US20080074307A1 (en) 2006-05-17 2008-03-27 Olga Boric-Lubecke Determining presence and/or physiological motion of one or more subjects within a doppler radar system
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US7770136B2 (en) 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US9317110B2 (en) 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US9545571B2 (en) 2008-01-25 2017-01-17 Nintendo Co., Ltd. Methods and apparatus for a video game magic system
KR101506488B1 (ko) 2008-04-04 2015-03-27 엘지전자 주식회사 근접센서를 이용하는 휴대 단말기 및 그 제어방법
US8943560B2 (en) 2008-05-28 2015-01-27 Microsoft Corporation Techniques to provision and manage a digital telephone to authenticate with a network
US8154435B2 (en) 2008-08-22 2012-04-10 Microsoft Corporation Stability monitoring using synthetic aperture radar
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
US8237666B2 (en) 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
US9134798B2 (en) 2008-12-15 2015-09-15 Microsoft Technology Licensing, Llc Gestures, interactions, and common ground in a surface computing environment
US20100192102A1 (en) 2009-01-29 2010-07-29 International Business Machines Corporation Displaying radial menus near edges of a display area
WO2010101697A2 (en) 2009-02-06 2010-09-10 Oculis Labs, Inc. Video-based privacy supporting system
US20100306716A1 (en) 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
KR20110010906A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US20150301167A1 (en) 2009-12-18 2015-10-22 Christopher Gary Sentelle Detection of movable objects
US20110181510A1 (en) 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
US9335825B2 (en) 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
CN102754049B (zh) 2010-02-11 2016-03-16 惠普发展公司,有限责任合伙企业 输入命令
US20120194551A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user-action based command and control of external devices
US9477324B2 (en) 2010-03-29 2016-10-25 Hewlett-Packard Development Company, L.P. Gesture processing
EP2385450A1 (de) 2010-05-07 2011-11-09 Research In Motion Limited Tragbare elektronische Vorrichtung und Steuerungsverfahren dafür
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US20110304541A1 (en) 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures
US20110310005A1 (en) 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
US8508347B2 (en) 2010-06-24 2013-08-13 Nokia Corporation Apparatus and method for proximity based input
US20120032834A1 (en) 2010-08-09 2012-02-09 Weeks Steven V Use of accelerometer and ability to disable power switch for tamper protection and theft tracking
JP2012058921A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8483617B2 (en) 2010-09-30 2013-07-09 Broadcom Corporation Portable computing device with high-speed data communication
US9195345B2 (en) 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
US8898793B2 (en) 2011-01-14 2014-11-25 Nokia Corporation Method and apparatus for adjusting context-based factors for selecting a security policy
US8761437B2 (en) 2011-02-18 2014-06-24 Microsoft Corporation Motion recognition
US9104239B2 (en) 2011-03-09 2015-08-11 Lg Electronics Inc. Display device and method for controlling gesture functions using different depth ranges
US8994499B2 (en) 2011-03-16 2015-03-31 Apple Inc. Locking and unlocking a mobile device using facial recognition
US20120270564A1 (en) 2011-04-19 2012-10-25 Qualcomm Incorporated Methods and apparatuses for use in a mobile device to detect signaling apertures within an environment
US20120280900A1 (en) 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US20130159940A1 (en) 2011-08-22 2013-06-20 International Technological University Gesture-Controlled Interactive Information Board
US20130106898A1 (en) 2011-10-26 2013-05-02 Google Inc. Detecting object moving toward or away from a computing device
WO2013141923A2 (en) 2011-12-20 2013-09-26 Sadar 3D, Inc. Scanners, targets, and methods for surveying
US9207852B1 (en) 2011-12-20 2015-12-08 Amazon Technologies, Inc. Input mechanisms for electronic devices
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
US8854433B1 (en) * 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9392421B2 (en) 2012-05-23 2016-07-12 Qualcomm Incorporated Systems and methods for group communication using a mobile device with mode depending on user proximity or device position
DE102012014910A1 (de) 2012-07-27 2014-01-30 Volkswagen Aktiengesellschaft Bedienschnittstelle, Verfahren zum Anzeigen einer eine Bedienung einer Bedienschnittstelle erleichternden Information und Programm
US9235241B2 (en) 2012-07-29 2016-01-12 Qualcomm Incorporated Anatomical gestures detection system using radio signals
KR20140027837A (ko) 2012-08-27 2014-03-07 삼성전자주식회사 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법
KR102051418B1 (ko) 2012-09-28 2019-12-03 삼성전자주식회사 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
US11099652B2 (en) 2012-10-05 2021-08-24 Microsoft Technology Licensing, Llc Data and user interaction based on device proximity
US20140118257A1 (en) 2012-10-29 2014-05-01 Amazon Technologies, Inc. Gesture detection systems
TW201419036A (zh) 2012-11-06 2014-05-16 Pixart Imaging Inc 感測元件陣列、控制感測裝置的方法以及相關電子裝置
TWI471756B (zh) 2012-11-16 2015-02-01 Quanta Comp Inc 虛擬觸控方法
US9075429B1 (en) 2012-12-19 2015-07-07 Amazon Technologies, Inc. Distortion correction for device display
US8996516B2 (en) 2013-01-02 2015-03-31 Google Inc. Adjacent search results exploration
DE112014000441T5 (de) * 2013-01-15 2015-10-15 David Holz Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation
US10261612B2 (en) 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US9448634B1 (en) 2013-03-12 2016-09-20 Kabam, Inc. System and method for providing rewards to a user in a virtual space based on user performance of gestures
US11044451B2 (en) 2013-03-14 2021-06-22 Jawb Acquisition Llc Proximity-based control of media devices for media presentations
US9065932B2 (en) 2013-05-10 2015-06-23 Blackberry Limited Device for providing notifications while mated with a carrying case
US9389641B2 (en) 2013-05-10 2016-07-12 Blackberry Limited Carrying case with peek functionality
KR102517425B1 (ko) 2013-06-27 2023-03-31 아이사이트 모빌 테크놀로지 엘티디 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법
US9338116B2 (en) 2013-06-28 2016-05-10 Blackberry Limited Device and method for displaying and interacting with display objects
US20150070263A1 (en) 2013-09-09 2015-03-12 Microsoft Corporation Dynamic Displays Based On User Interaction States
US20150077345A1 (en) * 2013-09-16 2015-03-19 Microsoft Corporation Simultaneous Hover and Touch Interface
KR101641091B1 (ko) 2013-09-23 2016-07-20 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법
US20150088283A1 (en) 2013-09-24 2015-03-26 Fibar Group sp. z o.o. Touch-less swipe control
US10591969B2 (en) 2013-10-25 2020-03-17 Google Technology Holdings LLC Sensor-based near-field communication authentication
US9851896B2 (en) 2013-12-17 2017-12-26 Google Inc. Edge swiping gesture for home navigation
US20150205358A1 (en) * 2014-01-20 2015-07-23 Philip Scott Lyren Electronic Device with Touchless User Interface
DE102014202490A1 (de) 2014-02-12 2015-08-13 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe
KR101859311B1 (ko) 2014-02-24 2018-05-18 소니 주식회사 출력을 최적화하기 위한 스마트 착용형 디바이스들 및 방법들
KR102222561B1 (ko) 2014-03-27 2021-03-05 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
US9921657B2 (en) 2014-03-28 2018-03-20 Intel Corporation Radar-based gesture recognition
US10409382B2 (en) 2014-04-03 2019-09-10 Honda Motor Co., Ltd. Smart tutorial for gesture control system
US10528195B2 (en) 2014-04-30 2020-01-07 Lg Innotek Co., Ltd. Touch device, wearable device having the same and touch recognition method
KR20150129423A (ko) 2014-05-12 2015-11-20 삼성전자주식회사 전자 장치 및 전자 장치의 제스처 인식 방법 및 전자 장치
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
KR101598771B1 (ko) 2014-06-11 2016-03-02 주식회사 슈프리마에이치큐 얼굴 인식 생체 인증 방법 및 장치
WO2015196063A1 (en) 2014-06-19 2015-12-23 Robert Bosch Gmbh System and method for speech-enabled personalized operation of devices and services in multiple operating environments
JP6282188B2 (ja) 2014-07-04 2018-02-21 クラリオン株式会社 情報処理装置
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
WO2016036155A1 (en) 2014-09-04 2016-03-10 Samsung Electronics Co., Ltd. Method of providing user with battery power notification in mobile device and mobile device therefor
US9633497B2 (en) 2014-09-05 2017-04-25 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Systems and methods for medical monitoring device gesture control lockout
US11137490B2 (en) 2014-09-16 2021-10-05 Teknologian Tutkimuskeskus Vtt Navigational aid with adaptive radar
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
JP6249919B2 (ja) 2014-10-06 2017-12-20 三菱電機株式会社 操作入力装置
US10061509B2 (en) 2014-10-09 2018-08-28 Lenovo (Singapore) Pte. Ltd. Keypad control
US20160150124A1 (en) 2014-11-24 2016-05-26 Kyocera Document Solutions Inc. Image Forming Apparatus with User Identification Capabilities
US20160306034A1 (en) 2014-12-23 2016-10-20 Infineon Technologies Ag RF System with an RFIC and Antenna System
US10613637B2 (en) 2015-01-28 2020-04-07 Medtronic, Inc. Systems and methods for mitigating gesture input error
US9817109B2 (en) 2015-02-27 2017-11-14 Texas Instruments Incorporated Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution
JP6524717B2 (ja) 2015-03-04 2019-06-05 株式会社リコー 電子機器、通信モード制御方法および通信モード制御プログラム
US20160275348A1 (en) 2015-03-17 2016-09-22 Motorola Mobility Llc Low-power iris authentication alignment
US9904409B2 (en) 2015-04-15 2018-02-27 Samsung Electronics Co., Ltd. Touch input processing method that adjusts touch sensitivity based on the state of a touch object and electronic device for supporting the same
WO2016170854A1 (ja) 2015-04-22 2016-10-27 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP3289434A1 (de) 2015-04-30 2018-03-07 Google LLC Weitfeldradarbasierte gestenerkennung
US10310620B2 (en) 2015-04-30 2019-06-04 Google Llc Type-agnostic RF signal representations
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
DE102015210130A1 (de) 2015-06-02 2016-12-08 Volkswagen Aktiengesellschaft Fortbewegungsmittel, Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei Interaktion mit einer Anwenderschnittstelle
CN106503004B (zh) 2015-09-07 2020-09-11 腾讯科技(深圳)有限公司 一种信息处理方法及装置、终端
US9629201B2 (en) 2015-09-21 2017-04-18 Qualcomm Incorporated Using Wi-Fi as human control interface
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US20170097684A1 (en) 2015-10-06 2017-04-06 Google, Inc. Compressed Sensing for Gesture Tracking and Recognition with Radar
CN106339076B (zh) 2015-10-22 2019-11-15 北京智谷睿拓技术服务有限公司 基于动作识别的控制方法及控制装置
US9990078B2 (en) 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
DE102016100064B4 (de) 2016-01-04 2017-11-23 Volkswagen Aktiengesellschaft Adative Anzeige in B-Säule
US10095876B2 (en) 2016-02-09 2018-10-09 Rovi Guides, Inc. Systems and methods for allowing a user to access blocked media
CN105607745A (zh) 2016-03-16 2016-05-25 京东方科技集团股份有限公司 显示控制电路、显示控制方法和显示装置
US20170289766A1 (en) * 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Digital Assistant Experience based on Presence Detection
US10022613B2 (en) 2016-05-02 2018-07-17 Bao Tran Smart device
US20170329412A1 (en) 2016-05-16 2017-11-16 Google Inc. Systems and Methods of Gesture-Based Control
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
KR102620138B1 (ko) 2016-06-02 2024-01-03 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
US10791213B2 (en) 2016-06-14 2020-09-29 Hand Held Products, Inc. Managing energy usage in mobile devices
US11275446B2 (en) 2016-07-07 2022-03-15 Capital One Services, Llc Gesture-based user interface
US10086267B2 (en) 2016-08-12 2018-10-02 Microsoft Technology Licensing, Llc Physical gesture input configuration for interactive software and video games
US10416777B2 (en) 2016-08-16 2019-09-17 Microsoft Technology Licensing, Llc Device manipulation using hover
US10754416B2 (en) 2016-11-14 2020-08-25 Logitech Europe S.A. Systems and methods for a peripheral-centric augmented/virtual reality environment
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
US10845477B2 (en) 2017-05-10 2020-11-24 Google Llc Power management using a low-power radar
CN111194444A (zh) 2017-05-15 2020-05-22 微软技术许可有限责任公司 基于指纹传感器的设备唤醒
US11216547B2 (en) 2017-05-15 2022-01-04 Microsoft Technology Licensing, Llc Headset with fingerprint authentication
WO2019027422A1 (en) 2017-07-31 2019-02-07 Hewlett-Packard Development Company, L.P. HEURISTIC-BASED ACOUSTIC EMISSION AND ENERGY CONSERVATION
KR20200032228A (ko) 2017-08-09 2020-03-25 더 보드 오브 트러스티즈 오프 더 리랜드 스탠포드 쥬니어 유니버시티 인터랙티브 생체 터치 스캐너
CN109491496A (zh) 2017-09-12 2019-03-19 精工爱普生株式会社 头部佩戴型显示装置和头部佩戴型显示装置的控制方法
US10725161B2 (en) 2017-12-15 2020-07-28 Google Llc Seamless authentication using radar
JP6900133B2 (ja) 2018-01-25 2021-07-07 三菱電機株式会社 ジェスチャー操作装置およびジェスチャー操作方法
US11558626B2 (en) 2018-02-20 2023-01-17 Netgear, Inc. Battery efficient wireless network connection and registration for a low-power device
CN112235452B (zh) 2018-04-28 2022-04-12 华为技术有限公司 一种灭屏显示的方法及电子设备
US10284541B1 (en) 2018-07-09 2019-05-07 Capital One Services, Llc System and method for generating enhanced distributed online registry
US11269428B2 (en) 2018-09-09 2022-03-08 Microsoft Technology Licensing, Llc Changing a mode of operation of a computing device by a pen device
US11417163B2 (en) 2019-01-04 2022-08-16 Byton North America Corporation Systems and methods for key fob motion based gesture commands
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
EP3991067A1 (de) 2019-06-26 2022-05-04 Google LLC Auf radar basierende authentifizierungsstatusrückmeldung
US11604891B2 (en) 2019-07-17 2023-03-14 Motorola Mobility Llc Displaying sensitive content based on whether others are around user
WO2021021224A1 (en) 2019-07-26 2021-02-04 Google Llc Context-sensitive control of radar-based gesture-recognition
EP3966662B1 (de) 2019-07-26 2024-01-10 Google LLC Reduzierung eines zustands basierend auf imu und radar
JP7316383B2 (ja) 2019-07-26 2023-07-27 グーグル エルエルシー Imuおよびレーダーを介した認証管理
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
KR20240026524A (ko) 2019-07-26 2024-02-28 구글 엘엘씨 인증된 상태 유지하기
WO2021021220A1 (en) 2019-07-26 2021-02-04 Google Llc Authentication management through imu and radar
EP3811187B1 (de) 2019-08-30 2021-10-06 Google LLC Eingabeverfahren für mobile vorrichtungen
WO2021040749A1 (en) 2019-08-30 2021-03-04 Google Llc Detecting and processing unsuccessfully recognized or unsuccessfully utilized non-contact gestures for a computing system
KR102661485B1 (ko) 2019-08-30 2024-04-29 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
CN113874812A (zh) 2019-08-30 2021-12-31 谷歌有限责任公司 用于多输入模式的输入模式通知
WO2021040747A1 (en) 2019-08-30 2021-03-04 Google Llc Methods for reliable acceptance of user non-contact gesture inputs for a mobile device
US20210103337A1 (en) 2019-10-03 2021-04-08 Google Llc Facilitating User-Proficiency in Using Radar Gestures to Interact with an Electronic Device

Also Published As

Publication number Publication date
US20200264765A1 (en) 2020-08-20
DE202016008195U1 (de) 2017-06-01
CN107391004B (zh) 2020-11-06
GB2554957B (en) 2020-07-22
GB202007255D0 (en) 2020-07-01
GB2582083A (en) 2020-09-09
GB2582083B (en) 2021-03-03
WO2017200571A1 (en) 2017-11-23
US11531459B2 (en) 2022-12-20
US20210232303A1 (en) 2021-07-29
CN107391004A (zh) 2017-11-24
US11003345B2 (en) 2021-05-11
GB2554957A (en) 2018-04-18
GB201621332D0 (en) 2017-02-01
CN112462986A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
DE102016124419A1 (de) Gestenbasierte steuerung einer benutzerschnittstelle
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE202014103258U1 (de) Mobiles Endgerät
DE112015004021T5 (de) Elektronische touch-kommunikation
DE202013012304U1 (de) Mobiles Endgerät
DE112015002463T5 (de) Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung
DE102011083760A1 (de) Blinde navigation für berührungsschnittstellen
DE102018116244A1 (de) Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE112019006699T5 (de) Steuerung entfernter vorrichtungen unter verwendung von benutzerschnittstellenvorlagen
DE202011110758U1 (de) Mobiles Endgerät
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE112016005657T5 (de) Verwendung von Beschleunigungssensoreingaben zum Ändern des Betriebszustands eines wandelbaren Computergeräts
DE202014011064U1 (de) Mobiles Endgerät
EP2350799A1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
DE202014010551U1 (de) Mobiles Endgerät
DE202013012353U1 (de) Mobiles Endgerät und Steuerverfahren dafür
DE202011110922U1 (de) Mobiles Endgerät
DE102013002891A1 (de) Informationswiedergabesystem für ein Fahrzeug und Verfahren zum Bereitstellen von Informationen für den Benutzer eines Fahrzeugs
DE202011109296U1 (de) Vorrichtung zur Bereitstellung eines visuellen Übergangs zwischen Bildschirmen
DE102019107549A1 (de) Nachrichtenort basierend auf Körperteilort
EP3695293A1 (de) Verfahren zur bereitstellung einer haptischen rückmeldung an einen bediener einer berührungssensitiven anzeigeeinrichtung
DE102009013922A1 (de) Verfahren zur Bedienung eines Spacemenüs und ein elektronisches Gerät mit einem funktionalen Spacemenü
DE102020105074A1 (de) Verfahren und Systeme zur Applikations-Steuerung bei einem klappbaren elektronischen Gerät
DE112015005511T5 (de) Mehrzweck-anwendungsstartoberfläche

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R138 Derivation of utility model

Ref document number: 202016008195

Country of ref document: DE

R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final