DE102022104709A1 - Ultrabreitband zum Identifizieren und Steuern eines weiteren Geräts - Google Patents

Ultrabreitband zum Identifizieren und Steuern eines weiteren Geräts Download PDF

Info

Publication number
DE102022104709A1
DE102022104709A1 DE102022104709.1A DE102022104709A DE102022104709A1 DE 102022104709 A1 DE102022104709 A1 DE 102022104709A1 DE 102022104709 A DE102022104709 A DE 102022104709A DE 102022104709 A1 DE102022104709 A1 DE 102022104709A1
Authority
DE
Germany
Prior art keywords
command
uwb
signal
input
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022104709.1A
Other languages
English (en)
Inventor
Philip John Jakes
John Carl Mese
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102022104709A1 publication Critical patent/DE102022104709A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10297Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves arrangements for handling protocols designed for non-contact record carriers such as RFIDs NFCs, e.g. ISO/IEC 14443 and 18092
    • G06K7/10306Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves arrangements for handling protocols designed for non-contact record carriers such as RFIDs NFCs, e.g. ISO/IEC 14443 and 18092 ultra wide band
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10366Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications
    • G06K7/10376Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being adapted for being moveable
    • G06K7/10405Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being adapted for being moveable the interrogation device including an arrangement for sensing environmental parameters, such as a temperature or acceleration sensor, e.g. used as an on/off trigger or as a warning means
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q5/00Arrangements for simultaneous operation of antennas on two or more different wavebands, e.g. dual-band or multi-band arrangements
    • H01Q5/20Arrangements for simultaneous operation of antennas on two or more different wavebands, e.g. dual-band or multi-band arrangements characterised by the operating wavebands
    • H01Q5/28Arrangements for establishing polarisation or beam width over two or more different wavebands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/68Gesture-dependent or behaviour-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • H04W64/003Locating users or terminals or network equipment for network management purposes, e.g. mobility management locating network equipment
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/70Device selection
    • G08C2201/71Directional beams

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

In einem Aspekt kann ein erstes Gerät einen Prozessor, einen Ultrabreitband(UWB)-Sendeempfänger, einen Orientierungssensor und einen Speicher umfassen. Der Speicher kann Anweisungen enthalten, die ausführbar sind, um mit dem UWB-Sendeempfänger ein erstes UWB-Signal an ein zweites Gerät zu senden. Die Anweisungen können auch ausführbar sein, um mit dem UWB-Sendeempfänger ein zweites UWB-Signal von dem zweiten Gerät als Antwort auf das erste UWB-Signal zu empfangen. Die Anweisungen können dann ausführbar sein, um basierend auf dem zweiten UWB-Signal einen Standort des zweiten Geräts zu bestimmen, von dem Orientierungssensor eine Eingabe zu empfangen und basierend auf der Eingabe festzustellen, dass das erste Gerät auf das zweite Gerät zeigt. Die Anweisungen können dann ausführbar sein, um an dem ersten Gerät einen Befehl zum Steuern des zweiten Geräts zu empfangen und basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät auf das zweite Gerät zeigt, den Befehl an das zweite Gerät zu senden.

Description

  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft technisch innovative, nicht-routinemäßige Lösungen, die notwendigerweise auf der Computertechnologie basieren und die konkrete technische Verbesserungen hervorbringen. Insbesondere betrifft die Erfindung Techniken zur Nutzung des Ultrabreitbands (UWB) zum Identifizieren und Steuern eines anderen Geräts.
  • HINTERGRUND
  • Wie hier festgestellt wird, verfügen die meisten modernen elektronischen Geräte nicht über Funktionen, die eine ausreichend feinkörnige Standortverfolgung in Innenräumen ermöglichen. Ebenso lässt sich feststellen, dass es oft schwierig und komplex ist für Benutzer, durch mehrere Ebenen von Bildschirmmenüs zu navigieren, um unter den vielen Internet-of-Things(loT)-Geräten, die gegebenenfalls verfügbar sind, die Bedienelemente für ein bestimmtes IoT-Gerät zu finden, nur um dieses IoT-Gerät zu bedienen bzw. zu steuern. Derzeit gibt es keine adäquaten Lösungen für die vorgenannten computerbezogenen technologischen Probleme.
  • ÜBERSICHT
  • Dementsprechend umfasst ein erstes Gerät gemäß einem Aspekt der vorliegenden Erfindung wenigstens einen Prozessor, einen Ultrabreitband(UWB)-Sendeempfänger, auf den der wenigstens eine Prozessor zugreifen kann, einen Orientierungssensor, auf den der wenigstens eine Prozessor zugreifen kann, und einen Speicher, auf den der wenigstens eine Prozessor zugreifen kann. Der Speicher enthält Anweisungen, die von dem wenigstens einen Prozessor ausführbar sind, um mit dem UWB-Sendeempfänger ein erstes UWB-Signal an ein zweites Gerät zu senden, das sich von dem ersten Gerät unterscheidet. Die Anweisungen sind auch ausführbar, um als Antwort auf das erste UWB-Signal ein zweites UWB-Signal von dem zweiten Gerät mit dem UWB-Sendeempfänger zu empfangen. Die Anweisungen sind dann ausführbar, um basierend auf dem zweiten UWB-Signal einen Standort des zweiten Geräts zu bestimmen, eine Eingabe von dem Orientierungssensor zu empfangen und basierend auf der Eingabe zu bestimmen, dass das erste Gerät basierend auf einer vorgegebenen Achse des ersten Geräts auf das zweite Gerät zeigt. Die Anweisungen sind ferner ausführbar, um einen Befehl an dem ersten Gerät zu empfangen, um das zweite Gerät zu steuern, und basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät basierend auf der vorgebebenen Achse des ersten Geräts auf das zweite Gerät zeigt, den Befehl an das zweite Gerät zu übertragen.
  • In einigen Implementierungsbeispielen kann der Befehl generiert werden basierend darauf, dass von dem ersten Gerät erkannt wird, dass dieses mit Gesten in der Luft bewegt wird. Zum Beispiel können die Anweisungen ausführbar sein für die Feststellung, dass das erste Gerät mit Gesten in der Luft bewegt wird, den Orientierungssensor zu benutzen.
  • In einigen Implementierungsbeispielen kann das erste Gerät auch einen Bildschirm aufweisen. Der Befehl kann dann basierend auf einer Eingabe in eine auf dem Bildschirm präsentierte grafische Benutzeroberfläche (GUI) und/oder basierend auf dem Empfang eines Berührungssignals an dem Bildschirm an einer Stelle desselben, die keinen Selektor bzw. kein Auswahlwerkzeug anzeigt, erfolgen.
  • Der Befehl selbst kann über ein Netzwerk übertragen werden, das kein UWB nutzt, und/oder mit einem UWB-Sendeempfänger. Es ist auch zu beachten, dass der Orientierungssensor in bestimmten Beispielen ein Gyroskop umfassen kann.
  • Weiterhin können in einigen Implementierungsbeispielen die Anweisungen ausführbar sein, um das erste UWB-Signal mit dem UWB-Sendeempfänger an mehrere andere Geräte zu senden, die sich von dem ersten Gerät unterscheiden. Die Anweisungen können auch ausführbar sein, um mit dem UWB-Sendeempfänger das zweite UWB-Signal von dem zweiten Gerät als Antwort auf der erste UWB-Signal und ein drittes UWB-Signal von einem dritten Gerät als Antwort auf das erste UWB-Signal zu empfangen. Das dritte Gerät kann sich von dem ersten und dem zweiten Gerät unterscheiden. Die Anweisungen können dann ausführbar sein, um den Standort des zweiten Geräts basierend auf dem zweiten UWB-Signal und den Standort des dritten Geräts basierend auf dem dritten UWB-Signal zu bestimmen. In diesen Implementierungen können die Anweisungen dann ausführbar sein, um eine Eingabe von dem Orientierungssensor zu empfangen und basierend auf der Eingabe und basierend auf dem jeweiligen Standort des zweiten und des dritten Geräts zu bestimmen, dass das erste Gerät basierend auf der vorgegebenen Achse des ersten Geräts auf das zweite Gerät zeigt. Diese Anweisungen können dann ausführbar sein, um an dem ersten Gerät den Befehl zum Steuern des zweiten Geräts zu empfangen und basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät basierend auf der vorgegebenen Achse des ersten Geräts auf das zweite Gerät zeigt, den Befehl an das zweite Gerät zu übertragen.
  • Es sollte auch beachtet werden, dass in einigen Ausführungsbeispielen das erste Signal als Reaktion auf eine über den Orientierungssensor festgestellte Änderung der Orientierung des ersten Geräts übertragen werden kann. Zusätzlich oder alternativ kann das erste Signal als Reaktion auf eine Berührungseingabe in einen Bildschirm an dem ersten Gerät und/oder als Reaktion auf eine Eingabe zum Beleuchten des Bildschirms übertragen werden.
  • In einem weiteren Aspekt umfasst ein Verfahren die Übertragung eines ersten UWB-Signals an einem ersten Gerät mit einem Ultrabreitband(UWB)-Sendeempfänger an ein sich von dem ersten Gerät unterscheidendes zweites Gerät. Das Verfahren umfasst auch das Empfangen eines zweiten UWB-Signals, das als Antwort auf das erste UWB-Signal erzeugt wurde, von dem zweiten Gerät mit dem UWB-Sendeempfänger. Das Verfahren umfasst anschließend das Bestimmen eines Standorts des zweiten Geräts an dem ersten Gerät basierend auf dem zweiten UWB-Signal. Das Verfahren umfasst anschließend das Empfangen einer Eingabe von einem Trägheitssensor an dem ersten Gerät und basierend auf der Eingabe die Feststellung an dem ersten Gerät, dass das erste Gerät in Richtung auf das zweite Gerät zeigt. Das Verfahren umfasst anschließend das Empfangen eines Befehls an dem ersten Gerät zum Steuern des zweiten Geräts und basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät in Richtung auf das zweite Gerät zeigt, die Übertragung des Befehls an das zweite Gerät.
  • In einigen Beispielen kann das Verfahren beinhalten, dass basierend darauf, dass eine Längsachse des ersten Geräts in Richtung auf das zweite Gerät orientiert ist, festgestellt wird, dass das erste Gerät in Richtung auf das zweite Gerät orientiert ist.
  • In verschiedenen Implementierungsbeispielen kann auch der Befehl selbst basierend darauf generiert werden, dass das erste Gerät auf das zweite Gerät gerichtet ist, und/oder basierend auf einer Eingabe in eine grafische Benutzeroberfläche (GUI), die auf einem Bildschirm präsentiert wird, wobei die GUI von dem ersten Gerät als Reaktion darauf präsentiert werden kann, dass das erste Gerät erkennt, dass es in Richtung auf das zweite Gerät zeigt.
  • Auch kann der Befehl in bestimmten Beispielen an dem ersten Gerät identifiziert werden, basierend darauf, dass das erste Gerät erkennt, dass es im freien Raum mit Gesten in zwei Richtungen bewegt wird, wobei der Befehl ein AN/AUS-Befehl sein kann. Zusätzlich oder alternativ kann der Befehl an dem ersten Gerät identifiziert werden, basierend darauf, dass die Ausführung von Gesten mit dem ersten Gerät relativ zu einer Längsachse im Uhrzeigersinn oder entgegen dem Uhrzeigersinn erkannt wird, wobei der Befehl lauten kann, einen Parameter an einer Skala einzustellen.
  • Weiterhin kann der Befehl in einigen Beispielen basierend auf Berechtigungen übertragen werden, die für einen Benutzer des ersten Geräts zum Steuern des zweiten Geräts festgelegt werden.
  • In einem noch weiteren Aspekt enthält wenigstens ein computerlesbares Speichermedium (CRSM), das kein flüchtiges Signal ist, Anweisungen, die von dem wenigstens einen Prozessor ausgeführt werden können, um von einem ersten Gerät mit einem Ultrabreitband(UWB)-Sendeempfänger ein erstes UWB-Signal an ein zweites Gerät zu senden, das sich von dem ersten Gerät unterscheidet. Die Anweisungen sind auch ausführbar, um mit dem UWB-Sendeempfänger ein zweites UWB-Signal von dem zweiten Gerät als Antwort auf das erste UWB-Signal zu empfangen. Die Anweisungen können dann ausgeführt werden, um basierend auf dem zweiten UWB-Signal mit dem ersten Gerät einen Standort des zweiten Geräts zu bestimmen. Die Anweisungen können ferner ausgeführt werden, um an dem ersten Gerät einen Befehl zum Steuern des zweiten Geräts zu empfangen und basierend auf der Feststellung, dass das erste Gerät in Richtung auf das zweite Gerät orientiert ist, den Befehl an das zweite Gerät zu übertragen.
  • In einigen Implementierungsbeispielen kann das zweite Signal einen dem zweiten Gerät zugeordneten Gerätetyp, einen dem zweiten Gerät zugeordneten aktuellen Gerätezustand und/oder einen oder mehrere Befehle angeben, die an das zweite Gerät erteilt werden können. Solchermaßen kann der Befehl in diesen Implementierungen auf der Grundlage von mindestens einem Fakt erteilt werden, den das zweite Signal angibt.
  • Details der vorliegenden Prinzipien werden nachstehend sowohl in konstruktions- als auch funktionsbezogener Hinsicht beschrieben, wobei auf die anliegenden Zeichnungsfiguren Bezug genommen wird, in denen gleiche oder ähnliche Elemente gleich oder ähnlich gekennzeichnet sind.
  • Figurenliste
    • 1 zeigt ein Blockdiagramm eines Beispielsystems gemäß vorliegender Erfindung;
    • 2 zeigt ein Blockdiagramm eines Beispielnetzwerks von Geräten gemäß vorliegender Erfindung;
    • 3 ist eine schematische Darstellung eines Benutzers, der ein IoT-Gerät gemäß vorliegender Erfindung steuert/bedient;
    • 4 zeigt eine Beispiellogik im Format eines Beispiel-Flussdiagramms, die von einem ersten Gerät gemäß vorliegender ausgeführt werden kann;
    • 5 bis 8 zeigen Beispiel-GUIs, die auf einem Bildschirm des ersten Geräts dargestellt werden können, das erfindungsgemäß für eine Kommunikation mit anderen Geräten über UWB konfiguriert ist;
    • 9 zeigt Beispiele zum Einrichten einer GUI, die auf einem Bildschirm dargestellt werden kann, um eine oder mehrere Einstellungen des ersten Geräts vorzunehmen, so dass dieses in Übereinstimmung mit den vorliegenden Prinzipien arbeitet; und
    • 10 zeigt ein Beispiel einer UWB-Ortungsgenauigkeit in Übereinstimmung mit den vorliegenden Prinzipien.
  • DETAILBESCHREIBUNG
  • Die nachstehende Detailbeschreibung bezieht sich unter anderem auf die Nutzung von UWB zur Standort- und Richtungsverfolgung mit hoher Genauigkeit zwischen zwei Geräten. Ein Benutzer kann dadurch intelligente Haushaltsgeräte steuern, indem er ein UWB-fähiges Steuergerät (z.B. ein Telefon oder einen Schlüsselanhänger) auf eine Lampe oder ein anderes intelligentes Haushaltsgerät richtet, um dieses basierend auf dessen über UWB ermittelten Standort zu steuern. Die Identifizierung des anderen Geräts kann also durch UWB-Erkennung und Nutzung von Gyroskop-Informationen erfolgen, die hilfreich sind beim Erkennen der Ausrichtung und um die Absicht des Benutzers zu übersetzen, wie er das Gerät ändern will.
  • Im Falle eines umschaltbaren Geräts, wie zum Beispiel einer Lampe, kann auf das Gerät gezeigt werden, um den Zustand des Geräts umzuschalten (von EIN auf AUS oder von AUS auf EIN). Bei komplizierteren Geräten mit mehreren Einstellungen kann das Zeigen auf ein Gerät gefolgt sein von einer Richtungsgeste (z.B. nach oben, nach unten, im Uhrzeigersinn, entgegen dem Uhrzeigersinn), um einen Befehl zu kommunizieren.
  • Zusätzlich könnte die Steuerung von Geräten in einigen Beispielen nach Person, Zeit, Tag oder anderen Faktoren eingeschränkt werden. Zum Beispiel dürfen nur Erwachsene den Thermostat einstellen, aber sämtliche Familienmitglieder das Licht ein- und ausschalten.
  • In einigen Beispielen kann das steuernde Gerät eine Schnittstelle mit Wi-Fibasierten intelligenten Haussteuerungen bzw. Smart Home Controls/Protokollen bilden. In anderen Beispielen kann das steuernde Gerät den Befehl über UWB übertragen.
  • In jedem Fall können in verschiedenen Implementierungen mindestens zwei Geräte im Spiel sein - ein „Sendegerät“ Tx und ein „Empfangsgerät“ Rx. Das Rx kann ganz einfach ein UWB-„Tag“ aufweisen, das bei Aktivierung dem Tx antworten kann. Diese Antwort könnte eine schlichte Bestätigung sein oder könnte detaillierte Informationen enthalten, die sich auf das Rx beziehen, zum Beispiel den Gerätetyp, den aktuellen Status (z.B. EIN/AUS) und/oder eine Beschreibung erlaubter Felder und Befehle. Das Tx kann dann die Informationen von dem Rx verarbeiten und nutzen, was über den (via UWB bestimmten) Standort des Rx bekannt ist, sowie weitere Rx-Info, um einen Steuerungsvorgang zu implementieren. Auch hier kann die Steuerungsmaßnahme wiederum über eine Wi-Fi-basierte Steuerung oder ein anderes Protokoll, das bereits zur Steuerung des Rx verwendet wird, weitergeleitet werden, oder es kann eine UWB-basierte Kommunikation genutzt werden, um die Steuerungsmaßnahme unter Umgehung des Wi-Fi-Mechanismus durchzuführen.
  • Bevor näher auf die Details der vorliegenden Techniken eingegangen wird, muss in Bezug auf hier erläuterten Computersysteme angemerkt werden, dass ein System Server- und Clientkomponenten umfassen kann, die über ein Netzwerk verbunden sind, so dass zwischen den Client- und Serverkomponenten Daten ausgetauscht werden können. Die Clientkomponenten können ein oder mehrere Computergeräte umfassen, u.a. Fernsehgeräte (z.B. Smart-TVs, internetfähige TVs), Computer wie Desktop-, Laptop- und Tablet-Computer, sogenannte konvertierbare Geräte (z.B. mit Tablet-Konfiguration und Laptop-Konfiguration) und andere Mobilgeräte, u.a. Smartphones. Diese Client-Geräte können als nicht einschränkendes Beispiel Betriebssysteme von Apple Inc., Cupertino CA., Google Inc., Mountain View, CA, oder Microsoft Corp., Redmond, WA, verwenden. Ebenfalls kann ein Unix®-Betriebssystem wie Linux® verwendet werden. Diese Betriebssysteme können einen oder mehrere Browser ausführen, z.B. Browser von Microsoft oder Mozilla, oder ein anderes Browserprogramm, das über ein Netzwerk wie das Internet, ein lokales Intranet oder ein virtuelles privates Netzwerk auf Webseiten und Anwendungen zugreifen kann, die von Internetservern gehostet werden.
  • Die hier verwendeten Anweisungen beziehen sich auf computerimplementierte Schritte zur Informationsverarbeitung in dem System. Anweisungen können in Software, Firmware oder Hardware oder Kombinationen davon implementiert werden und jede Art eines programmierten Schritts enthalten, der von Komponenten des Systems ausgeführt wird. Daher sind Komponenten, Blöcke, Module, Schaltungen und Schritte, die zur Veranschaulichung dienen, in Bezug auf ihre Funktionalität dargelegt.
  • Ein Prozessor kann ein Einchip- oder Mehrchip-Universalprozessor sein, der Logik mit Hilfe verschiedener Leitungen wie Adressleitungen, Datenleitungen und Steuerleitungen und mit Hilfe von Registern und Schieberegistern ausführen kann. Darüber hinaus können vorliegend beschriebene Logikblöcke, Logikmodule sowie Logikschaltungen mit einem Universalprozessor, einem digitalen Signalprozessor (DSP), einem feldprogrammierbaren Gate Array (FPGA) oder einer anderen programmierbaren Einrichtung wie eine anwendungsspezifische integrierte Schaltung (ASIC), eine diskrete Gate- oder Transistorlogik, diskrete Hardwarekomponenten oder Kombinationen davon ausgeführt werden, um die hier beschriebenen Funktionen zu auszuführen. Ein Prozessor kann auch durch eine Steuerung oder eine Zustandsmaschine oder eine Kombination von Datenverarbeitungseinrichtungen implementiert werden. Die vorliegend beschriebenen Verfahren können deshalb als Softwarebefehle implementiert werden, die von einem Prozessor, von geeignet konfigurierten anwendungsspezifischen integrierten Schaltungen (ASIC) oder feldprogrammierbaren Gate-Array (FPGA)-Modulen oder auf andere Weise ausgeführt werden, die dem Fachmann zweckdienlich erscheint. Die Softwareanweisungen können auch in einer nichtflüchtigen Einrichtung enthalten sein, die verkauft und/oder bereitgestellt wird und kein flüchtiges, sich ausbreitendes Signal und/oder ein Signal an sich ist (z.B. ein Festplattenlaufwerk, eine CD-ROM oder ein Flash-Laufwerk). Die Softwarecodeanweisungen können auch über das Internet heruntergeladen werden. Dementsprechend versteht es sich, dass eine Softwareanwendung zur Umsetzung der vorliegenden Prinzipien über ein Netzwerk wie das Internet von einem Server auf ein Gerät heruntergeladen werden kann, auch wenn eine solche Anwendung gegebenenfalls mit einem Gerät wie dem nachstehend beschriebenen System 100 verkauft wird.
  • Softwaremodule und/oder -anwendungen, die vorliegend anhand von Flussdiagrammen oder Benutzeroberflächen beschrieben sind, können verschiedene Sub-Routinen, Abläufe etc. enthalten. Ohne die Erfindung dadurch einzuschränken, kann Logik, die den Angaben entsprechend von einem bestimmten Modul auszuführen ist, auch auf andere Softwaremodule umverteilt und/oder zu einem einzigen Modul zusammengeführt und/oder in einer gemeinsam nutzbaren Bibliothek zur Verfügung gestellt werden.
  • Bei Implementierung in Software kann Logik in einer geeigneten Sprache geschrieben werden, zum Beispiel in Hypertext Markup Language (HTML)-5, in Java®/JavaScript, in C# oder C++, ohne Beschränkung hierauf, und kann auf einem computerlesbaren Medium gespeichert oder von einem computerlesbaren Medium übertragen werden, wie zum Beispiel einem Direktzugriffsspeicher (RAM), einem Nur-Lese-Speicher (ROM), einem elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM), einem Festplattenlaufwerk oder einem Solid-State-Laufwerk, einem Compact-Disk-Festwertspeicher (CD-ROM) oder einem anderen optischen Plattenspeicher wie eine Digital Versatile Disc (DVD), ein Magnetplattenspeicher oder andere Magnetspeichereinrichtungen, u.a. Wechseldatenträger etc.
  • In einem Beispiel kann ein Prozessor über seine Eingabeleitungen auf Informationen von einem Datenspeicher zugreifen, zum Beispiel von dem computerlesbaren Speichermedium, und/oder der Prozessor kann drahtlos auf Informationen von einem Internetserver zugreifen, indem ein drahtloser Sendeempfänger aktiviert wird, damit dieser Daten sendet und empfängt. Daten werden durch Schaltungen zwischen der Antenne und den Registern des Prozessors in charakteristischer Weise von anlogen Signalen in digitale Signale umgewandelt, wenn sie empfangen werden, und von digitalen in analoge Signale, wenn sie gesendet werden. Der Prozessor verarbeitet diese Daten dann über seine Schieberegister, um berechnete Daten für deren Darstellung auf dem Gerät an Ausgabeleitungen auszugeben.
  • Komponenten, die in einer Ausführungsform vorhanden sind, können in anderen Ausführungsformen in jeder geeigneten Kombination verwendet werden. So können beispielsweise beliebige der vorliegend beschriebenen und/oder in den Figuren dargestellten Komponenten zusammengefasst, untereinander vertauscht oder aus anderen Ausführungsformen ausgeschlossen werden.
  • „Ein System, das zumindest eines der Elemente A, B und C aufweist“ (ähnlich ein System, das zumindest eines der Elemente A, B oder C aufweist“ und „ein System, das zumindest ein Element von A, B, C aufweist“) umfasst Systeme, die A allein, B allein, C allein, A und B zusammen, A und C zusammen, B und C zusammen und/oder A, B und C zusammen aufweisen, etc.
  • Der Begriff „Schaltung“ oder „Schaltkreis“ kann in der Zusammenfassung, in der Beschreibung und/oder in den Ansprüchen vorkommen. Wie fachbekannt ist, umfasst der Begriff „ Schaltkreis“ sämtliche verfügbaren Integrationsstufen, z.B. von diskreten Logikschaltungen bis hin zur höchsten Stufe der Schaltungsintegration wie beispielsweise VLSI, und umfasst programmierbare Logikkomponenten, die für die Durchführung der Funktionen einer Ausführungsform programmiert sind, sowie Universal- oder Spezialprozessoren, die mit Anweisungen für die Durchführung solcher Funktionen programmiert sind.
  • Es wird nunmehr speziell auf 1 Bezug genommen. Diese zeigt ein Beispiel-Blockdiagramm eines Informationshandhabungssystems und/oder Computersystems 100, das ein Gehäuse für die nachstehend beschriebenen Komponenten hat. Zu beachten ist, dass das System 100 in einigen Ausführungsformen ein Desktop-Computersystem sein kann, z.B. eines aus der PC-Serie ThinkCentre® oder ThinkPad® von Lenovo (US) Inc., Morrisville, NC, oder ein Arbeitsplatzrechner, wie z.B. ThinkStation®, von Lenovo (US) Inc., Morrisville, NC. Wie aber aus der vorliegenden Beschreibung hervorgeht, können ein Clientgerät, ein Server oder eine andere Maschine gemäß den vorliegenden Prinzipien weitere Merkmale oder nur einige der Merkmale des Systems 100 aufweisen. Das System 100 kann beispielsweise auch eine Spielkonsole wie eine XBOX® sein, und/oder das System 100 kann ein mobiles Kommunikationsgerät wie ein Mobiltelefon, einen Notebook-Computer und/oder ein anderes computerisiertes Gerät umfassen.
  • Wie in 1 gezeigt ist, kann das System 100 ein sogenanntes Chipset 110 umfassen. Ein Chipset bezieht sich auf eine Gruppe von integrierten Schaltungen oder Chips, die so konzipiert sind, dass sie zusammenarbeiten. Chipsets werden normalerweise als Einzelprodukt vermarktet (wobei hier z.B. Chipsets der Marken INTEL®, AMD® etc. in Betracht zu ziehen sind).
  • In dem Beispiel von 1 hat das Chipset 110 eine bestimmte Architektur, die abhängig von Marke oder Hersteller bis zu einem gewissen Grad variieren kann. Die Architektur des Chipset 110 enthält eine Kern- und Speichersteuerungsgruppe 120 und einen I/O Controller Hub 150, die zum Beispiel über eine direkte Management-Schnittstelle oder eine direkte Medien-Schnittstelle (DMI) 142 oder eine Verbindungssteuerung 144 Informationen (z.B. Daten, Signale, Befehle etc.) austauschen. In dem Beispiel von 1 ist die DMI 142 eine Chip-zu-Chip-Schnittstelle (manchmal auch als Verbindung zwischen einer „Northbridge“ und einer „Southbridge“ bezeichnet).
  • Die Kern- und Speichersteuerungsgruppe 120 umfasst einen oder mehrere Prozessoren 122 (z.B. Einzelkern oder Multikern etc.) und einen Speichersteuerungs-Hub 126, die über einen Front Side Bus (FSB) 124 Informationen austauschen. Wie vorliegend beschrieben, können verschiedene Komponenten der Kern- und Speichersteuerungsgruppe 120 z.B. auf einem einzigen Prozessor-Chip integriert sein, um einen Chip herzustellen, der die Architektur im „Northbridge“-Stil verdrängt.
  • Der Speichersteuerungs-Hub 126 bildet eine Schnittstelle mit dem Speicher 140. Zum Beispiel kann der Speichersteuerungs-Hub 126 Unterstützung bieten für einen DDR-SDRAM-Speicher (z.B. DDR, DDR2, DDR3 etc.). Im Allgemeinen ist der Speicher 140 eine Art Direktzugriffsspeicher (RAM) und wird häufig als „Systemspeicher“ bezeichnet.
  • Der Speichersteuerungs-Hub 126 kann ferner eine Niederspannungs-Differential-Signalisierungsschnittstelle (LVDS) 132 aufweisen. Die LVDS 132 kann eine sogenannte LVDS-Display-Schnittstelle (LDI) zur Unterstützung einer Anzeigeeinrichtung 192 (z.B. einer CRT, eines Flachbildschirms, eines Projektors, einer berührungsaktivierten Leuchtdioden-Anzeigevorrichtung oder einer anderen Video-Anzeigevorrichtung etc.) umfassen. Ein Block 138 enthält einige Beispiele von Technologien, die über die LVDS-Schnittstelle 132 (z.B. Serial Digital Video, HDMI/DVI, DisplayPort) unterstützt werden können. Der Speichersteuerungs-Hub 126 enthält auch eine oder mehrere PCI-Express-Schnittstellen (PCI-E) 134, zum Beispiel für die Unterstützung diskreter Grafik 136. Diskrete Grafik mit einer PCI-E-Schnittstelle hat sich zu einem alternativen Ansatz für eine beschleunigte Grafikschnittstelle (AGP) entwickelt. Zum Beispiel kann der Speichersteuerungs-Hub 126 einen (x16)-PCI-E-Port mit 16 Lanes für eine externe PCI-E-basierte Grafikkarte (einschließlich z.B. einer oder mehrerer GPUs) aufweisen. Ein Beispielsystem kann einen AGP oder PCI-E zur Unterstützung von Grafik umfassen.
  • In Beispielen, in denen er verwendet wird, kann der I/O Hub Controller 150 eine Vielfalt von Schnittstellen aufweisen. Das Beispiel von 1 umfasst eine SATA-Schnittstelle 151, eine oder mehrere PCI-E-Schnittstellen 152 (optional eine oder mehrere Legacy-Schnittstellen), eine oder mehrere USB-Schnittstellen 153, eine LAN-Schnittstelle 154 (mehr allgemein eine Netzwerkschnittstelle für eine Kommunikation über wenigstens ein Netzwerk wie beispielsweise das Internet, ein WAN, ein LAN, ein Bluetooth-Netzwerk, das eine Bluetooth-5.0-Kommunikation nutzt, etc., unter Steuerung durch den(die) Prozessor(en) 122), eine Universal-I/O-Schnittstelle (GPIO) 155, eine Low-Pin-Count(LPC)-Schnittstelle 170, eine Power-Management-Schnittstelle 161, eine Taktgenerator-Schnittstelle 162, eine Audio-Schnittstelle 163 (z.B. für Lautsprecher 194 zur Audioausgabe), eine Total-Cost-of-Operation(TCO)-Schnittstelle 164, eine System-Management-Bus-Schnittstelle (z.B. eine Multi-Master-Serial-Computer-Bus-Schnittstelle) 165 und eine Serial-Peripheral-Flash-Memory/Controller-Schnittstelle (SPI Flash) 166, die in dem Beispiel von 1 das Basic Input/Output System (BIOS) 168 und den Boot Code 190 enthält. Hinsichtlich der Netzwerkverbindungen kann der I/O Hub Controller 150 integrierte Gigabit-Ethernet-Steuerleitungen enthalten, die mit einem PCI-E-Schnittstellen-Port gemultiplext sind. Andere Netzwerkfunktionen können unabhängig von einer PCI-E-Schnittstelle wirksam sein.
  • Die Schnittstellen des I/O Hub Controllers 150 können für eine Kommunikation mit verschiedenen Geräten, Netzwerken etc. sorgen. Wenn sie verwendet wird, sorgt die SATA-Schnittstelle 151 für das Lesen, Schreiben oder Lesen und Schreiben von Informationen auf einem oder mehreren Laufwerken 180, wie zum Beispiel HDDs, SDDs oder eine Kombination derselben. In jedem Fall aber sind die Laufwerke 180 zu verstehen als z.B. materielle, computerlesbare Speichermedien, die nichtflüchtig sind und keine Signale übertragen. Der I/O Hub Controller 150 kann auch eine Advanced-Host-Controller-Schnittstelle (AHIC) umfassen, um ein oder mehrere Laufwerke 180 zu unterstützen. Die PCI-E-Schnittstelle 152 ermöglicht drahtlose Verbindungen 182 zu Geräten, Netzwerken etc. Die USB-Schnittstelle 153 sorgt für Eingabevorrichtungen 184 wie Tastaturen bzw. Keyboards (KB), Mäuse und verschiedene andere Vorrichtungen (z.B. Kameras, Telefone, Speicher, Mediaplayer etc.).
  • In dem Beispiel von 1 sorgt die LPC-Schnittstelle 170 für die Verwendung einer oder mehrerer ASICs 171, eines Trusted Platform Module (TPM) 172, eines Super-I/O-Bausteins 173, eines Firmware Hub 174, einer BIOS-Unterstützung 175 sowie verschiedener Arten eines Speichers 176, wie z.B. ein ROM 177, ein Flash 178 und ein nichtflüchtiges RAM (NVRAM) 179. Was das TPM 172 betrifft, kann dieses Modul in Form eines Chip vorgesehen sein, der zum Authentifizieren von Software- und Hardwareeinrichtungen verwendet werden kann. Zum Beispiel kann das TPM geeignet sein für eine Plattform-Authentifizierung und kann verwendet werden zum Verifizieren, dass ein Zugang suchendes System das erwartete System ist.
  • Das System 100 kann derart konfiguriert sein, dass es nach dem Anschalten den Boot-Code 190 für das BIOS 168 ausführt, das in dem SPI-Flash 166 gespeichert ist, und danach unter Steuerung durch ein oder mehrere Betriebssysteme und Anwendungssoftware (z.B. in dem Systemspeicher 140 gespeichert) Daten verarbeitet. Ein Betriebssystem kann an vielfältigen Orten gespeichert sein, und der Zugriff kann zum Beispiel entsprechend den Anweisungen des BIOS 168 erfolgen.
  • Ferner kann das System 100 einen Ultrabreitband(UWB)-Sendeempfänger 191 umfassen, der konfiguriert ist zum Senden und Empfangen von Daten unter Verwendung von UWB-Signalen und eines oder mehrerer UWB-Protokolle, wie zum Beispiel Protokolle, die das FiRa Consortium festgelegt hat. Es versteht sich vorliegend, dass das UWB eine energiesparende Kommunikation mit kurzer Reichweite und Impulsen mit hoher Bandbreite über einen relativ großen Teil des Funkspektrums nutzen kann. Dadurch kann beispielsweise ein Ultra-Breitband-Signal/Impuls durch ein Funksignal mit einer Teilbandbreite von mehr als 20 % und/oder einer Bandbreite von mehr als 500 MHz erzeugt werden. In bestimmten Beispielen kann eine UWB-Kommunikation durch die Nutzung mehrerer Frequenzen (z.B. gleichzeitig) in dem Frequenzbereich von 3,1 bis 10,6 GHz stattfinden.
  • Zur Übertragung von UWB-Signalen gemäß den vorliegenden Prinzipien kann der Sendeempfänger 191 selbst zum Beispiel eine oder mehrere Vivaldi-Antennen und/oder ein verteiltes MIMO-Antennensystem ((Multiple-Input and Multiple-Output) Distributed Antenna System) umfassen. Es versteht sich ferner, dass verschiedene UWB-Algorithmen, Time-Difference-of-Arrival(TDoA)-Algorithmen und/oder Angle-of-Arrival(AoA)-Algorithmen verwendet werden können, so dass das System 100 die Entfernung zu einem anderen UWB-Sendeempfänger oder einem anderen Gerät, das mit dem UWB-Sendeempfänger an dem System 100 in Verbindung steht, oder deren Standort ermitteln kann.
  • Weiter bezugnehmend auf 1 kann das System 100 auch einen oder mehrere Trägheitssensoren 193 umfassen, einschließlich eines oder mehrerer Orientierungssensoren wie ein Gyroskop. Jedoch ist weiter zu beachten, dass ein Orientierungssensor im Einklang mit den vorliegenden Prinzipien auch durch den UWB-Sendeempfänger 191 selbst geschaffen werden könnte, da sich die Orientierung auch basierend auf einer UWB-Standortverfolgung bestimmen lässt. Unabhängig davon umfassen andere Arten von Sensoren, die in dem(den) Trägheitssensor(en) 193 enthalten sein können, einen Beschleunigungsmesser und einen Kompass. Was das Gyroskop betrifft, so kann dieses die Orientierung des Systems 100 erfassen und/oder messen und kann eine diesbezügliche Eingabe an den Prozessor 122 liefern. Der Beschleunigungssensor kann eine Beschleunigung und/oder Bewegung des Systems 100 erfassen und eine diesbezügliche Eingabe an den Prozessor 122 liefern. Der Kompass kann einen Hall-Effekt-Magnetometer umfassen zum Erzeugen einer Spannung proportional zur Stärke eines Magnetfelds (z.B. der Erde) entlang einer bestimmten Achse und/oder zur Erfassung eines Polaritäts- oder magnetischen Dipolmoments, um dann eine diesbezügliche Eingabe an den Prozessor 122 zu liefern, um den Kurs und/oder die Richtung des Geräts relativ zum Erdmagnetfeld zu bestimmen.
  • Wenngleich der Einfachheit halber nicht dargestellt, kann das System 100 in einigen Beispielen ferner einen Audioempfänger/ein Mikrofon enthalten, für eine Eingabe von dem Mikrofon in den Prozessor 122 basierend auf einem erfassten Audio, wenn beispielsweise ein Benutzer eine akustische Eingabe in das Mikrofon macht. Das System 100 kann auch eine Kamera enthalten, die ein oder mehrere Bilder aufnimmt und diese Bilder und eine diesbezügliche Eingabe an den Prozessor 122 liefert. Die Kamera kann eine Wärmebildkamera, eine Infrarot(IR)-Kamera, eine Digitalkamera wie eine Webcam, eine dreidimensionale (3D)-Kamera und/oder eine andere Kamera sein, die anderweitig in das System 100 integriert ist und von dem Prozessor gesteuert werden kann, um Einzelbilder und/oder Video aufzunehmen. Das System 100 kann auch einen Sendeempfänger eines globalen Positionsbestimmungssystems (GPS) enthalten, der konfiguriert für eine Kommunikation mit mindestens einem Satelliten, um geographische Positionsinformationen zu empfangen/identifizieren und diese dem Prozessor 122 zur Verfügung zu stellen.
  • Es versteht sich, dass ein Beispiel-Clientgerät oder eine andere Maschine/ein anderer Computer mehr oder weniger als die in dem System 100 von 1 gezeigten Merkmale aufweisen kann. Auf der Grundlage der vorstehenden Ausführungen versteht es sich aber in jedem Fall, dass das System 100 für die Umsetzung der vorliegenden Prinzipien konfiguriert ist.
  • Es wird nunmehr auf 2. Bezug genommen. Hier sind Beispiel-Geräte gezeigt, die über ein Netzwerk 200 wie das Internet und/oder über eine direkte UWB-zu-UWB-Kommunikationsverbindung für eines der Geräte von 2 kommunizieren, um UWB-Befehle zum Steuern eines anderen der Geräte von 2 im Einklang mit den vorliegenden Prinzipien zu erteilen. Es versteht sich, dass jedes der mit Bezug auf 2 beschriebenen Geräte zumindest einige der Merkmale, Komponenten und/oder Elemente des vorstehend beschriebenen Systems 100 aufweisen kann. Tatsächlich kann jedes der vorliegend beschriebenen Geräte zumindest einige der Merkmale, Komponenten und/oder Elemente des vorstehend beschriebenen Systems 100 aufweisen.
  • 2 zeigt einen Notebook-Computer und/oder konvertierbaren Computer 202, einen Desktop-Computer 204, ein Wearable Gerät 206 wie beispielsweise eine Smartwatch, einen Smart-TV 208, ein Smartphone 210, einen Tablet-Computer 212 und einen Server 214 wie einen Internet-Server, der einen Cloud-Speicher bereitstellen kann, auf den die Geräte 202-212 zugreifen können. Es versteht sich, dass die Geräte 202-214 so konfiguriert sind, dass sie über das Netzwerk 200 miteinander kommunizieren können, um die vorliegenden Prinzipien umzusetzen.
  • Es sei angenommen, dass ein Benutzer 300, der in 3, auf die nunmehr Bezug genommen wird, ein Smartphone 302 in der Hand hält, eine intelligente Internet-der-Dinge(IoT)-Lampe 304 steuern bzw. bedienen möchte. Entsprechend den Prinzipien der vorliegenden Erfindung kann der Benutzer 300 mit dem Smartphone 302 entlang dessen Längsachse 306 (oder einer anderen vorgegebenen Achse des Smartphone 302) auf/in Richtung auf die Lampe 304 zeigen. Basierend auf dem UWB-Signalaustausch zwischen dem Smartphone 302 und der Lampe 304 kennt das Smartphone 302 ggf. den Standort der Lampe 304 relativ zu dem Smartphone 302, und da es auch seine aktuelle Orientierung kennt, kann das Smartphone 302 bestimmen, dass seine Längsachse 306 in Richtung auf die Lampe 304 zeigt, und daraus folgern, dass der Benutzer die Absicht hat, die Lampe 304 zu steuern/bedienen.
  • Durch diese Folgerung der Absicht des Benutzers kann das Smartphone 302 dann gemäß der nachstehenden weiteren Beschreibung eine oder mehrere Maßnahmen ergreifen, wie zum Beispiel das Ein- oder Ausschalten der Lampe 304 allein anhand des Zeigens bzw. Pointing (auf die Lampe) (möglicherweise ohne dass der Bildschirm des Smartphone 302 überhaupt beleuchtet wird). Zusätzlich oder alternativ kann das Smartphone 302 das Licht ein- oder ausschalten, basierend auf einer zusätzlichen Eingabe in eine graphische Benutzeroberfläche (GUI), die auf einem Bildschirm des Smartphone 302 dargestellt wird.
  • Als weiteres Beispiel, können mit dem Smartphone 302 in der Luft ausgeführte Gesten von einem Trägheitssensor in dem Smartphone 302 erkannt werden, um festzustellen, dass mit dem ersten Gerät in zwei Richtungen (z.B. auf und ab, wie durch die Pfeile 308, 310 angegeben) im freien Raum gestikuliert wird, während das Smartphone 302 immer noch auf die Lampe 304 gerichtet ist, um die Glühbirne für die Lampe 304 ein- oder auszuschalten (z.B. die jeweilige Geste nach oben oder nach unten). Wenn der Benutzer dagegen die Helligkeit der Glühbirne in der Lampe 304 einstellen möchte, während die Lampe leuchtet, kann der Benutzer mit dem Smartphone 302 im freien Raum eine Geste im Uhrzeigersinn oder entgegen dem Uhrzeigersinn um die Längsachse 306 ausführen, während das Smartphone 302 immer noch auf die Lampe 304 zeigt, um die Helligkeit der Glühbirne an einer Helligkeitsskala für die Glühbirne nach oben oder nach unten einzustellen.
  • Wenn das intelligente IoT-Gerät als weiteres Beispiel nicht die Lampe 304, sondern stattdessen ein intelligenter Bluetooth-Lautsprecher wäre, könnte eine mit dem Smartphone 302 ausgeführte Geste im Uhrzeigersinn oder entgegen dem Uhrzeigersinn im freien Raum einen weiteren Parameter an einer Skala einstellen, zum Beispiel den Lautstärkepegel an einer Lautstärkenskala oder den Hochtonpegel an einer Hochtonskala.
  • Die detaillierte Beschreibung wird nun mit Bezug auf 4 fortgesetzt, die eine Beispiel-Logik zeigt, die von einem UWB sendenden/empfangenden ersten Gerät wie dem System 100 oder dem Smartphone 302 gemäß den vorliegenden Prinzipien ausgeführt werden kann. Die Logik gemäß 4 ist als Flussdiagramm dargestellt, könnte aber auch als Zustandslogik oder andere geeignete Logik dargestellt werden.
  • Bei Block 400 kann das erste Gerät einen Trigger zum Übertragen/Senden eines UWB-Signals von seinem UWB-Sendeempfänger erkennen. Der Trigger kann zum Beispiel dadurch erstellt werden, dass das erste Gerät eine Bewegung desselben und/oder eine Änderung seiner Orientierung über den Orientierungssensor oder einen anderen Trägheitssensor erkennt. In einem weiteren Beispiel kann der Trigger dadurch erstellt werden, dass eine Berührungseingabe in den Bildschirm des ersten Geräts erkannt wird (z.B. auch dann, wenn der Bildschirm nicht beleuchtet ist, der(die) Berührungssensor(en) des Bildschirms diese aber dennoch erfassen). In einem noch weiteren Beispiel kann der Trigger erstellt werden, indem eine Tasteneingabe an dem ersten Gerät und/oder eine Eingabe zum Beleuchten des Bildschirms des ersten Geräts erkannt wird. Auf diese Weise kann eine vorläufige Benutzeraktion an dem ersten Gerät einen UWB-Signalaustausch mit einem oder mehreren anderen UWB-fähigen Geräten auslösen, so dass die weiteren Geräte und deren Richtungen nahtlos identifiziert werden können und das erste Gerät somit bereit ist für eine anschließende Befehlseingabe zum Steuern dieser oder anderer Geräte, wann immer der Benutzer das wünscht.
  • Von Block 400 kann die Logik weiterführen zu Block 402. Bei Block 402 kann das erste Gerät zumindest ein erstes UWB-Signal an das zweite Gerät übertragen (z.B. als Reaktion auf den Trigger). In einigen Beispielen kann das erste Gerät bei Block 402 das erste UWB-Signal nicht weiter als bis zu einer vorgegebenen Entfernung oder einem vorgegebenen Radius von dem ersten Gerät ausstrahlen, indem die Intensität, mit der seine UWB-Signale übertragen werden, gesteuert wird, um eine Art UWB-Einzäunung zu schaffen. Auf diese Weise können alle anderen Geräte innerhalb der vorgegebenen Entfernung oder des vorgegebenen Radius von dem ersten Gerät mit ihren jeweiligen eigenen Signalen antworten, aber es kann auch der Benutzer nicht unbeabsichtigt auf ein anderes UWB-fähiges Gerät außerhalb seines Sichtfeldes oder auf ein Objekt im Fokus, das zufällig ebenfalls reagiert, zeigen und dieses steuern/bedienen.
  • Von Block 402 kann die Logik weiterführen zu Block 404. Bei Block 404 kann das erste Gerät als Antwort auf das erste UWB-Signal zumindest ein zweites UWB-Signal (zweite UWB-Signale) von einem zweiten Gerät und gegebenenfalls weitere UWB-Signale von noch weiteren Geräten zurückerhalten, die ebenfalls auf das erste UWB-Signal reagiert haben, da sie möglicherweise entsprechend vorkonfiguriert sind. Das zweite UWB-Signal (und weitere UWB-Signale von weiteren reagierenden Geräten) können eine einfache Bestätigung von dem zweiten Gerät sein. Zusätzlich oder alternativ kann das zweite Signal zusätzliche Daten enthalten, die an dem zweiten Gerät gespeichert sind, wie zum Beispiel ein dem zweiten Gerät zugeordneter Gerätetyp (in dem Beispiel von 3 eine Lampe), ein dem zweiten Gerät zugeordneter aktueller Gerätestatus (z.B. EIN oder AUS, Helligkeitspegel, gemäß 3) und/oder eine Angabe von einem oder mehreren Befehlen/Kommandos, die an das zweite Gerät erteilt werden können. Zum Beispiel kann das zweite Gerät berichten, welche Befehle es empfangen kann, um die Funktionen auszuführen, zu deren Ausführung es in der Lage ist. Dies kann zweckmäßig sein, damit das erste Gerät schließlich einen entsprechenden Befehl erteilen kann, um das zweite Gerät später in der Logik von 4 basierend auf dem Gerätetyp, dem aktuellen Gerätestatus und/oder von verfügbaren Gerätebefehlen zu steuern.
  • Die Logik von 4 kann dann weiterführen zu Block 406, bei dem das erste Gerät einen Standort des zweiten Geräts bestimmen kann, basierend auf dem zweiten UWB-Signal, das von dem zweiten Gerät als Antwort auf das erste Signal empfangen wird. Wenn das erste Gerät als Antwort auf das erste UWB-Signal weitere UWB-Signale von noch weiteren Geräten empfangen würde, könnte das erste Gerät bei Block 406 durch Nutzung seiner jeweiligen eigenen UWB-Antwortsignale den jeweiligen Standort auch dieser anderen Geräte bestimmen. Es ist zu beachten, dass das erste Gerät den Standort jedes antwortenden Geräts zum Beispiel mit Hilfe eines oder mehrerer UWB-Standortbestimmungs-Algorithmen, Time-Difference-of-Arrival(TDoA)-Algorithmen und/oder Angle-of-Arrival(AoA)-Algorithmen bestimmen kann. Die UWB-Standorterkennung bei Block 406 kann daher eine im Vergleich zu anderen Standortverfolgungsverfahren relativ genaue Identifizierung der Standorte der weiteren Geräte ermöglichen, wobei hochgenaue UWB-Standortidentifizierungen - wie hier festgestellt - speziell im Innenbereich sehr hilfreich sind, um ein bestimmtes IoT-Gerät genau zu steuern/bedienen, indem man in einen Bereich zeigt, der dicht mit IoT-Geräten bestückt ist.
  • Von Block 406 kann die Logik dann weiterführen zu Block 408, bei dem das erste Gerät eine Eingabe von seinem Orientierungs- oder sonstigen Trägheitssensor empfängt, z.B. von einem Gyroskop. Bei Block 410 kann das erste Gerät dann einen oder mehrere Algorithmen zum Verarbeiten der Gyroskopeingabe durchführen, um eine Orientierung des ersten Geräts (z.B. relativ zur Erde) zu bestimmen, so dass das erste Gerät, das seine Längsachse oder eine andere vorgegebene Achse über eine Vorprogrammierung kennt und das die Standorte der anderen betreffenden Geräte bereits identifiziert hat, erkennen kann, dass es entlang der Achse auf das zweite Gerät zeigt/in Richtung auf das zweite Gerät orientiert ist. Es sollte wiederum beachtet werden, dass die Orientierung des ersten Geräts auch mit dem UWB-Sendeempfänger des ersten Geräts und mittels UWB-Standortverfolgung bestimmt werden kann.
  • Nach Block 410 kann die Logik weiterführen zu Block 412, bei dem das erste Gerät einen Befehl zum Steuern des zweiten Geräts empfangen kann. Der Befehl kann in vielfältiger Weise erstellt werden. In einigen Implementierungen zum Beispiel kann durch die Maßnahme, dass das erste Gerät auf das zweite Gerät gerichtet wird, ein Ein/Ausschalt-Befehl erstellt werden. Würde man also auf ein Gerät zeigen, das eingeschaltet ist, würde dieses Gerät ausgeschaltet werden und umgekehrt, ohne dass hierfür eine zusätzliche Eingabe von dem Benutzer erfolgen müsste. In anderen Ausführungsformen können auch Berührungssensoren entlang der Einfassung des ersten Geräts benutzt werden, um zu erkennen, dass das Gerät in der Hand gehalten wird, und zusammen mit dieser Maßnahme kann das Gerät auf das zweite Gerät gerichtet werden, um den Ein-/Ausschaltbefehl zu erteilen und damit die Wahrscheinlichkeit, dass fälschlicherweise Befehle erteilt werden, weiter zu verringern (z.B., wenn das Gerät zwar nicht in der Hand gehalten wird, aber dennoch auf das zweite Gerät gerichtet sein könnte).
  • Der Befehl könnte auch erstellt werden, indem der Endbenutzer mit dem Gerät Gesten in der Luft ausführt, wie das vorstehend im Zusammenhang mit 3 erläutert wurde (z.B. in zwei Richtungen zum Einschalten/Ausschalten oder im Uhrzeigersinn oder entgegen dem Uhrzeigersinn für Einstellungen eines Parameters auf einer Skala). Auch hier ist wiederum anzumerken, dass die Gesten, die mit dem ersten Gerät in der Luft ausgeführt werden, von dem ersten Gerät mit Hilfe seines Orientierungssensors oder sonstigen Trägheitssensors bzw. -sensoren) (z.B. Gyroskop oder Beschleunigungsmesser) erkannt werden können. Wie weiter anzumerken ist, können die Gesten aber auch mittels UWB-Standortverfolgung selbst erkannt werden, basierend auf Signalen, die zwischen zwei Geräten übertragen werden, und/oder durch die Benutzung der Kamera(s) des ersten Geräts und einer Bildverarbeitung (Computer-Vision) zur Standortverfolgung.
  • Als noch weiteres Beispiel kann der bei Block 412 empfangene Befehl erstellt werden durch eine Berührungseingabe in den Bildschirm des ersten Geräts an einer Stelle des Bildschirms, an der kein Selektor angezeigt wie beispielsweise ein Symbol oder ein Hyperlink angezeigt wird, das bzw. der von einem Benutzer wählbar ist. Solchermaßen kann die Berührungseingabe in den Bildschirm in diesem Beispiel den Befehl erstellen, auch wenn der Bildschirm nicht beleuchtet ist, solange die Berührungssensoren des Bildschirms noch aktiv sind.
  • Um noch ein weiteres Beispiel zu nennen: Der bei Block 412 empfangene Befehl kann durch eine Berührungseingabe in einen visuellen Selektor erstellt werden, der Teil einer grafischen Benutzeroberfläche ist, die auf dem beleuchteten Bildschirm des ersten Geräts angezeigt wird. In einigen Ausführungsbeispielen kann die GUI auch als Reaktion darauf angezeigt werden, dass das erste Gerät erkennt, dass es auf das zweite Geräte gerichtet ist, so dass der Benutzer nicht durch andere komplexe und umfangreiche Menüs navigieren muss, um zu den zutreffenden GUI-Steuer-/Bedienelementen für das zweite Gerät (oder ein anderes Gerät, auf das das erste Gerät gerichtet sein kann) zu gelangen.
  • Von Block 412 kann die Logik weiterführen zu Block 414. Bei Block 414 kann das erste Gerät den Befehl an das zweite Gerät senden, und zwar basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät auf das zweite Gerät zeigt. Der Befehl kann über ein Netzwerk übertragen werden, dass kein UWB nutzt, z.B. ein Wi-Fi-Netzwerk, LAN, WAN, das Internet oder ein Bluetooth-Netzwerk. In einem solchen Fall kann der Befehl mit Hilfe von vorgegebenen Kommunikationsprotokollen zum Steuern des zweiten Geräts übertragen werden. Diese können zum Beispiel ein vorgegebenes NEST-, Hue- oder Nexia-IoT-Gerätemanagementprotokoll sein.
  • In anderen Beispielen kann der Befehl bei Block 414 jedoch mit dem UWB-Sendeempfänger des ersten Geräts über UWB übertragen werden. Dies ist gegebenenfalls in Ausführungsformen möglich, in denen das zweite Gerät seinen Gerätetyp, Gerätestatus und/oder verfügbare Befehle/Kommandos über das(die) zweite(n) Signal(e) bereits an das erste Gerät übermittelt hat.
  • Es wird nunmehr auf 5 und 6 Bezug genommen. Hier sind jeweils Beispiel-GUIs 500, 600 dargestellt, die als Reaktion auf den bei Block 400 identifizierten Trigger (z.B., dass das Gerät, nachdem es abgelegt war, nun bewegt wird), auf dem Bildschirm des ersten Geräts von 4 angezeigt werden. Die GUIs 500, 600 können angezeigt werden, um einen Endnutzer dabei zu unterstützen, sich auf ein weiteres Gerät zu konzentrieren, das sich mit Hilfe von UWB-Signalen und einer damit verbundenen Standort-ID/Verfolgung über das erste Gerät steuern/bedienen lässt. Wie 5 und 6 zeigen, kann eine Peilungsanzeige 502 dargestellt werden, die wie gezeigt ein dreieckiges Fenster aufweist, in welchem die Peilung des ersten Geräts entlang seiner Achse in Richtung auf das andere Gerät nachweist, dass das erste Gerät auf das andere Gerät zeigt.
  • Wie in 5 dargestellt, ist das erste Gerät zu einem ersten Zeitpunkt nicht auf ein anderes Gerät gerichtet, und der Hinweis 502 wird von einem „X“-Symbol 504 begleitet, das rot sein kann, um anzuzeigen, dass das erste Gerät derzeit nicht auf ein anderes Gerät gerichtet ist, das über UWB kommuniziert (z.B. mindestens ein anderes Gerät innerhalb der vorbestimmten Entfernung, in der das erste Gerät sein eigenes UWB-Signal sendet). Wie in 5 ebenfalls gezeigt ist, kann das Symbol 504 von einem Texthinweis 506 begleitet sein, dass in der Richtung, in der der Benutzer auf das erste Gerät zeigt, kein weiteres UWB-basiertes Gerät erkannt wurde.
  • 6 zeigt aber, dass sich die GUI 500 zur GUI 600 wechseln kann, in der der Hinweis 502 von einem Häkchensymbol 602 begleitet ist, das grün sein kann, um darauf hinzuweisen, dass das erste Gerät aktuell auf ein über UWB kommunizierendes zweites Gerät gerichtet ist, sobald das erste Gerät tatsächlich in Richtung auf ein weiteres UWB-basiertes Gerät zeigt. 6 zeigt auch, dass das Symbol 602 von einem Texthinweis 604 begleitet sein kann, der eine Bezeichnung nennt, die dem anderen Gerät zugeordnet ist (die das andere Gerät z.B. in seinem bzw. seinen UWB-Antwortsignal(en) mitgeteilt hat), das in diesem Fall die „Lampe LV2“ ist. Der Texthinweis 604 kann, wie ebenfalls gezeigt ist, den Benutzer anweisen, einen Befehl bzw. ein Kommando zum Steuern/Bedienen des anderen Geräts zu erteilen, basierend darauf, dass das erste Gerät auf das zweite Gerät gerichtet ist.
  • Die weitere Beschreibung erfolgt nunmehr mit Bezug auf 7 und 8, in denen jeweils Beispiel-GUIs 700, 800 dargestellt sind, die auf dem Bildschirm des ersten Geräts angezeigt werden können, um ein über UWB geortetes weiteres Gerät wie hier beschrieben zu steuern/bedienen. Zum Beispiel können die GUIs 700 und 800 auf dem Bildschirm des ersten Geräts präsentiert werden als Reaktion darauf, dass festgestellt wurde, dass das erste Gerät entlang einer vorgegebenen Achse in Richtung auf ein weiteres zu steuerndes/bedienendes Gerät orientiert ist, ohne dass der Benutzer, außer auf das andere Gerät zu zeigen, eine weitere Eingabe machen muss (z.B. durch Menüs navigieren muss, bis er zur GUI 700 gelangt), damit die GUIs 700, 800 angezeigt werden. Welche von den GUIs 700, 800 von dem ersten Gerät angezeigt wird, kann abhängig von den Informationen, die über UWB von dem anderen Gerät übermittelt werden (z.B. bei Block 404 in der vorstehenden Beschreibung), variieren, so dass die GUI mit den relevanten Steuerungs- bzw. Bedienelementen für das jeweilige Gerät, auf das gezeigt wird, dem Benutzer nahtlos angezeigt werden kann.
  • Vor der Beschreibung der einzelnen GUI 700, 800 ist darauf hinzuweisen, dass diese GUIs in einigen Beispielen zu einer einzigen GUI zusammengefasst sein können. Im Gegensatz dazu kann das erste Gerät in anderen Beispielen die GUI 700 basierend darauf anzeigen, dass das andere Gerät über UWB mitteilt, dass sein Gerätestatus aktuell der AUS-Zustand ist, wohingegen die GUI 800 angezeigt wird, wenn das andere Gerät über UWB mitteilt, dass sein aktueller Status der EIN-Zustand ist. In diesem Beispiel eines Anwendungsfalls ist das andere Gerät wiederum eine intelligente IoT-Lampe, z.B. die Lampe 304.
  • Insbesondere bezugnehmend auf die GUI 700 von 7 kann die GUI 700 einen EIN-Selektor 702 und einen AUS-Selektor 704 anzeigen, so dass der Benutzer die Lampe jeweils zwischen EIN und AUS umschalten kann. In einigen Fällen kann ein einziger EIN/AUS-Selektor angezeigt werden, dessen Wahl die Lampe einschaltet, wenn sie AUS ist, und ausschaltet, wenn sie AN ist. In jedem Fall kann die GUI 700 auch Textanweisungen 706 enthalten, die den Endnutzer bezüglich einer bestimmten Geste im freien Raum anweisen, die er mit dem ersten Gerät ausführen kann, während das erste Gerät in Richtung auf das zweite Gerät zeigt, um die Lampe auch zwischen EIN und AUS umzuschalten. In diesem Beispiel lautet der Befehl, das erste Geräte innerhalb einer vorgegebenen Aktivierungszeit (von fünf Sekunden in diesem Fall) in zwei Richtungen auf und ab zu „schnippen“.
  • Die vorgegebene Aktivierungszeit kann eine Schwellendauer nach der Anzeige der GUI 700 sein und/oder nach der Feststellung durch das erste Gerät, dass dieses auf ein weiteres Gerät gerichtet ist, wobei die Gesten zum Steuern/Bedienen des anderen Geräts innerhalb dieser Aktivierungszeit im freien Raum ausgeführt werden können. Die vorgegebene Aktivierungszeit kann daher genutzt werden, um zu vermeiden, dass weitere Gesten oder ein unbeabsichtigtes Bewegen des Geräts nach dieser Aktivierungszeit, während das erste Gerät noch auf das andere Gerät gerichtet ist, dazu führt, dass ein versehentlicher Befehl an das andere Gerät gesendet wird. In Beispielen also, in denen die Aktivierungszeit genutzt wird, aber in einem bestimmten Fall verstrichen ist, kann der Benutzer das Gerät von dem anderen Gerät weg und dann wieder auf das andere Gerät richten, um die Aktivierungszeit erneut zu starten.
  • Es wird nunmehr auf die GUI 800 von 8 Bezug genommen, die einen NACH-OBEN-Selektor 802 und einen NACH-UNTEN-Selektor 804 anzeigen kann, so dass der Benutzer die Helligkeit einer Glühbirne der Lampe an einer Helligkeitsskala einstellen kann, während die Glühbirne eingeschaltet ist. In manchen Fällen kann eine kreisförmige Skala mit einem Schieberegler dargestellt sein, um die Helligkeit der Lampe einzustellen, indem der Regler an der Skala (in diesem Fall der Wählscheibe) verschoben wird. Ungeachtet dessen kann die GUI 800 auch Textanweisungen 806 enthalten, die den Endnutzer bezüglich einer bestimmten anderen Geste im freien Raum anweisen, die mit dem ersten Gerät ausgeführt werden kann, während das erste Gerät auf das andere Gerät gerichtet wird, um die Helligkeit der Lampe einzustellen. In diesem Beispiel lautet der Befehl, das erste Gerät entlang einer vorgegebenen Achse (z.B. seiner Längsachse) entweder im Uhrzeigersinn oder entgegen dem Uhrzeigersinn zu drehen, um die Helligkeit nach oben bzw. nach unten zu regeln. Auch hier ist wiederum anzumerken, dass die Anweisungen 806 den Benutzer darauf hinweisen können, dass dies innerhalb der vorgegebenen Aktivierungszeit geschehen muss, wie vorstehend angegeben, und dass andernfalls die Aktivierungszeit neu gestartet werden muss, wie vorstehend ebenfalls angegeben.
  • In 9 ist eine Beispiel-GUI 900 gezeigt, die auf dem Bildschirm eines Geräts des Endnutzers angezeigt wird, das für eine Umsetzung der vorliegenden Prinzipien konfiguriert ist. Die GUI 900 kann angezeigt werden, um eine oder mehrere Einstellungen des Geräts zu konfigurieren, so dass dieses gemäß den vorliegenden Prinzipien arbeitet. Es versteht sich in diesem Zusammenhang, dass jede der nachstehend beschriebenen Optionen gewählt werden kann, indem das jeweils nebenstehende Auswahlfeld berührt oder der Cursor in dieses Feld bewegt wird.
  • Die erste Option 902 kann gewählt werden zum Einstellen oder Aktivieren des Geräts, so dass dieses künftig die vorliegenden Prinzipien übernimmt. Die Option 902 kann beispielsweise gewählt werden, um das Gerät so einzustellen oder zu konfigurieren, dass es eine UWB-Steuerung/Bedienung von loT-Geräten ermöglicht. Zum Beispiel kann die Wahl von Option 902 das Gerät derart einstellen oder aktivieren, dass dieses die Logik von 4 sowie andere Funktionen des ersten Geräts/Telefons 302 ausführt, die vorstehend im Zusammenhang mit den 3 und 5-8 erläutert wurden.
  • Die GUI 900 kann auch Optionen 904-910 enthalten, die jeweils wählbar sind zum Ermöglichen bzw. Aktivieren der Steuerung/Bedienung weiterer IoT-Geräte von dem Gerät von 9 durch die Verwendung mehrerer bestimmter Befehle. Option 904 kann beispielsweise gewählt werden, um das Gerät so einzustellen oder zu konfigurieren, dass es eine bidirektionale Bewegung des Geräts in der Luft als EIN/AUS-Befehl verfolgt und identifiziert. Option 906 kann gewählt werden, um das Gerät so einzustellen oder zu konfigurieren, dass eine Bewegung des Geräts in der Luft im Uhrzeigersinn oder entgegen dem Uhrzeigersinn als Befehl zum Einstellen eines Parameters an einer Skala (z.B. der Lautstärke an einer Lautstärkenskale, der Helligkeit an einer Helligkeitsskala etc.) verfolgt oder identifiziert. Option 908 kann gewählt werden, um das Gerät so einzustellen oder zu konfigurieren, dass es eine Berührungseingabe, die an dem Bildschirm empfangen wird, während der Bildschirm nicht beleuchtet ist, nutzt, um einen EIN/AUS-Befehl für das andere Gerät, auf das gezeigt wird, zu erzeugen. Option 910 kann gewählt werden, um das Gerät so einzustellen oder zu konfigurieren, dass als Befehl zum Steuern/Bedienen eines anderen Geräts (z.B. ein EIN/AUS-Befehl) das Gerät selbst auf das andere Gerät gerichtet wird.
  • Wie 9 ebenfalls zeigt, kann die GUI 900 in einigen Fällen auch einen Abschnitt 912 aufweisen, in dem verschiedene Berechtigungen oder Einschränkungen bezüglich der UWB-Gerätekonfiguration einstellbar sind. Zum Beispiel kann ein Endnutzer die Steuerung/Bedienung eines IoT-Thermostats über UWB, wie vorstehend erläutert, (durch die Wahl des Selektors 914) ausschließlich erwachsenen Personen oder (durch die Wahl des Selektors 916) allen Personen (Kinder eingeschlossen) erlauben. Ähnlich kann ein Endnutzer die Steuerung/Bedienung von IoT-Lampen über UWB, wie vorstehend erläutert, (durch die Wahl des Selektors 920) nur erwachsenen Personen oder (durch die Wahl des Selektors 922) allen Personen erlauben. Es können somit vorab gespeicherte Geräte- oder Profilinformationen für einen bestimmten Benutzer eines bestimmten UWB-fähigen Geräts verwendet werden, um festzustellen, ob der Benutzer die entsprechenden Berechtigungen zum Steuern/Bedienen eines IoT-Geräts über UWB mit seinem eigenen Gerät besitzt.
  • Die Berechtigungen sind nach Endnutzertyp und/oder bestimmtem Endnutzer, der gegebenenfalls verschiedene Geräte steuert/bedient, angegeben, können aber auch auf der Grundlage weiterer Faktoren erstellt werden (z.B. nach Tageszeit oder Datum), wurden aber in 9 der Übersichtlichkeit halber weggelassen. So kann zum Beispiel der Thermostat über die GUI 900 so konfiguriert werden, dass er abends und/oder an Werktagen nicht über UWB-Pointing gesteuert/bedient werden kann, wobei diese Einschränkungen insgesamt gelten können oder nur für bestimmte Nutzer, für andere dagegen nicht.
  • In 10 ist schließlich eine Beispiel-Darstellung 1000 einer UWB-Ortungsgenauigkeit gezeigt. Dabei kann ein erstes Gerät 1002, das die Logik von 4 ausführen könnte, eine Peilung 1006 auf ein zweites Gerät 1004 über einen UWB-Signalaustausch erkennen, wobei die Genauigkeit plus/minus drei Grad 1008 oder sogar weniger betragen kann. Die Tiefe (Entfernung) zwischen dem ersten Gerät 1002 und dem zweiten Gerät 1004 kann ebenfalls über UWB auf plus/minus zehn Zentimeter 1010 genau oder weniger bestimmt werden. Das Gerät 1002 kann also den Standort des Geräts 1004 relativ zu dem Gerät 1002 mit vergleichsweise hoher Genauigkeit bestimmen.
  • Durch die Prinzipien der vorliegenden Erfindung wird eine verbesserte computerbasierte Benutzeroberfläche zur Verfügung gestellt, die zu einer besseren Funktionalität und leichteren Bedienbarkeit der vorliegend beschriebenen Geräte führt. Die beschriebenen Konzepte sind in der Computertechnologie verankert und sorgen dafür, dass Computer ihre Funktionen ausführen können.
  • Die vorliegenden Prinzipien wurden anhand von einigen Ausführungsbeispielen beschrieben, sind jedoch nicht auf diese Ausführungsbeispiele beschränkt. Zur Implementierung des Gegenstands der vorliegenden Erfindung können auch verschiedene alternative Anordnungen verwendet werden. Komponenten, die in einer Ausführungsform enthalten sind, können in geeigneter Kombination auch in anderen Ausführungsformen verwendet werden. Es ist zum Beispiel möglich, die verschiedenen Komponenten, die vorliegend beschrieben und in den Zeichnungen dargestellt sind, miteinander zu kombinieren, gegeneinander auszutauschen oder aus anderen Ausführungsformen auszuschließen.

Claims (20)

  1. Ein erstes Gerät, umfassend: wenigstens einen Prozessor; einen Ultrabreitband(UWB)-Sendeempfänger, auf den der wenigstens einen Prozessor zugreifen kann; einen Orientierungssensor, auf den der wenigstens eine Prozessor zugreifen kann; und einen Speicher, auf den der wenigstens eine Prozessor zugreifen kann und der Anweisungen enthält, die von dem wenigstens einen Prozessor ausführbar sind, um: mit dem UWB-Sendeempfänger ein erstes UWB-Signal von einem ersten Gerät an ein zweites Gerät zu senden, das sich von dem ersten Gerät unterscheidet; mit dem UWB-Sendeempfänger ein zweites UWB-Signal als Antwort auf das erste UWB-Signal von dem zweiten Gerät zu empfangen; basierend auf dem zweiten UWB-Signal einen Standort des zweiten Geräts zu bestimmen; eine Eingabe von dem Orientierungssensor zu empfangen; basierend auf der Eingabe festzustellen, dass das erste Gerät basierend auf einer vorgegebenen Achse des ersten Geräts auf das zweite Gerät zeigt; an dem ersten Gerät einen Befehl zum Steuern/Bedienen des zweiten Geräts zu empfangen; und basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät basierend auf einer vorgegebenen Achse desselben auf das zweite Gerät zeigt, den Befehl an das zweite Gerät zu übertragen.
  2. Erstes Gerät nach Anspruch 1, wobei der Befehl basierend darauf generiert wird, dass von dem ersten Gerät erkannt wird, dass mit dem ersten Gerät Gesten in der Luft ausgeführt werden.
  3. Erstes Gerät nach Anspruch 2, wobei die Anweisungen ausführbar sind, um: den Orientierungssensor zu nutzen für die Feststellung, dass mit dem ersten Gerät Gesten in der Luft ausgeführt werden.
  4. Erstes Gerät nach einem der vorhergehenden Ansprüche, umfassend einen Bildschirm, auf den der wenigstens eine Prozessor zugreifen kann, wobei der Befehl basierend auf einer Eingabe in eine auf dem Bildschirm präsentierte grafische Benutzeroberfläche (GUI) generiert wird.
  5. Erstes Gerät nach einem der vorhergehenden Ansprüche, umfassend einen Bildschirm, auf den der wenigstens eine Prozessor zugreifen kann, wobei der Befehl basierend auf dem Empfang eines Berührungssignals an dem Bildschirm an einer Stelle des Bildschirms, an der kein Selektor präsentiert wird, generiert wird.
  6. Erstes Gerät nach einem der vorhergehenden Ansprüche, wobei der Befehl über ein Netzwerk übertragen wird, das kein UWB nutzt.
  7. Erstes Gerät nach einem der vorhergehenden Ansprüche, wobei der Befehl mit dem UWB-Sendeempfänger übertragen wird.
  8. Erstes Gerät nach einem der vorhergehenden Ansprüche, wobei der Orientierungssensor ein Gyroskop umfasst.
  9. Erstes Gerät nach einem der vorhergehenden Ansprüche, wobei die Anweisungen ausführbar sind, um: das erste UWB-Signal mit dem UWB-Sendeempfänger an mehrere andere Geräte, die sich von dem ersten Gerät unterscheiden, zu senden; mit dem UWB-Sendeempfänger das zweite Signal als Antwort auf das erste UWB-Signal von dem zweiten Gerät und ein drittes UWB-Signal als Antwort auf das erste UWB-Signal von einem dritten Gerät zu empfangen, wobei sich das dritte Gerät von dem ersten und dem zweiten Gerät unterscheidet; den Standort des zweiten Geräts basierend auf dem zweiten UWB-Signal und den Standort des dritten Geräts basierend auf dem dritten UWB-Signal zu bestimmen; eine Eingabe von dem Orientierungssensor zu empfangen; basierend auf der Eingabe und basierend auf dem Standort des ersten und des zweiten Geräts festzustellen, dass das erste Gerät basierend auf der vorgegebenen Achse des ersten Geräts auf das zweite Gerät zeigt; an dem ersten Gerät den Befehl zum Steuern des zweiten Geräts zu empfangen; und basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät basierend auf der vorgegebenen Achse des ersten Geräts auf das zweite Gerät zeigt, den Befehl an das zweite Gerät zu senden.
  10. Erstes Gerät nach einem der vorhergehenden Ansprüche, wobei das erste Signal als Reaktion darauf gesendet wird, dass eine über den Orientierungssensor festgestellte Änderung der Orientierung des ersten Geräts erkannt wurde.
  11. Erstes Gerät nach einem der vorhergehenden Ansprüche, umfassend einen Bildschirm, auf den der wenigstens eine Prozessor zugreifen kann, wobei das erste Signal als Antwort auf die Berührungseingabe in den Bildschirm und/oder als Antwort auf eine Eingabe zum Beleuchten des Bildschirms übertragen wird.
  12. Verfahren, umfassend: Übertragen eines ersten UWB-Signals an einem ersten Gerät mit einem Ultrabreitband(UWB)-Sendeempfänger an ein zweites Gerät, das sich von dem ersten Gerät unterscheidet; Empfangen eines als Antwort auf das erste Signal erzeugten zweiten Signals von dem zweiten Gerät mit dem UWB-Sendeempfänger; Bestimmen eines Standorts des zweiten Geräts basierend auf dem zweiten UWB-Signal an dem ersten Gerät; Empfangen einer Eingabe von einem Trägheitssensor an dem ersten Gerät; Feststellen an dem ersten Gerät, dass das erste Gerät auf das zweite Gerät zeigt, basierend auf der Eingabe; Empfangen eines Befehls zum Steuern des zweiten Geräts an dem ersten Gerät; und Senden des Befehls an das zweite Gerät basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät in Richtung auf das zweite Gerät zeigt.
  13. Verfahren nach Anspruch 12, umfassend: Feststellen, dass das erste Gerät in Richtung auf das zweite Gerät zeigt, basierend darauf, dass eine Längsachse des ersten Geräts in Richtung auf das zweite Gerät orientiert ist.
  14. Verfahren nach Anspruch 12 oder 13, wobei der Befehl basierend darauf generiert wird, dass das erste Gerät auf das zweite Gerät gerichtet ist.
  15. Verfahren nach einem der Ansprüche 12 bis 14, wobei der Befehl basierend auf einer Eingabe in eine auf dem Bildschirm angezeigte grafische Benutzeroberfläche (GUI) generiert wird, wobei die GUI von dem ersten Gerät als Reaktion darauf angezeigt wird, dass das erste Gerät erkennt, dass es in Richtung auf das zweite Gerät zeigt.
  16. Verfahren nach einem der Ansprüche 12 bis 15, wobei der Befehl an dem ersten Gerät erkannt wird basierend auf der Feststellung, dass mit dem ersten Gerät im freien Raum eine Geste in zwei Richtungen ausgeführt wird, wobei der Befehl ein Ein-/Ausschaltbefehl ist.
  17. Verfahren nach einem der Ansprüche 12 bis 16, wobei der Befehl an dem ersten Gerät erkannt wird basierend auf der Feststellung, dass mit dem ersten Gerät relativ zur Längsachse eine Geste im Uhrzeigersinn oder entgegen dem Uhrzeigersinn ausgeführt wird, wobei der Befehl ein Befehl zum Einstellen eines Parameters an einer Skala ist.
  18. Verfahren nach einem der Ansprüche 12 bis 17, wobei der Befehl basierend auf Berechtigungen eines Benutzers des ersten Geräts zum Steuern des zweiten Geräts übertragen wird.
  19. Zumindest ein computerlesbares Speichermedium (CRSM), das kein flüchtiges Signal ist, wobei das computerlesbare Speichermedium Anweisungen enthält, die von dem wenigstens einen Prozessor ausführbar sind, um: mit dem UWB-Sendeempfänger ein erstes UWB-Signal von einem ersten Gerät an ein zweites Gerät zu senden, das sich von dem ersten Gerät unterscheidet; mit dem UWB-Sendeempfänger von dem zweiten Gerät ein zweites UWB-Signal als Antwort auf das erste UWB-Signal zu empfangen; mit dem ersten Gerät basierend auf dem zweiten UWB-Signal einen Standort des zweiten Geräts zu bestimmen; zu bestimmen, dass das erste Gerät in Richtung auf das zweite Gerät orientiert ist; an dem ersten Gerät einen Befehl zum Steuern des zweiten Geräts zu empfangen; und Übertragen des Befehls an das zweite Gerät basierend auf dem Befehl und auf der Feststellung, dass das erste Gerät in Richtung auf das zweite Gerät orientiert ist.
  20. CRSM nach Anspruch 19, wobei das zweite Signal eine oder mehrere der folgenden Angaben anzeigt: einen dem zweiten Gerät zugeordneten Gerätetyp, einen dem zweiten Gerät zugeordneten aktuellen Gerätestatus, eine Nennung eines oder mehrerer Befehle, die an das zweite Gerät erteilt werden können; und wobei der Befehl basierend auf wenigstens einer der Angaben, die das zweite Signal anzeigt, erteilt wird.
DE102022104709.1A 2021-03-17 2022-02-28 Ultrabreitband zum Identifizieren und Steuern eines weiteren Geräts Pending DE102022104709A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/204,900 2021-03-17
US17/204,900 US20220300079A1 (en) 2021-03-17 2021-03-17 Ultra-wideband to identify and control other device

Publications (1)

Publication Number Publication Date
DE102022104709A1 true DE102022104709A1 (de) 2022-09-22

Family

ID=81254871

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022104709.1A Pending DE102022104709A1 (de) 2021-03-17 2022-02-28 Ultrabreitband zum Identifizieren und Steuern eines weiteren Geräts

Country Status (4)

Country Link
US (1) US20220300079A1 (de)
CN (1) CN114970579A (de)
DE (1) DE102022104709A1 (de)
GB (1) GB2606447A (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230024254A1 (en) * 2021-07-26 2023-01-26 Google Llc Gesture Controls Using Ultra Wide Band
CN116450024A (zh) * 2022-01-06 2023-07-18 联发科技(新加坡)私人有限公司 三维手势交互方法及其电子装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100580648B1 (ko) * 2004-04-10 2006-05-16 삼성전자주식회사 3차원 포인팅 기기 제어 방법 및 장치
US9571625B2 (en) * 2009-08-11 2017-02-14 Lg Electronics Inc. Electronic device and control method thereof
US20130050164A1 (en) * 2011-08-23 2013-02-28 Nicholaus R. Rericha Electronic device cases and covers having a reflective display, and methods thereof
US9721411B2 (en) * 2014-03-18 2017-08-01 Google Inc. Proximity-initiated physical mobile device gestures
US9990086B2 (en) * 2016-11-01 2018-06-05 Google Llc Controlling input and output on multiple sides of a computing device
US10325124B1 (en) * 2017-12-07 2019-06-18 Kacchip, LLC Indoor position and vector tracking system and method
US10841174B1 (en) * 2018-08-06 2020-11-17 Apple Inc. Electronic device with intuitive control interface
US10890653B2 (en) * 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
KR20200036571A (ko) * 2018-09-28 2020-04-07 삼성전자주식회사 사물의 위치 및 방향을 기반으로 기능을 제어하는 전자 장치 및 방법
AU2020391236A1 (en) * 2019-11-27 2022-07-14 Schlage Lock Company Llc Ultra-wideband technologies for seamless access control
CN111212182B (zh) * 2019-12-01 2021-06-25 深圳市纽瑞芯科技有限公司 用嵌uwb模块的手机直接遥控uwb设备的方法及装置
CN111343058B (zh) * 2020-02-07 2022-02-08 北京小米移动软件有限公司 设备控制方法、装置、控制设备及存储介质
KR20210106651A (ko) * 2020-02-21 2021-08-31 삼성전자주식회사 적어도 하나의 객체를 공유하는 전자 장치 및 그 제어 방법
KR20210121547A (ko) * 2020-03-30 2021-10-08 삼성전자주식회사 원격 입력 장치의 거리에 기초한 알림을 제공하는 방법 및 전자 장치

Also Published As

Publication number Publication date
CN114970579A (zh) 2022-08-30
US20220300079A1 (en) 2022-09-22
GB202203323D0 (en) 2022-04-27
GB2606447A (en) 2022-11-09

Similar Documents

Publication Publication Date Title
DE102022104709A1 (de) Ultrabreitband zum Identifizieren und Steuern eines weiteren Geräts
DE102013218005B4 (de) Verfahren zum Teilen von Daten zwischen Geräten
DE102017122427A1 (de) Automatische Anpassung einer Lautstärke eines Lautsprechers eines Gerätes basierend auf einer Amplitude einer Spracheingabe in das Gerät
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE102015106814A1 (de) Datenübertragung basierend auf identifizierenden Informationen von Eingabegeräten
DE202013100255U1 (de) Anzeigevorrichtung, Fernbedienungsvorrichtung sowie Bedienungsfunktion derselben
DE112015002463T5 (de) Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung
DE102016109561A1 (de) Bestimmung eines Geräts, an dem das Audiomaterial einer Telefonkommunikation vorzulegen ist
DE102017108589A1 (de) Verfahren und Apparat zum Erleichtern einer Aufstellung, einer Aufdeckung von Fähigkeiten und Interaktion von elektronischen Geräten
DE202015009846U1 (de) Einrichtung zum Verarbeiten biometrischer Informationen in einer elektronischen Vorrichtung
DE112011100648T5 (de) Gestensteuerung
DE102014118109A1 (de) Systeme und Verfahren zum Darstellen von Informationen auf einem Gerät basierend auf einem Eye-Tracking
DE102016104532A1 (de) Steuerung der Ausrichtung einer Gerätebildschirmanzeige basierend auf dem Benutzungskontext
DE112010002760T5 (de) Benutzerschnittstelle
DE202015009611U1 (de) Mobiles Endgerät
DE102016122716A1 (de) Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld
DE112016005657T5 (de) Verwendung von Beschleunigungssensoreingaben zum Ändern des Betriebszustands eines wandelbaren Computergeräts
DE102022103095A1 (de) Entsperren eines Schlosses an einem Gerät basierend auf einer Ultrabreitband-Standortverfolgung
DE202017007296U1 (de) Elektronische Vorrichtung, umfassend einen gebogenen Anzeigebereich
DE102016100363A1 (de) Tragbare elektronische Vorrichtung mit doppelten diagonalen Näherungssensoren und Modusschaltfunktionialität
DE202015009270U1 (de) Automatische Ermittlung und Installation von Anwendungen über das Internet bei Koppelung von Hardware-Geräten mit Computergeräten
DE102014117343B4 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
DE102017113324A1 (de) Vorrichtung und Verfahren zum Vorhersagen von Zielen der visuellen Aufmerksamkeit
CN105824400A (zh) 电子设备的控制方法、控制装置以及电子设备
DE112019007808T5 (de) Kamera-synchronisation und bild-markieren für eine gesichtsauthentifizierung

Legal Events

Date Code Title Description
R012 Request for examination validly filed