DE102019132052A1 - Intelligente Internet-der-Dinge-Menüs mit Kameras - Google Patents

Intelligente Internet-der-Dinge-Menüs mit Kameras Download PDF

Info

Publication number
DE102019132052A1
DE102019132052A1 DE102019132052.6A DE102019132052A DE102019132052A1 DE 102019132052 A1 DE102019132052 A1 DE 102019132052A1 DE 102019132052 A DE102019132052 A DE 102019132052A DE 102019132052 A1 DE102019132052 A1 DE 102019132052A1
Authority
DE
Germany
Prior art keywords
user
electronic communication
lot
communication device
iot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019132052.6A
Other languages
English (en)
Inventor
Yi Wu
Zhengping Ji
Rachid Alameh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Publication of DE102019132052A1 publication Critical patent/DE102019132052A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2823Reporting information sensed by appliance or service execution status of appliance services in a home automation network
    • H04L12/2827Reporting to a device within the home network; wherein the reception of the information reported automatically triggers the execution of a home appliance functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2807Exchanging configuration information on appliance services in a home automation network
    • H04L12/2812Exchanging configuration information on appliance services in a home automation network describing content present in a home automation network, e.g. audio video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2807Exchanging configuration information on appliance services in a home automation network
    • H04L12/2814Exchanging control software or macros for controlling appliance services in a home automation network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44227Monitoring of local network, e.g. connection or bandwidth variations; Detecting new devices in the local network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Systeme und Verfahren zum Bereitstellen von intelligenten Internet-der-Dinge-Menüs (loT-Menüs) nutzen eine Kamera eines elektronischen Kommunikationsgeräts und beinhalten die Erfassung einer Abbildung eines IoT-Geräts von Interesse mittels einer Kamera des elektronischen Kommunikationsgeräts und die Identifizierung des loT-Geräts von Interesse. Das IoT-Gerät von Interesse wird angezeigt und kann von dem Benutzer des Geräts ausgewählt werden. Der Benutzer des elektronischen Kommunikationsgeräts wird identifiziert und seine Verhaltenshistorie hinsichtlich des ausgewählten IoT-Geräts analysiert. Anschließend wird nicht ein Vollmenü, sondern vielmehr ein benutzerspezifisches IoT-Gerätesteuerungsmenü generiert und dem Benutzer präsentiert.

Description

  • TECHNISCHES GEBIET
  • Vorliegende Erfindung betrifft allgemein vernetzte elektronische Geräte und insbesondere Systeme und Verfahren, die dem Nutzer Interaktionen mit Internet-der-Dinge-Geräten (IoT-Geräten) erleichtern.
  • HINTERGRUND
  • Das Internet der Dinge ist ein Netzwerk von physischen Geräten zusätzlich zu den mehr traditionellen netzwerkspezifischen Komponenten wie Server, Schalter usw. IoT-Geräte können unter anderem Haushaltsgeräte (wie beispielsweise Waschmaschinen und Kühlschränke) und andere Geräte (wie beispielsweise Thermostate, Leuchten usw.) mit elektronischen Komponenten, Software und Konnektivitätselementen sein, die eine Verbindung des Geräts mit anderen Geräten oder Netzwerkelementen ermöglichen, um Daten zu sammeln, aktiv zu werden oder weitere nützliche Funktionen bereitzustellen.
  • Aufgrund ihrer Konnektivität können viele loT-Geräte fernüberwacht und ferngesteuert werden, sobald sie einmal richtig konfiguriert sind. Die Vielzahl von verfügbaren Geräten und die entsprechende Diversität von Implementierungen der Benutzeroberflächen können jedoch Probleme bereiten, wenn Nutzer versuchen, eine Schnittstelle mit bestimmten loT-Geräten zu bilden.
  • Der nachstehenden Beschreibung ist vorauszuschicken, dass diese sich gegebenenfalls mit einigen oder sämtlichen Nachteilen befasst, die in dem Abschnitt „Hintergrund“ aufgeführt oder implizit enthalten sind, dass jedoch der Rahmen der vorliegenden Erfindung oder der Schutzumfang der anliegenden Ansprüche hierdurch nicht eingeschränkt wird, außer in dem Umfang, der in den Ansprüchen explizit angegeben ist.
  • Ferner ist anzumerken, dass die Ausführungen in dem Abschnitt „Hintergrund“ die eigenen Beobachtungen, Überlegungen und Gedanken der Erfinder wiederspiegeln und keinesfalls eine genaue Katalogisierung oder umfassende Zusammenfassung des genannten Standes der Technik oder bekannter Vorgehensweisen sind. Insofern schließen die Erfinder diesen Abschnitt als zugelassenen oder angenommenen Stand der Technik ausdrücklich aus. Darüber hinaus basieren eine oder mehrere erstrebenswerte oder zweckmäßige Verfahren oder Handlungsoptionen, die vorliegend angegeben oder implizit enthalten sind, ebenfalls auf eigenen Beobachtungen und Gedanken der Erfinder. Es ist daher nicht davon auszugehen, dass diese eine im Stand der Technik anerkannte Erwünschtheit angeben.
  • Figurenliste
  • Diese Verfahren sowie deren Ziele und Vorteile werden nachstehend im Detail erläutert, wobei auf die anliegenden Zeichnungen Bezug genommen wird. Merkmale der vorliegenden Verfahren sind in den angefügten Ansprüchen angegeben.
    • 1 ist eine schematische Darstellung eines mobilen elektronischen Geräts, bei welchem verschiedene Ausführungsformen der vorliegenden Erfindung implementierbar sind;
    • 2 ist eine schematische Darstellung einer Geräteumgebung, wobei ein Benutzergerät gemäß einer Ausführungsform der vorliegenden Erfindung mit einer Gruppe von loT-Geräten interagiert;
    • 3 zeigt schematisch ein Beispiel einer Bedienoberfläche, die in der Umgebung von 2 vorgesehen ist;
    • 4 zeigt ein erstes Beispiel eines benutzerdefinierten Menüs zum Steuern einer loT-Beleuchtungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 5 zeigt ein zweites Beispiel eines benutzerdefinierten Menüs zum Steuern einer loT-Beleuchtungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 6 zeigt ein erstes Beispiel eines benutzerdefinierten Menüs zum Steuern eines loT-Fernsehgeräts gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 7 zeigt ein zweites Beispiel eines benutzerdefinierten Menüs zum Steuern eines loT-Fernsehgeräts gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 8 zeigt schematisch ein Beispiel einer Benutzeroberfläche zur Geräteauswahl gemäß einer Ausführungsform der vorliegenden Erfindung, wobei die möglichen loT-Geräte verschiedener Art sind;
    • 9 zeigt schematisch ein Beispiel einer Benutzeroberfläche zur Geräteauswahl gemäß einer Ausführungsform der vorliegenden Erfindung, wobei die möglichen loT-Geräte gleicher Art sind; und
    • 10 zeigt ein Flussdiagramm zur Darstellung eines Verfahrens gemäß einer Ausführungsform der vorliegenden Erfindung zur Bereitstellung von Smart-Menüs für loT-Geräte durch die Verwendung einer Kamera eines Benutzergeräts.
  • DETAILBESCHREIBUNG
  • Vor der detaillierten Beschreibung von Ausführungsformen der vorliegenden Erfindung werden einige Ausführungsformen in einem Überblick dargestellt, der die nachstehend Detailbeschreibung für den Leser leichter verständlich machen soll. Bestehende loT-Netzwerkeinstellungen erfordern generell, dass der Benutzer das zu paarende loT-Gerät auswählt und sich später an die Paarung erinnert, um Steuerbefehle an das Gerät zu senden. Eine solche Einstellung erfordert eine visuelle Geräteschnittstelle, die verfügbare Geräte zeigt, und sie erfordert die Auswahl einer interagierenden Benutzereingabe.
  • Hinzu kommt, dass bestehende loT-Geräte, sobald sie gepaart sind, für alle Benutzer die von den Herstellern bereitgestellte gleiche Benutzeroberfläche zeigen, so dass Benutzer oftmals ein kompliziertes Systemmenü durchsuchen müssen, um die gewünschte Option zu finden. Kurz gesagt: das Steuerungsmenü ist nicht personalisiert und kann kompliziert sein. In einer Ausführungsform der vorliegenden Erfindung jedoch können sich mehrere Geräte gleichen Typs in der Kameraansicht eines Benutzergeräts, zum Beispiel eines Mobiltelefons, befinden, und darüber hinaus zeigt das Benutzergerät dann ein relevantes Steuerungsmenü an, das auf die Gewohnheiten des Benutzers zugeschnitten ist bzw. basierend auf den Präferenzen des Benutzers für diesen personalisiert ist. Dieser zuletzt genannte Vorteil wird in einer Ausführungsform über eine Authentifizierung sowie über verhaltensgestütztes Lernen und Prädiktion ermöglicht.
  • Im Überblick: ein personalisierter und vereinfachter drahtloser Steuerungsmechanismus für IoT-Geräte erkennt ein gewünschtes Gerät, das zu steuern ist, und stellt eine benutzerdefinierte Benutzeroberfläche bereit. Bezüglich der Erkennung des IoT-Geräts nutzt das System die Kamera des Benutzergeräts, welches z.B. ein Smartphone ist, wenn die Kamera auf das gewünschte loT-Gerät gerichtet wird. Was die Benutzeroberfläche betrifft, lässt sich das erkannte IoT-Gerät mittels eines vereinfachten Steuerungsmenüs des Geräts über die Anzeigevorrichtung der Kamera steuern.
  • Mit diesem Überblick und unter Bezugnahme auf die anliegenden Zeichnungsfiguren werden nunmehr die erfindungsgemäßen Verfahren dargestellt, die in einer geeigneten oder mittels einer geeigneten Geräteumgebung implementiert werden. Die folgende Gerätebeschreibung basiert auf Ausführungsformen und Beispielen, innerhalb derer oder mittels derer die beschriebenen Prinzipien verwirklicht werden können, die jedoch nicht als Einschränkung der Ansprüche hinsichtlich alternativer, nicht explizit beschriebener Ausführungsformen zu sehen sind.
  • 1 zeigt als Beispiel ein mobiles elektronisches Kommunikationsgerät, bei welchem Ausführungsformen der vorliegenden Erfindung implementierbar sind. Es versteht sich jedoch, dass auch Geräte eines anderen Typs verwendet werden können, unter anderem zum Beispiel Laptop-Computer, Tablet-Computer usw. Es versteht sich ferner, dass abhängig von der Präferenz eines Benutzers, von der Verfügbarkeit von Komponenten, aus Preisgründen und aus anderen Überlegungen bei einer gegebenen Implementierung zusätzliche oder alternative Komponenten verwendet werden können.
  • In der dargestellten Ausführungsform umfassen die Komponenten des Benutzergeräts 110 einen Anzeigebildschirm 120, Anwendungen (z.B. Programme) 130, einen Prozessor 140, einen Speicher 150, eine oder mehrere Eingabekomponenten 160 wie beispielsweise eine RF-Eingabeeinrichtung oder drahtgebundene Eingabeeinrichtungen, unter anderem zum Beispiel eine oder mehrere Antennen und eine zugeordnete Schaltung und Logik. Die Antennen und die zugeordnete Schaltung können eine Anzahl von Protokollen unterstützen, z.B. WiFi, Bluetooth, zellulare Protokolle etc.
  • Das dargestellte Gerät 110 hat auch eine oder mehrere Komponenten 170 wie RF-Ausgabeeinrichtungen (Radiofrequenz-Ausgabeeinrichtungen) oder drahtgebundene Ausgabeeinrichtungen. Die RF-Ausgabeeinrichtungen können ähnlich eine beliebige Anzahl von Protokollen unterstützen, z.B. WiFi, Bluetooth, zellulare Protokolle etc., und sie können dieselben sein wie die zugeordneten Eingabeeinrichtungen oder können sich mit diesen überlappen. Es versteht sich, dass ein physischer Eingang sowohl dem Senden als auch dem Empfangen dienen kann.
  • Der Prozessor 140 kann ein Mikroprozessor, ein Mikrocomputer, eine anwendungsspezifische integrierte Schaltung oder eine andere geeignete integrierte Schaltung sein. Zum Beispiel kann der Prozessor 140 mittels eines oder mehrerer Mikroprozessoren oder Steuereinheiten einer gewünschten Familie oder von einem gewünschten Hersteller implementiert sein. Ähnlich ist der Speicher 150 ein nichttransitorisches Medium, das sich auf derselben integrierten Schaltung wie der Prozessor 140 befinden kann (jedoch nicht muss). Zusätzlich oder alternativ kann über ein Netzwerk, z.B. einen Cloudbasierten Massenspeicher, auf den Speicher 150 zugegriffen werden. Der Speicher 150 kann einen Speicher mit wahlfreiem Zugriff (d.h. Synchronous Dynamic Random Access Memory (SDRAM), Dynamic Random Access Memory (DRAM), RAMBUS Dynamic Random Access Memory (RDRM) oder ein anderes Speichergerät oder Speichersystem mit wahlfreiem Zugriff) umfassen. Zusätzlich oder alternativ kann der Speicher 150 einen Nur-LeseSpeicher (d.h. eine Festplatte, einen Flash-Speicher oder ein Speichergerät einer anderen gewünschten Art) umfassen.
  • Die in dem Speicher 150 gespeicherten Informationen können einen Programmcode (z.B. Anwendungen 130), der einem oder mehreren Betriebssystemen oder Anwendungen zugeordnet ist, sowie Informationsdaten, z.B. Programmparameter, Prozessdaten etc. umfassen. Das Betriebssystem und die Anwendungen werden in der typischen Weise über ausführbare Befehle implementiert, die in einem nichttransitorischen computerlesbaren Medium (z.B. dem Speicher 150) gespeichert sind, um Basisfunktionen des elektronischen Geräts 110 zu steuern. Solche Funktionen sind unter anderem zum Beispiel Interaktionen zwischen verschiedenen internen Komponenten und die Speicherung von Anwendungen und Daten in dem Speicher 150 und deren Abruf aus dem Speicher 150.
  • Was ferner die Anwendung und die Module betrifft, nutzen diese in der charakteristischen Weise das Betriebssystem, um spezifischere Funktionen bereitzustellen, wie zum Beispiel einen Dateisystemdienst und die Handhabung von geschützten und ungeschützten Daten, die in dem Speicher 150 gespeichert sind. In einer Ausführungsform sind Module Softwareagenten, die Hardwarekomponenten enthalten oder mit solchen interagieren, zum Beispiel ein oder mehrere Sensoren, und die die Operationen und Interaktionen des Geräts 110 im Hinblick auf die beschriebenen Ausführungsformen verwalten.
  • In einer Ausführungsform hat das Gerät 110 eine Kamera 180, die mit dem Geräteprozessor 140 in Verbindung steht. Die Kamera 180 enthält eine Betriebssoftware oder ist mit einer solchen verlinkt und kann benutzt werden für die Bilderfassung, für bildbasierte Aufgaben wie Authentifizierung sowie für andere gewünschte Aufgaben.
  • Was die Informationsdaten wie beispielsweise Programmparameter und Prozessdaten betrifft, können diese nichtausführbaren Informationen durch das Betriebssystem oder eine Anwendung referenziert, bearbeitet oder geschrieben werden. Solche Informationsdaten können zum Beispiel Daten enthalten, die bei der Herstellung in dem Gerät vorprogrammiert werden, Daten, die von dem Gerät erzeugt oder von dem Benutzer hinzugefügt werden, oder andere Informationen einer Informationsvielfalt, die in Server oder andere Geräte, mit denen das Gerät während seines laufenden Betriebs in Verbindung steht, hochgeladen oder von dem Server oder anderen Geräten heruntergeladen werden.
  • In einer Ausführungsform ist eine Stromversorgung 190 wie beispielsweise eine Batterie oder eine Brennstoffzelle vorhanden, um das Gerät 110 und seine Komponenten mit Strom zu versorgen. Zusätzlich oder alternativ kann das Gerät 100 extern versorgt werden, z.B. durch eine Fahrzeugbatterie, eine Steckdose oder eine andere Stromquelle. In dem dargestellten Beispiel stehen alle oder einige der internen Komponenten über einen oder mehrere gemeinsame oder eigene interne Kommunikationsverbindungen 195, z.B. einen internen Bus, miteinander in Verbindung.
  • In einer Ausführungsform ist das Gerät 110 derart programmiert, dass der Prozessor 140 und der Speicher 150 mit anderen Komponenten des Geräts zusammenwirken, um vielfältige Funktionen auszuüben. Der Prozessor 140 kann verschiedene Module enthalten oder implementieren und kann Programme ausführen, um verschiedene Aktivitäten zu initiieren, zum Beispiel eine Anwendung starten, Daten übertragen, zwischen verschiedenen graphischen Benutzerschnittstellenobjekten umschalten (z.B. zwischen verschiedenen Anzeigesymbolen, die mit ausführbaren Anwendungen verknüpft sind, umschalten). Wie vorstehend ausgeführt wurde, kann das Gerät 110 einen oder mehrere Anzeigebildschirme 120 enthalten. Diese können eine integrierte Anzeigevorrichtung oder eine externe Anzeigevorrichtung oder beides umfassen und können einen oder mehrere Berührungssensoren 180 umfassen.
  • 2 zeigt eine schematische Geräteumgebung mit einem Benutzergerät 110, das mit einer Gruppe von loT-Geräten 201, 203, 205, 207, 209 gemäß einer oder mehrerer Ausführungsformen der vorliegenden Erfindung zusammenwirkt. In dem dargestellten Beispiel sind die loT-Geräte 201, 203, 205, 207, 209 als Beleuchtungskörper dargestellt. Es versteht sich jedoch, dass die Geräte 201, 203, 205, 207, 209 auch andere IoT-Geräte sein können und nicht vom selben Typ sein müssen.
  • Das Benutzergerät 201, welches ein Smartphone oder ein anderes tragbares elektronisches Kommunikationsgerät sein kann, wie dieses zum Beispiel in 1 dargestellt ist, enthält eine Kamera 140 (1). Der Blickwinkel der Kamera 140 umfasst in dem dargestellten Beispiel die Gruppe von loT-Geräten 201, 203, 205, 207, 209. Darüber hinaus wird die Entfernung zwischen dem Benutzergerät 110 und jedem loT-Gerät 201, 203, 205, 207, 209 ermittelt (in der Figur als Entfernung D1, D3, D5, D7, D9 dargestellt). Wie in dem dargestellten Beispiel zu sehen ist, ist D9 die größte Entfernung, was bedeutet, dass das loT-Gerät 209 am weitesten von dem Benutzergerät 110 entfernt ist, und D7 ist die kleinste Entfernung, was bedeutet, dass das loT-Gerät 207 am nächsten zu dem Benutzergerät 110 liegt. Die anderen loT-Geräte 201, 203 und 205 befinden sich jeweils in den dazwischen liegenden Entfernungen D1, D3 und D5.
  • Damit das Benutzergerät 110 ermitteln kann, welches Gerät für den Benutzer aktuell von Interesse ist, wird die kleinste IoT-Gerät-Entfernung (D7) in der Kameraansicht identifiziert, und das Gerät 110 markiert dieses nächstgelegene Gerät 207 auf dem Bildschirm, wie das in 3 gezeigt ist. Das Benutzergerät geht davon aus, dass das nächstgelegene Gerät jenes ist, mit welchem der Benutzer interagieren möchte.
  • Die Markierung 301 kann ein Kästchen, ein Umriss, eine Farbänderung oder eine andere geeignete Änderung für eine visuelle Unterscheidung des interessierenden loT-Geräts 207 von den restlichen loT-Geräten 201, 203, 205, 209 sein. Alternativ oder zusätzlich zu einer Änderung der Abbildung des interessierenden IoT-Geräts 207 kann das Benutzergerät 110 die Abbildungen der verbleibenden loT-Geräte 201 203, 205, 209 ändern, indem diese zum Beispiel ausgeblendet werden, gelöscht werden usw.
  • Das markierte loT-Gerät (207 in diesem Beispiel) kann dann von dem Benutzer ausgewählt werden, um eine Benutzeroberfläche zum Steuern des interessierenden loT-Geräts 207 zu öffnen. Alternativ kann der Benutzer anzeigen, dass das markierte Gerät nicht dasjenige von Interesse ist, indem er über das markierte Gerät wischt, auf die Abbildung eines anderen Geräts tippt etc. In dieser Phase kann auch eine Vollmenü-Option 303 bereitgestellt werden, falls der Benutzer sowohl das markierte Gerät 207 auswählen als auch ein Vollmenü für dieses Gerät 207 sehen möchte.
  • In einer Ausführungsform ist das Benutzergerät 110 derart konfiguriert, dass es den Benutzer erkennt (z.B. durch eine Gesichtserkennung, eine vorherige Authentifizierung etc.) und die wahrscheinlichsten Aktionen prädiziert, die von diesem Benutzer bezüglich des identifizierten loT-Geräts 207 auszuführen sind, oder dass auf frühere Benutzereingriffe/Historien hinsichtlich des speziellen Geräts geklickt wird. Die Prädiktion basiert in einer Ausführungsform auf früheren Aktionen desselben Benutzers bezüglich des interessierenden loT-Geräts 207, zum Beispiel auf dem Verlauf der Benutzerbefehle, der Zugriffserlaubnis, der Zeit usw. In einer Ausführungsform der vorliegenden Erfindung kann der Benutzer anstelle des prädiktionsbasierten Menüs auch ein Vollmenü anfordern.
  • 4 und 5 zeigen Beispiele von prädiktiven Menüs jeweils für einen ersten und einen zweiten Benutzer des Benutzergeräts 110. In diesen Figuren geht man davon aus, dass das ausgewählte IoT-Gerät ein Beleuchtungskörper ist. Wie in 4 zu sehen ist, enthält das benutzerdefinierte Menü für den ersten Benutzer drei Einstellungssteuerelemente 401, die der Benutzer 1 am häufigsten verwendet. In dem dargestellten Beispiel umfassen diese die Lichtquelleneinstellungen An/Aus, Timer und Anwesenheitserfassung (z.B. derart, dass das Licht bei Erfassung einer Anwesenheit angeschaltet wird).
  • Dagegen umfassen die vorgesehenen Auswahlen in dem prädiktiven Menü für den zweiten Benutzer wie in 5 gezeigt drei Einstellungssteuerungselemente 503, nämlich An/Aus, Dimmen und Tag/Nacht (z.B. An während der Stunden bei Nacht und Aus während der Stunden bei Tag). Es versteht sich, dass diese Menüs auf dem hypothetischen früheren Steuerungsverlauf von Benutzer 1 bzw. Benutzer 2 basieren und identisch sein können, sich überlappen können oder vollkommen verschieden sein können, wie es deren jeweiliger Verlauf vorschreibt. Für die darstellbaren Optionen gibt es keine minimale oder maximale Anzahl, doch wurden für dieses Beispiel drei Auswahlmöglichkeiten gewählt.
  • Wie vorangehend bereits ausgeführt wurde, kann das gesteuerte loT-Gerät von Interesse ein beliebiges loT-Gerät sein, wobei 6 und 7 in diesem Zusammenhang mögliche Optionen zeigen, die zwei verschiedenen Benutzern präsentiert werden, wenn das loT-Gerät von Interesse ein loT-Fernsehgerät ist. Für den ersten Benutzer zeigt die Benutzeroberfläche des Geräts 110 drei Optionen 601, und zwar NETFLIX, AMAZON und BRAVO ( 6), während die Benutzeroberfläche des Geräts 110 für den zweiten Benutzer die drei Optionen 703, nämlich STARZ, TLC und HBO (7) zeigt.
  • Jede Benutzeroberfläche, die in den 4-7 gezeigt ist, stellt auch eine Vollmenü-Option 405, 505, 605, 705 bereit, falls sich der Benutzer an diesem Punkt entscheidet, ein Vollmenü anzufordern. Zum Beispiel kann der Benutzer befinden, dass die ihn interessierende Option auf dem prädiktiven Menü nicht gezeigt ist und kann deshalb die Vollmenü-Option 405, 505, 605, 705 wählen, um alle Auswahlmöglichkeiten zu sehen oder auf diese zuzugreifen. Wie vorangehend bereits angemerkt wurde, kann eine Vollmenü-Option 303 auch bereits in der Erkennungsphase des Geräts 110 bereitgestellt werden.
  • Wie nachstehend im Zusammenhang mit 8 eingehender erläutert wird, ist die Erkennung des gewünschten loT-Geräts nicht immer einfach. Wenn zum Beispiel zwei Geräte gleich weit von dem Benutzergerät 110 entfernt sind, wie in 8 gezeigt ist, in der sich die beiden loT-Geräte 801 und 803 in der gleichen Entfernung D von dem Benutzergerät 110 befinden, gibt es kein am nächsten gelegenes Gerät. Durch die Wahl eines Gerätetyps über die Eingabeaufforderungen 805 und 807 kann der Benutzer die gewünschten IoT-Geräte unterscheiden, jedoch nur, wenn die infrage kommenden loT-Geräte voneinander verschiedene Gerätetypen sind.
  • Wie 9 zeigt, liegen zwei identische loT-Geräte 901 und 903 gegebenenfalls in der gleichen Entfernung D zu dem Benutzergerät 110. Für den Fall, dass die loT-Geräte nicht nur vom gleichen Typ sind, sondern auch gleich weit von dem Benutzergerät 110 entfernt sind, ist das Gerät 110 in einer Ausführungsform derart konfiguriert, dass es den Benutzer auffordert, sich näher an das interessierende IoT-Gerät heranzubewegen. Solchermaßen kann das Gerät 110 in dem Beispiel von 9 die Aufforderung 905 anzeigen: „Bewegen Sie sich näher zu dem IoT-Gerät von Interesse“. Sobald sich der Benutzer (der das Gerät 110 hält), näher an das IoT-Gerät von Interesse heranbewegt, wird die Entfernung zwischen dem loT-Gerät von Interesse und dem Benutzergerät 110 zur kleinsten Entfernung und lässt sich für die Identifizierung des interessierenden IoT-Geräts nutzen.
  • Es wird auf das Flussdiagramm von 10 Bezug genommen. Dieses Flussdiagramm zeigt in Übereinstimmung mit der vorangehenden Erläuterung ein Verfahren zum Bereitstellen von Smart-Menüs für loT-Geräte durch die Verwendung einer Kamera eines Benutzergeräts. In Schritt 1001 des Verfahrens 1000 initiiert der Benutzer den IoT-Steuerungsprozess, indem er zum Beispiel eine entsprechende Anwendung aktiviert. In Schritt 1003 aktiviert das Benutzergerät 110 seine Kamera 190. Alternativ ist der loT-Erkennungsprozess jedes Mal aktiv, wenn die Kamera des Telefons aktiv ist.
  • Wenn sich ein loT-Gerät in der Kameraansicht befindet, wie in Schritt 1005 ermittelt, berührt der Benutzer im weiteren Verlauf in Schritt 1007 das Gerät 110 auf dessen Anzeigevorrichtung. Andernfalls führt der Ablauf zurück zu Schritt 1003. Wenn der Benutzer in Schritt 1007 ein Gerät in der Anzeigevorrichtung des Benutzergeräts 110 berührt hat, durchsucht das Benutzergerät 110 in Schritt 1009 eine Geräteliste in einem aktuell bekannten IoT-Netzwerk. Wenn in dem Netzwerk nur ein loT-Gerät vorhanden ist, wie in Schritt 1011 ermittelt, stellt das Benutzergerät 110 direkt eine Verbindung mit diesem IoT-Gerät her.
  • Sind stattdessen mehrere loT-Geräte in dem Netzwerk vorhanden, wie in Schritt 1011 ermittelt, jedoch nur ein Gerät der von dem Benutzer ausgewählten Art, führt der Ablauf zu Schritt 1013, in welchem das Benutzergerät 110 die SSID (Service Set Identifier) des loT-Geräts abfragt und eine Verbindung mit dem Gerät herstellt.
  • Wenn jedoch von der Art des Geräts, das der Benutzer in dem Netzwerk ausgewählt hat, mehrere loT-Geräte vorhanden sind, wie in Schritt 1011 ermittelt, führt der Ablauf zu den Schritten 1017 und 1019, in denen die Objektentfernung auf zwei verschiedene Arten ermittelt wird. Insbesondere schätzt das Benutzergerät in Schritt 1017 die Entfernung zwischen dem Telefon und dem IoT-Gerät, indem es die Größe des Geräts auf der Anzeigevorrichtung bestimmt und dabei auch die Entfernung zwischen dem Benutzergerät 110 und sämtlichen IoT-Geräten in dem bekannten Netzwerk, die dem von dem Benutzer ausgewählten Typ entsprechen, indem in Schritt 1019 für jedes solche IoT-Gerät der BT RSSI-Wert (Bluetooth Received Signal Strength Indiacator) bestimmt wird.
  • Wenn die durch die erste Vorgehensweise geschätzte Entfernung innerhalb einer vorgegebenen Toleranz mit einer durch RSSI geschätzten Entfernung übereinstimmt, wie in Schritt 1019 ermittelt, stellt das Benutzergerät 110 in Schritt 1021 eine Verbindung mit dem Gerät her, auf welches die Übereinstimmung zutrifft.
  • Wurde ein loT-Gerät von Interesse identifiziert und mit dem Benutzergerät 110 verbunden, authentifiziert das Benutzergerät 110 in Schritt 1023 den Benutzer. Dies kann durch ein geeignetes Verfahren erfolgen, zum Beispiel durch eine Gesichtserkennung mit einer Kamera des Geräts, wobei der Benutzer mit der Frontkamera des Geräts authentifiziert wird, wenn der Benutzer die Rückkamera des Geräts auf das IoT-Gerät gerichtet hat, das für den Benutzer von Interesse ist. Alternativ oder zusätzlich kann das Gerät 110 eine Fingerabdruck-Authentifizierung nutzen (z.B. den Fingerabdruck verwenden, der erfasst wurde, als der Benutzer das IoT-Gerät ausgewählt hat) oder eine Spracherkennung.
  • Nach erfolgter Identifizierung des loT-Geräts von Interesse und Authentifizierung des Benutzers, generiert das Benutzergerät 110 in Schritt 1025 ein vereinfachtes Geräte-Steuerungsmenü, dessen Inhalt und Format auf der Basis der Benutzerhistorie, der jeweiligen Zugriffserlaubnis, von Zeit/Ort/Umgebung oder auf der Basis eines sonstigen Benutzerverhaltens abgeleitet werden, wobei diese Informationen in dem Gerät gespeichert sind oder aus der Cloud heruntergeladen werden. Wie vorangehend erwähnt wurde, kann dem Benutzer eine Vollmenü-Option angeboten werden, die, wenn sie gewählt wird, anstelle eines benutzerdefinierten Menüs ein Vollmenü präsentiert.
  • In Schritt 1027 wählt der Benutzer eine Steuerungsoption, woraufhin in Schritt 1029 ein entsprechender Steuerbefehl an das loT-Gerät gesandt wird. Dies kann abhängig von der loT-Netzwerkeinstellung direkt erfolgen oder über einen loT-Hub.
  • Als Beispiel für das vorgenannte Verfahren nehme man eine laute Umgebung, zum Beispiel eine Party, in welcher der Benutzer des Geräts die Musik oder die Eigenschaften der Musik wechseln will, die über einen loT-Lautsprecher wiedergegeben wird. Der Benutzer kann in diesem Fall keine Sprachbefehle erteilen, weil das Hintergrundgeräusch zu laut ist, um einen akustischen Befehl erkennen zu können. Stattdessen kann der Benutzer/die Benutzerin sein/ihr Telefon auf den IoT-Lautsprecher richten und den loT-Lautsprecher über die Anzeigevorrichtung des Telefons steuern.
  • Ein weiteres Beispiel ist ein Sicherheitsroboter, der in einem Einkaufszentrum patroulliert und Videos zu dem Monitor einer Bedienungsperson zurückstreamt. Bemerkt die Bedienungsperson, dass eine loT-Lichtquelle in dem gestreamten Video zu dunkel ist, kann die Bedienungsperson auf das Gerät auf dem Monitor tippen, und es öffnet sich ein Steuerungsmenü für das Gerät. Dieses Beispiel zeigt, dass das Benutzergerät 110 kein Mobilgerät sein muss und dass die beschriebenen Funktionen zwischen zwei Geräten aufgeteilt sein können, indem zum Beispiel eine Bildgebungsfunktion eines ersten Geräts und eine Anzeigefunktion eines zweiten Geräts genutzt werden, wobei die Verarbeitungsfunktionen an dem einen oder an dem anderen Gerät oder an beiden Geräten stattfinden.
  • Die hier genannten Beispiele beziehen sich allgemein auf eine berührungsempfindliche Anzeigevorrichtung auf dem Benutzergerät 110. Es sollte jedoch klar sein, dass eine solche Benutzeroberfläche nicht auf eine Berührung mit dem Finger beschränkt sein muss, sondern alternativ auch auf die Berührung mit einem Stift und dergleichen reagieren kann. Darüber hinaus umfasst der Begriff „berührungsempfindlich“ für die Steuerung eines loT-Geräts verschiedene Eingabearten. Zum Beispiel können die Optionstasten anstelle von Symboltasten die Tasten einer Tastatur sein, oder es können andere Eingabearten für die Gerätesteuerung verwendet werden. Diese sind unter anderem physische oder virtuelle Schieber (z.B. für die Einstellung von Thermostaten), Skalen (z.B. für die Geräteabstimmung), Joysticks (z.B. zum Ändern einer Kameraorientierung) usw.
  • Vorstehend wurden verschiedene Systeme und Verfahren beschrieben. In Anbetracht der vielen möglichen Ausführungsformen, bei welchen die Prinzipien der vorliegenden Erfindung Anwendung finden können, sollte jedoch erkannt werden, dass die Ausführungsformen, die hier mit Bezug auf die Zeichnungsfiguren beschrieben wurden, nur zur Veranschaulichung dienen und den Schutzumfang der Ansprüche nicht einschränken. Daher berücksichtigen die vorliegend beschriebenen Verfahren alle Ausführungsformen, die in den Schutzbereich der folgenden Ansprüche und deren Äquivalente fallen können.

Claims (20)

  1. Elektronisches Kommunikationsgerät, das unter Verwendung einer Kamera intelligente Internet-der-Dinge-Menüs (IoT-Menüs) bereitstellt, wobei das elektronische Kommunikationsgerät umfasst: eine berührungsempfindliche Anzeigevorrichtung; eine Kamera; einen Prozessor, der mit der berührungsempfindlichen Anzeigevorrichtung und mit der Kamera in Verbindung steht und konfiguriert ist für die Erfassung einer Abbildung eines loT-Geräts, für die Identifizierung des loT-Geräts, für die Anzeige der Abbildung des loT-Geräts über die berührungsempfindliche Anzeigevorrichtung, für den Empfang einer Auswahl des Geräts durch den Benutzer, für die Identifizierung eines Benutzers des elektronischen Kommunikationsgeräts, für den Abruf von Daten bezüglich der Verhaltenshistorie des Benutzers des elektronischen Kommunikationsgeräts, für die Generierung eines benutzerspezifischen loT Gerätesteuerungsmenüs für das identifizierte loT-Gerät unter Verwendung der abgerufenen Daten betreffend die Verhaltenshistorie des Benutzers des elektronischen Kommunikationsgeräts und für die Anzeige des benutzerspezifischen loT-Gerätesteuerungsmenüs für den Benutzer über die berührungsempfindliche Anzeigevorrichtung.
  2. Elektronisches Kommunikationsgerät nach Anspruch 1, wobei der Prozessor ferner konfiguriert ist für die Identifizierung des loT-Geräts durch den Abruf von loT-Gerätedaten und für die Identifizierung des loT-Geräts über Bildobjekterkennung.
  3. Elektronisches Kommunikationsgerät nach Anspruch 2, wobei der Prozessor ferner konfiguriert ist für den Abruf der loT-Gerätedaten über ein Netzwerk.
  4. Elektronisches Kommunikationsgerät nach Anspruch 2 oder 3, wobei das elektronische Kommunikationsgerät ferner einen lokalen Speicher hat und wobei der Prozessor ferner konfiguriert ist für den Abruf der loT-Gerätedaten aus dem lokalen Speicher.
  5. Elektronisches Kommunikationsgerät nach einem der Ansprüche 2 bis 4, ferner umfassend eine Funkverbindung, wobei der Prozessor ferner konfiguriert ist für das Identifizieren des loT-Geräts durch die Erfassung eines Received Signal Strength Indicator (RSSI)-Pegels des loT-Geräts, für die Bestimmung einer Größe der angezeigten Abbildung des loT-Geräts und für die Bestimmung, dass der empfangene RSSI-Pegel und die Größe der angezeigten Abbildung innerhalb einer vorgegebenen Toleranz der gleichen Entfernung entsprechen.
  6. Elektronisches Kommunikationsgerät nach einem der Ansprüche 1 bis 5, wobei die Identifizierung des Benutzers des elektronischen Kommunikationsgeräts die Identifizierung des Benutzers mittels Gesichtserkennung umfasst.
  7. Elektronische Kommunikationsgerät nach einem der Ansprüche 1 bis 6, ferner umfassend eine zweite Kamera, wobei die zweite Kamera für die Durchführung der Gesichtserkennung verwendet wird.
  8. Elektronisches Kommunikationsgerät nach einem der Ansprüche 1 bis 7, wobei die Identifizierung des Benutzers des elektronischen Kommunikationsgeräts die Identifizierung des Benutzers zumindest mittels Fingerabdruckerkennung oder Spracherkennung umfasst.
  9. Elektronisches Kommunikationsgerät nach einem der Ansprüche 1 bis 8, wobei der Prozessor ferner konfiguriert ist für die Anzeige einer Vollmenü-Option für den Benutzer des elektronischen Kommunikationsgeräts, so dass die Wahl der Vollmenü-Option durch den Benutzer den Prozessor zur Anzeige eines nicht benutzerspezifischen IoT-Gerätesteuerungsmenüs für den Benutzer über die berührungsempfindliche Anzeigevorrichtung veranlasst.
  10. Verfahren zur Bereitstellung eines intelligenten Internet-der-Dinge-Menüs (IoT-Menüs) unter Verwendung einer Kamera eines elektronischen Kommunikationsgeräts, umfassend: das Erfassen einer Abbildung eines loT-Geräts unter Verwendung einer Kamera des elektronischen Kommunikationsgeräts; das Identifizieren des loT-Geräts; das Anzeigen der Abbildung des loT-Geräts auf einer Anzeigevorrichtung des elektronischen Kommunikationsgeräts; das Empfangen einer Auswahl des loT-Geräts durch den Benutzer; das Identifizieren eines Benutzers des elektronischen Kommunikationsgeräts; das Abrufen von Daten betreffend die Verhaltenshistorie des Benutzers des elektronischen Geräts; das Generieren eines benutzerspezifischen IoT-Gerätesteuerungsmenüs für das identifizierte IoT-Gerät unter Verwendung der abgerufenen Daten betreffend die Verhaltenshistorie des Benutzers; und das Anzeigen des benutzerspezifischen IoT-Gerätesteuerungsmenüs für den Benutzer über die Anzeigevorrichtung des elektronischen Kommunikationsgeräts.
  11. Verfahren nach Anspruch 10, wobei der Prozessor ferner konfiguriert ist für die Identifizierung des loT-Geräts durch das Abrufen von IoT-Gerätedaten und das Identifizieren des loT-Geräts mittels Bildobjekterkennung.
  12. Verfahren nach Anspruch 11, wobei die IoT-Gerätedaten über ein Netzwerk abgerufen werden.
  13. Verfahren nach Anspruch 11 oder 12, wobei die IoT-Gerätedaten aus einem lokalen Speicher des elektronischen Kommunikationsgeräts abgerufen werden.
  14. Verfahren nach einem der Ansprüche 11 bis 13, wobei das Identifizieren des loT-Geräts das Erfassen eines Received Signal Strength Indicator (RSSI)-Pegels des loT-Geräts, das Bestimmen einer Größe der angezeigten Abbildung des loT-Geräts und das Bestimmen, dass der empfangene RSSI-Pegel und die Größe der angezeigten Abbildung innerhalb eines vorgegebenen Toleranzbereichs der gleichen Entfernung entsprechen.
  15. Verfahren nach einem der Ansprüche 10 bis 14, wobei das Identifizieren des Benutzers des elektronischen Kommunikationsgeräts das Identifizieren des Benutzers mittels Gesichtserkennung umfasst.
  16. Verfahren nach einem der Ansprüche 10 bis 15, wobei das Identifizieren des Benutzers des elektronischen Kommunikationsgeräts das Identifizieren des Benutzers zumindest mittels Fingerabdruckerkennung oder Spracherkennung erfolgt.
  17. Verfahren nach einem der Ansprüche 10 bis 16, wobei das Anzeigen des benutzerspezifischen IoT-Gerätesteuerungsmenüs das Anzeigen einer Vollmenü-Option umfasst, so dass die Wahl der Vollmenü-Option durch den Benutzer die Anzeige eines nicht benutzerspezifischen IoT-Gerätesteuerungsmenüs bewirkt.
  18. Verfahren zum Bereitstellen eines benutzerspezifischen IoT-Steuerungsmenüs (Internet-der-Dinge-Steuerungsmenüs) für den Benutzer eines elektronischen Kommunikationsgeräts hinsichtlich eines loT-Geräts von Interesse, wobei das Verfahren umfasst: das Erfassen einer Abbildung des loT-Geräts von Interesse mittels einer Kamera des elektronischen Kommunikationsgeräts, wenn der Benutzer die Kamera auf das IoT-Gerät von Interesse richtet; das Identifizieren des loT-Geräts von Interesse basierend auf der erfassten Abbildung; das Identifizieren des Benutzers zum Erzeugen einer Benutzeridentität; und das Anzeigen eines benutzerspezifischen IoT-Steuerungsmenüs für das loT-Gerät von Interesse, wobei das benutzerspezifische IoT-Steuerungsmenü auf der Benutzeridentität basiert.
  19. Verfahren nach Anspruch 18, wobei das Anzeigen des benutzerspezifischen IoT-Steuerungsmenüs für das loT-Gerät von Interesse ferner das Abrufen von Informationen über die Verhaltenshistorie des Benutzers umfasst, wobei die Informationen über die Verhaltenshistorie Informationen enthalten, die von dem Benutzer früher ausgewählten Optionen zum Steuern des IoT-Geräts von Interesse betreffen, und das Generieren des benutzerspezifischen IoT-Steuerungsmenüs unter Nutzung der Informationen über die Verhaltenshistorie.
  20. Verfahren nach Anspruch 18 oder 19, ferner umfassend das Anzeigen einer Vollmenü-Option für den Benutzer, das Empfangen einer Wahl der Vollmenü-Option durch den Benutzer und in Reaktion darauf das Ersetzen des benutzerspezifischen IoT-Steuerungsmenüs durch ein nicht benutzerspezifisches IoT-Steuerungsmenü.
DE102019132052.6A 2018-11-28 2019-11-26 Intelligente Internet-der-Dinge-Menüs mit Kameras Pending DE102019132052A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
USUS16/203,175 2018-11-28
US16/203,175 US11233671B2 (en) 2018-11-28 2018-11-28 Smart internet of things menus with cameras

Publications (1)

Publication Number Publication Date
DE102019132052A1 true DE102019132052A1 (de) 2020-05-28

Family

ID=69137275

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019132052.6A Pending DE102019132052A1 (de) 2018-11-28 2019-11-26 Intelligente Internet-der-Dinge-Menüs mit Kameras

Country Status (4)

Country Link
US (1) US11233671B2 (de)
CN (1) CN111240555A (de)
DE (1) DE102019132052A1 (de)
GB (1) GB2580518B (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102528671B1 (ko) * 2018-09-05 2023-05-04 엘지전자 주식회사 이동 단말기
US11233671B2 (en) * 2018-11-28 2022-01-25 Motorola Mobility Llc Smart internet of things menus with cameras
EP3912327A1 (de) * 2019-01-18 2021-11-24 Google LLC Modifikation der art der interaktion zwischen einer mobilen rechnervorrichtung und einer peripherievorrichtung basierend auf der nähe
EP3895460B1 (de) 2019-01-21 2023-12-27 Google LLC Steuerung von entfernten geräten unter verwendung von benutzerschnittstellenschablonen
US11487873B2 (en) * 2019-01-22 2022-11-01 EMC IP Holding Company LLC Risk score generation utilizing monitored behavior and predicted impact of compromise
DE102019209888A1 (de) * 2019-07-04 2021-01-07 BSH Hausgeräte GmbH System und Verfahren zur Authentifizierung an einem Gerät
US11089109B1 (en) * 2019-11-20 2021-08-10 Sprint Communications Company L.P. Smart device management via a mobile communication device based on privacy preferences
KR20210061856A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 디스플레이 장치 및 그 동작방법
US11402984B2 (en) * 2020-11-18 2022-08-02 Google Llc Proximity-based controls on a second device
CN113220202B (zh) * 2021-05-31 2023-08-11 中国联合网络通信集团有限公司 一种物联网设备的控制方法和装置
CN115225818B (zh) * 2022-07-13 2024-05-21 北京有竹居网络技术有限公司 配置设备的方法、装置、设备和存储介质

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496927B1 (en) * 1999-06-09 2002-12-17 Amx Corporation Method and configuring a user interface for controlling a controlled device based upon a device class
US7917855B1 (en) * 2002-04-01 2011-03-29 Symantec Operating Corporation Method and apparatus for configuring a user interface
US8713090B2 (en) * 2006-12-15 2014-04-29 Microsoft Corporation Enhancing user experiences using aggregated device usage data
CN102099763A (zh) * 2008-05-20 2011-06-15 惠普开发有限公司 用户界面修改器
US8970658B2 (en) * 2012-04-20 2015-03-03 Logitech Europe S.A. User interface allowing a participant to rejoin a previously left videoconference
US8910262B2 (en) * 2012-12-21 2014-12-09 Cellco Partnership Supporting multiple messaging services on mobile devices in a single user experience
US9233472B2 (en) * 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
US11185783B2 (en) * 2013-03-14 2021-11-30 Sony Interactive Entertainment Inc. Controller emulation for cloud gaming
US9674707B2 (en) * 2013-03-15 2017-06-06 Apple Inc. Facilitating a secure session between paired devices
KR20150014052A (ko) * 2013-07-26 2015-02-06 주식회사 팬택 통합 커뮤니케이션 기능을 구비한 사용자 단말 및 이를 위한 커뮤니케이션 이력 표시 방법
US10451874B2 (en) * 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
KR102188090B1 (ko) * 2013-12-11 2020-12-04 엘지전자 주식회사 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템
US9445032B2 (en) * 2014-03-24 2016-09-13 Broadcom Corporation Auto-pairing control device
CN104977904B (zh) * 2014-04-04 2018-06-19 浙江大学 一种可见即可控的智能家居控制系统及控制方法
KR102201906B1 (ko) * 2014-04-29 2021-01-12 삼성전자주식회사 전자 장치에서 다른 전자 장치를 제어하기 위한 장치 및 방법
US10402294B1 (en) * 2014-06-19 2019-09-03 Google Llc Methods and systems of differentiating between at least two peripheral electronic devices
US9529605B2 (en) * 2014-08-27 2016-12-27 Microsoft Technology Licensing, Llc Customizing user interface indicators based on prior interactions
KR20160145351A (ko) * 2015-06-10 2016-12-20 삼성전자주식회사 디스플레이장치 및 그 제어 방법
KR102315345B1 (ko) * 2015-06-26 2021-10-20 삼성전자주식회사 노드 단말 장치, 디스플레이 장치, 이를 포함하는 주변 기기 관리 시스템 및 그 방법
US20170031575A1 (en) * 2015-07-28 2017-02-02 Microsoft Technology Licensing, Llc Tailored computing experience based on contextual signals
KR20170015622A (ko) * 2015-07-29 2017-02-09 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
CN204904540U (zh) * 2015-08-20 2015-12-23 深圳市云动创想科技有限公司 有屏智能遥控器
KR20170055295A (ko) * 2015-11-11 2017-05-19 엘지전자 주식회사 이동 단말기 및 그 이동 단말기의 제어 방법
KR102344021B1 (ko) * 2015-12-23 2021-12-28 삼성전자주식회사 디바이스를 제어하는 방법 및 장치
US10574445B2 (en) * 2016-12-21 2020-02-25 Intel IP Corporation Range constrained device configuration
US10602362B2 (en) * 2016-12-27 2020-03-24 Lite-On Electronics (Guangzhou) Limited Gateway, gateway setup method, and IoT device setup method in IoT system
KR20180082812A (ko) * 2017-01-11 2018-07-19 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
US10924461B2 (en) * 2017-04-27 2021-02-16 Afero, Inc. Secure two-way beacon in an internet of things (IoT) system
KR20190017280A (ko) * 2017-08-10 2019-02-20 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR102385263B1 (ko) * 2018-01-04 2022-04-12 삼성전자주식회사 이동형 홈 로봇 및 이동형 홈 로봇의 제어 방법
US20200007411A1 (en) * 2018-06-28 2020-01-02 International Business Machines Corporation Cognitive role-based policy assignment and user interface modification for mobile electronic devices
CN108803371B (zh) * 2018-08-13 2021-09-03 三星电子(中国)研发中心 一种电器设备的控制方法以及装置
KR102528671B1 (ko) * 2018-09-05 2023-05-04 엘지전자 주식회사 이동 단말기
WO2020068040A1 (en) * 2018-09-24 2020-04-02 Google Llc Controlling a device based on processing of image data that captures the device and/or an installation environment of the device
US11233671B2 (en) * 2018-11-28 2022-01-25 Motorola Mobility Llc Smart internet of things menus with cameras

Also Published As

Publication number Publication date
GB2580518B (en) 2021-11-10
CN111240555A (zh) 2020-06-05
GB2580518A (en) 2020-07-22
US20200169427A1 (en) 2020-05-28
GB201917285D0 (en) 2020-01-08
US11233671B2 (en) 2022-01-25

Similar Documents

Publication Publication Date Title
DE102019132052A1 (de) Intelligente Internet-der-Dinge-Menüs mit Kameras
DE202017105691U1 (de) Intelligente Assistenz für wiederholte Aktionen
US10687089B2 (en) Hospitality property management tool and system and method for use of same
DE102012220655A1 (de) Verfahren und system zum verwalten persönlicher einstellungen auf einem fahrzeug
DE102015200118B4 (de) Vorrichtungskonfiguration mit mehreren profilen für einen einzelnen benutzer unter verwendung von benutzer-biometriken aus der ferne
DE112015004481T5 (de) Rahmen für zustandskennung mobiler anwendungen
DE102020007191A1 (de) Maschinelles Lernen zur Digitalbildauswahl unter Objektvarianten
DE202019005728U1 (de) Elektronische Vorrichtung zur Steuerung einer Mehrzahl von Anwendungen
DE102015104962A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
DE102014107571A1 (de) Verfahren und System zum Erzeugen und Verfeinern von Regeln zur personalisierten Bereitstellung von Inhalten auf der Grundlage physischer Aktivitäten von Benutzern
DE112017004979T5 (de) Gemeinsame nutzung von umgebungsdaten zur client-vorrichtungsverwendung
DE102017111440A1 (de) Universalgateway für automatisiertes lernen
DE112018001007T5 (de) Verfahren zum bereitstellen einer angepassten benutzerschnittstelle für eine gruppenkommunikation auf einem kommunikationsgerät
DE102015200119A1 (de) Vorrichtungskonfiguration für mehrere benutzer unter verwendung von benutzer-biometriken aus der ferne
DE102012009429A1 (de) Verfahren zur Fernkonfiguration eines Fahrzeugs durch Visualisierung der Fahrzeugbedienung, sowie Endgerät und Fahrzeug hierfür
DE102016205172A1 (de) Vorrichtung und verfahren
DE102014113322A1 (de) Informationsverarbeitungsverfahren und elektronisches Gerät
DE202021102712U1 (de) Elektronische Vorrichtung zum Bereitstellen mehrerer Fenster unter Verwendung eines vergrösserbaren Displays
DE102015122031A1 (de) Identifizierung eines Nutzers für eine personalisierte Darstellung eines Medieninhaltes
DE102014119335A1 (de) Informationsverarbeitungsverfahren und elektronische Vorrichtung
DE202016008959U1 (de) Elektronische Vorrichtung, Fernbedienungsvorrichtung und elektronisches System
DE102020102921A1 (de) System und verfahren zum auffinden einer vorrichtung in einer lauten umgebung
DE112021005050T5 (de) Zugriffsberechtigungsprüfung in systemen mit künstlicher intelligenz
EP2163956A1 (de) Verfahren zur Bereitstellung einer Steuerungsinformation für eine verteilte Operation in einem Automatisierungssystem, Computerprogramm und Automatisierungssystem
DE112016004733T5 (de) Techniken zum Anfügen von durch ein mobiles Computergerät aufgenommenen Medien an ein elektronisches Dokument

Legal Events

Date Code Title Description
R012 Request for examination validly filed