DE102019132052A1 - Intelligente Internet-der-Dinge-Menüs mit Kameras - Google Patents
Intelligente Internet-der-Dinge-Menüs mit Kameras Download PDFInfo
- Publication number
- DE102019132052A1 DE102019132052A1 DE102019132052.6A DE102019132052A DE102019132052A1 DE 102019132052 A1 DE102019132052 A1 DE 102019132052A1 DE 102019132052 A DE102019132052 A DE 102019132052A DE 102019132052 A1 DE102019132052 A1 DE 102019132052A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- electronic communication
- lot
- communication device
- iot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 33
- 230000006399 behavior Effects 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims 1
- 230000003542 behavioural effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2823—Reporting information sensed by appliance or service execution status of appliance services in a home automation network
- H04L12/2827—Reporting to a device within the home network; wherein the reception of the information reported automatically triggers the execution of a home appliance functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
- H04L12/282—Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2807—Exchanging configuration information on appliance services in a home automation network
- H04L12/2812—Exchanging configuration information on appliance services in a home automation network describing content present in a home automation network, e.g. audio video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2807—Exchanging configuration information on appliance services in a home automation network
- H04L12/2814—Exchanging control software or macros for controlling appliance services in a home automation network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
- H04L67/125—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72457—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4131—Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44227—Monitoring of local network, e.g. connection or bandwidth variations; Detecting new devices in the local network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/70—Services for machine-to-machine communication [M2M] or machine type communication [MTC]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/175—Controlling the light source by remote control
- H05B47/19—Controlling the light source by remote control via wireless transmission
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Environmental & Geological Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Systeme und Verfahren zum Bereitstellen von intelligenten Internet-der-Dinge-Menüs (loT-Menüs) nutzen eine Kamera eines elektronischen Kommunikationsgeräts und beinhalten die Erfassung einer Abbildung eines IoT-Geräts von Interesse mittels einer Kamera des elektronischen Kommunikationsgeräts und die Identifizierung des loT-Geräts von Interesse. Das IoT-Gerät von Interesse wird angezeigt und kann von dem Benutzer des Geräts ausgewählt werden. Der Benutzer des elektronischen Kommunikationsgeräts wird identifiziert und seine Verhaltenshistorie hinsichtlich des ausgewählten IoT-Geräts analysiert. Anschließend wird nicht ein Vollmenü, sondern vielmehr ein benutzerspezifisches IoT-Gerätesteuerungsmenü generiert und dem Benutzer präsentiert.
Description
- TECHNISCHES GEBIET
- Vorliegende Erfindung betrifft allgemein vernetzte elektronische Geräte und insbesondere Systeme und Verfahren, die dem Nutzer Interaktionen mit Internet-der-Dinge-Geräten (IoT-Geräten) erleichtern.
- HINTERGRUND
- Das Internet der Dinge ist ein Netzwerk von physischen Geräten zusätzlich zu den mehr traditionellen netzwerkspezifischen Komponenten wie Server, Schalter usw. IoT-Geräte können unter anderem Haushaltsgeräte (wie beispielsweise Waschmaschinen und Kühlschränke) und andere Geräte (wie beispielsweise Thermostate, Leuchten usw.) mit elektronischen Komponenten, Software und Konnektivitätselementen sein, die eine Verbindung des Geräts mit anderen Geräten oder Netzwerkelementen ermöglichen, um Daten zu sammeln, aktiv zu werden oder weitere nützliche Funktionen bereitzustellen.
- Aufgrund ihrer Konnektivität können viele loT-Geräte fernüberwacht und ferngesteuert werden, sobald sie einmal richtig konfiguriert sind. Die Vielzahl von verfügbaren Geräten und die entsprechende Diversität von Implementierungen der Benutzeroberflächen können jedoch Probleme bereiten, wenn Nutzer versuchen, eine Schnittstelle mit bestimmten loT-Geräten zu bilden.
- Der nachstehenden Beschreibung ist vorauszuschicken, dass diese sich gegebenenfalls mit einigen oder sämtlichen Nachteilen befasst, die in dem Abschnitt „Hintergrund“ aufgeführt oder implizit enthalten sind, dass jedoch der Rahmen der vorliegenden Erfindung oder der Schutzumfang der anliegenden Ansprüche hierdurch nicht eingeschränkt wird, außer in dem Umfang, der in den Ansprüchen explizit angegeben ist.
- Ferner ist anzumerken, dass die Ausführungen in dem Abschnitt „Hintergrund“ die eigenen Beobachtungen, Überlegungen und Gedanken der Erfinder wiederspiegeln und keinesfalls eine genaue Katalogisierung oder umfassende Zusammenfassung des genannten Standes der Technik oder bekannter Vorgehensweisen sind. Insofern schließen die Erfinder diesen Abschnitt als zugelassenen oder angenommenen Stand der Technik ausdrücklich aus. Darüber hinaus basieren eine oder mehrere erstrebenswerte oder zweckmäßige Verfahren oder Handlungsoptionen, die vorliegend angegeben oder implizit enthalten sind, ebenfalls auf eigenen Beobachtungen und Gedanken der Erfinder. Es ist daher nicht davon auszugehen, dass diese eine im Stand der Technik anerkannte Erwünschtheit angeben.
- Figurenliste
- Diese Verfahren sowie deren Ziele und Vorteile werden nachstehend im Detail erläutert, wobei auf die anliegenden Zeichnungen Bezug genommen wird. Merkmale der vorliegenden Verfahren sind in den angefügten Ansprüchen angegeben.
-
1 ist eine schematische Darstellung eines mobilen elektronischen Geräts, bei welchem verschiedene Ausführungsformen der vorliegenden Erfindung implementierbar sind; -
2 ist eine schematische Darstellung einer Geräteumgebung, wobei ein Benutzergerät gemäß einer Ausführungsform der vorliegenden Erfindung mit einer Gruppe von loT-Geräten interagiert; -
3 zeigt schematisch ein Beispiel einer Bedienoberfläche, die in der Umgebung von2 vorgesehen ist; -
4 zeigt ein erstes Beispiel eines benutzerdefinierten Menüs zum Steuern einer loT-Beleuchtungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung; -
5 zeigt ein zweites Beispiel eines benutzerdefinierten Menüs zum Steuern einer loT-Beleuchtungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung; -
6 zeigt ein erstes Beispiel eines benutzerdefinierten Menüs zum Steuern eines loT-Fernsehgeräts gemäß einer Ausführungsform der vorliegenden Erfindung; -
7 zeigt ein zweites Beispiel eines benutzerdefinierten Menüs zum Steuern eines loT-Fernsehgeräts gemäß einer Ausführungsform der vorliegenden Erfindung; -
8 zeigt schematisch ein Beispiel einer Benutzeroberfläche zur Geräteauswahl gemäß einer Ausführungsform der vorliegenden Erfindung, wobei die möglichen loT-Geräte verschiedener Art sind; -
9 zeigt schematisch ein Beispiel einer Benutzeroberfläche zur Geräteauswahl gemäß einer Ausführungsform der vorliegenden Erfindung, wobei die möglichen loT-Geräte gleicher Art sind; und -
10 zeigt ein Flussdiagramm zur Darstellung eines Verfahrens gemäß einer Ausführungsform der vorliegenden Erfindung zur Bereitstellung von Smart-Menüs für loT-Geräte durch die Verwendung einer Kamera eines Benutzergeräts. - DETAILBESCHREIBUNG
- Vor der detaillierten Beschreibung von Ausführungsformen der vorliegenden Erfindung werden einige Ausführungsformen in einem Überblick dargestellt, der die nachstehend Detailbeschreibung für den Leser leichter verständlich machen soll. Bestehende loT-Netzwerkeinstellungen erfordern generell, dass der Benutzer das zu paarende loT-Gerät auswählt und sich später an die Paarung erinnert, um Steuerbefehle an das Gerät zu senden. Eine solche Einstellung erfordert eine visuelle Geräteschnittstelle, die verfügbare Geräte zeigt, und sie erfordert die Auswahl einer interagierenden Benutzereingabe.
- Hinzu kommt, dass bestehende loT-Geräte, sobald sie gepaart sind, für alle Benutzer die von den Herstellern bereitgestellte gleiche Benutzeroberfläche zeigen, so dass Benutzer oftmals ein kompliziertes Systemmenü durchsuchen müssen, um die gewünschte Option zu finden. Kurz gesagt: das Steuerungsmenü ist nicht personalisiert und kann kompliziert sein. In einer Ausführungsform der vorliegenden Erfindung jedoch können sich mehrere Geräte gleichen Typs in der Kameraansicht eines Benutzergeräts, zum Beispiel eines Mobiltelefons, befinden, und darüber hinaus zeigt das Benutzergerät dann ein relevantes Steuerungsmenü an, das auf die Gewohnheiten des Benutzers zugeschnitten ist bzw. basierend auf den Präferenzen des Benutzers für diesen personalisiert ist. Dieser zuletzt genannte Vorteil wird in einer Ausführungsform über eine Authentifizierung sowie über verhaltensgestütztes Lernen und Prädiktion ermöglicht.
- Im Überblick: ein personalisierter und vereinfachter drahtloser Steuerungsmechanismus für IoT-Geräte erkennt ein gewünschtes Gerät, das zu steuern ist, und stellt eine benutzerdefinierte Benutzeroberfläche bereit. Bezüglich der Erkennung des IoT-Geräts nutzt das System die Kamera des Benutzergeräts, welches z.B. ein Smartphone ist, wenn die Kamera auf das gewünschte loT-Gerät gerichtet wird. Was die Benutzeroberfläche betrifft, lässt sich das erkannte IoT-Gerät mittels eines vereinfachten Steuerungsmenüs des Geräts über die Anzeigevorrichtung der Kamera steuern.
- Mit diesem Überblick und unter Bezugnahme auf die anliegenden Zeichnungsfiguren werden nunmehr die erfindungsgemäßen Verfahren dargestellt, die in einer geeigneten oder mittels einer geeigneten Geräteumgebung implementiert werden. Die folgende Gerätebeschreibung basiert auf Ausführungsformen und Beispielen, innerhalb derer oder mittels derer die beschriebenen Prinzipien verwirklicht werden können, die jedoch nicht als Einschränkung der Ansprüche hinsichtlich alternativer, nicht explizit beschriebener Ausführungsformen zu sehen sind.
-
1 zeigt als Beispiel ein mobiles elektronisches Kommunikationsgerät, bei welchem Ausführungsformen der vorliegenden Erfindung implementierbar sind. Es versteht sich jedoch, dass auch Geräte eines anderen Typs verwendet werden können, unter anderem zum Beispiel Laptop-Computer, Tablet-Computer usw. Es versteht sich ferner, dass abhängig von der Präferenz eines Benutzers, von der Verfügbarkeit von Komponenten, aus Preisgründen und aus anderen Überlegungen bei einer gegebenen Implementierung zusätzliche oder alternative Komponenten verwendet werden können. - In der dargestellten Ausführungsform umfassen die Komponenten des Benutzergeräts
110 einen Anzeigebildschirm120 , Anwendungen (z.B. Programme) 130, einen Prozessor140 , einen Speicher150 , eine oder mehrere Eingabekomponenten160 wie beispielsweise eine RF-Eingabeeinrichtung oder drahtgebundene Eingabeeinrichtungen, unter anderem zum Beispiel eine oder mehrere Antennen und eine zugeordnete Schaltung und Logik. Die Antennen und die zugeordnete Schaltung können eine Anzahl von Protokollen unterstützen, z.B. WiFi, Bluetooth, zellulare Protokolle etc. - Das dargestellte Gerät
110 hat auch eine oder mehrere Komponenten170 wie RF-Ausgabeeinrichtungen (Radiofrequenz-Ausgabeeinrichtungen) oder drahtgebundene Ausgabeeinrichtungen. Die RF-Ausgabeeinrichtungen können ähnlich eine beliebige Anzahl von Protokollen unterstützen, z.B. WiFi, Bluetooth, zellulare Protokolle etc., und sie können dieselben sein wie die zugeordneten Eingabeeinrichtungen oder können sich mit diesen überlappen. Es versteht sich, dass ein physischer Eingang sowohl dem Senden als auch dem Empfangen dienen kann. - Der Prozessor
140 kann ein Mikroprozessor, ein Mikrocomputer, eine anwendungsspezifische integrierte Schaltung oder eine andere geeignete integrierte Schaltung sein. Zum Beispiel kann der Prozessor140 mittels eines oder mehrerer Mikroprozessoren oder Steuereinheiten einer gewünschten Familie oder von einem gewünschten Hersteller implementiert sein. Ähnlich ist der Speicher150 ein nichttransitorisches Medium, das sich auf derselben integrierten Schaltung wie der Prozessor140 befinden kann (jedoch nicht muss). Zusätzlich oder alternativ kann über ein Netzwerk, z.B. einen Cloudbasierten Massenspeicher, auf den Speicher150 zugegriffen werden. Der Speicher150 kann einen Speicher mit wahlfreiem Zugriff (d.h. Synchronous Dynamic Random Access Memory (SDRAM), Dynamic Random Access Memory (DRAM), RAMBUS Dynamic Random Access Memory (RDRM) oder ein anderes Speichergerät oder Speichersystem mit wahlfreiem Zugriff) umfassen. Zusätzlich oder alternativ kann der Speicher150 einen Nur-LeseSpeicher (d.h. eine Festplatte, einen Flash-Speicher oder ein Speichergerät einer anderen gewünschten Art) umfassen. - Die in dem Speicher
150 gespeicherten Informationen können einen Programmcode (z.B. Anwendungen130 ), der einem oder mehreren Betriebssystemen oder Anwendungen zugeordnet ist, sowie Informationsdaten, z.B. Programmparameter, Prozessdaten etc. umfassen. Das Betriebssystem und die Anwendungen werden in der typischen Weise über ausführbare Befehle implementiert, die in einem nichttransitorischen computerlesbaren Medium (z.B. dem Speicher150 ) gespeichert sind, um Basisfunktionen des elektronischen Geräts110 zu steuern. Solche Funktionen sind unter anderem zum Beispiel Interaktionen zwischen verschiedenen internen Komponenten und die Speicherung von Anwendungen und Daten in dem Speicher150 und deren Abruf aus dem Speicher150 . - Was ferner die Anwendung und die Module betrifft, nutzen diese in der charakteristischen Weise das Betriebssystem, um spezifischere Funktionen bereitzustellen, wie zum Beispiel einen Dateisystemdienst und die Handhabung von geschützten und ungeschützten Daten, die in dem Speicher
150 gespeichert sind. In einer Ausführungsform sind Module Softwareagenten, die Hardwarekomponenten enthalten oder mit solchen interagieren, zum Beispiel ein oder mehrere Sensoren, und die die Operationen und Interaktionen des Geräts110 im Hinblick auf die beschriebenen Ausführungsformen verwalten. - In einer Ausführungsform hat das Gerät
110 eine Kamera180 , die mit dem Geräteprozessor140 in Verbindung steht. Die Kamera180 enthält eine Betriebssoftware oder ist mit einer solchen verlinkt und kann benutzt werden für die Bilderfassung, für bildbasierte Aufgaben wie Authentifizierung sowie für andere gewünschte Aufgaben. - Was die Informationsdaten wie beispielsweise Programmparameter und Prozessdaten betrifft, können diese nichtausführbaren Informationen durch das Betriebssystem oder eine Anwendung referenziert, bearbeitet oder geschrieben werden. Solche Informationsdaten können zum Beispiel Daten enthalten, die bei der Herstellung in dem Gerät vorprogrammiert werden, Daten, die von dem Gerät erzeugt oder von dem Benutzer hinzugefügt werden, oder andere Informationen einer Informationsvielfalt, die in Server oder andere Geräte, mit denen das Gerät während seines laufenden Betriebs in Verbindung steht, hochgeladen oder von dem Server oder anderen Geräten heruntergeladen werden.
- In einer Ausführungsform ist eine Stromversorgung
190 wie beispielsweise eine Batterie oder eine Brennstoffzelle vorhanden, um das Gerät110 und seine Komponenten mit Strom zu versorgen. Zusätzlich oder alternativ kann das Gerät100 extern versorgt werden, z.B. durch eine Fahrzeugbatterie, eine Steckdose oder eine andere Stromquelle. In dem dargestellten Beispiel stehen alle oder einige der internen Komponenten über einen oder mehrere gemeinsame oder eigene interne Kommunikationsverbindungen195 , z.B. einen internen Bus, miteinander in Verbindung. - In einer Ausführungsform ist das Gerät
110 derart programmiert, dass der Prozessor140 und der Speicher150 mit anderen Komponenten des Geräts zusammenwirken, um vielfältige Funktionen auszuüben. Der Prozessor140 kann verschiedene Module enthalten oder implementieren und kann Programme ausführen, um verschiedene Aktivitäten zu initiieren, zum Beispiel eine Anwendung starten, Daten übertragen, zwischen verschiedenen graphischen Benutzerschnittstellenobjekten umschalten (z.B. zwischen verschiedenen Anzeigesymbolen, die mit ausführbaren Anwendungen verknüpft sind, umschalten). Wie vorstehend ausgeführt wurde, kann das Gerät110 einen oder mehrere Anzeigebildschirme120 enthalten. Diese können eine integrierte Anzeigevorrichtung oder eine externe Anzeigevorrichtung oder beides umfassen und können einen oder mehrere Berührungssensoren180 umfassen. -
2 zeigt eine schematische Geräteumgebung mit einem Benutzergerät110 , das mit einer Gruppe von loT-Geräten201 ,203 ,205 ,207 ,209 gemäß einer oder mehrerer Ausführungsformen der vorliegenden Erfindung zusammenwirkt. In dem dargestellten Beispiel sind die loT-Geräte201 ,203 ,205 ,207 ,209 als Beleuchtungskörper dargestellt. Es versteht sich jedoch, dass die Geräte201 ,203 ,205 ,207 ,209 auch andere IoT-Geräte sein können und nicht vom selben Typ sein müssen. - Das Benutzergerät
201 , welches ein Smartphone oder ein anderes tragbares elektronisches Kommunikationsgerät sein kann, wie dieses zum Beispiel in1 dargestellt ist, enthält eine Kamera140 (1 ). Der Blickwinkel der Kamera140 umfasst in dem dargestellten Beispiel die Gruppe von loT-Geräten201 ,203 ,205 ,207 ,209 . Darüber hinaus wird die Entfernung zwischen dem Benutzergerät110 und jedem loT-Gerät201 ,203 ,205 ,207 ,209 ermittelt (in der Figur als EntfernungD1 ,D3 ,D5 ,D7 ,D9 dargestellt). Wie in dem dargestellten Beispiel zu sehen ist, istD9 die größte Entfernung, was bedeutet, dass das loT-Gerät209 am weitesten von dem Benutzergerät110 entfernt ist, undD7 ist die kleinste Entfernung, was bedeutet, dass das loT-Gerät207 am nächsten zu dem Benutzergerät110 liegt. Die anderen loT-Geräte201 ,203 und205 befinden sich jeweils in den dazwischen liegenden EntfernungenD1 ,D3 undD5 . - Damit das Benutzergerät
110 ermitteln kann, welches Gerät für den Benutzer aktuell von Interesse ist, wird die kleinste IoT-Gerät-Entfernung (D7 ) in der Kameraansicht identifiziert, und das Gerät110 markiert dieses nächstgelegene Gerät207 auf dem Bildschirm, wie das in3 gezeigt ist. Das Benutzergerät geht davon aus, dass das nächstgelegene Gerät jenes ist, mit welchem der Benutzer interagieren möchte. - Die Markierung
301 kann ein Kästchen, ein Umriss, eine Farbänderung oder eine andere geeignete Änderung für eine visuelle Unterscheidung des interessierenden loT-Geräts207 von den restlichen loT-Geräten201 ,203 ,205 ,209 sein. Alternativ oder zusätzlich zu einer Änderung der Abbildung des interessierenden IoT-Geräts207 kann das Benutzergerät110 die Abbildungen der verbleibenden loT-Geräte201 203 ,205 ,209 ändern, indem diese zum Beispiel ausgeblendet werden, gelöscht werden usw. - Das markierte loT-Gerät (
207 in diesem Beispiel) kann dann von dem Benutzer ausgewählt werden, um eine Benutzeroberfläche zum Steuern des interessierenden loT-Geräts207 zu öffnen. Alternativ kann der Benutzer anzeigen, dass das markierte Gerät nicht dasjenige von Interesse ist, indem er über das markierte Gerät wischt, auf die Abbildung eines anderen Geräts tippt etc. In dieser Phase kann auch eine Vollmenü-Option303 bereitgestellt werden, falls der Benutzer sowohl das markierte Gerät207 auswählen als auch ein Vollmenü für dieses Gerät207 sehen möchte. - In einer Ausführungsform ist das Benutzergerät
110 derart konfiguriert, dass es den Benutzer erkennt (z.B. durch eine Gesichtserkennung, eine vorherige Authentifizierung etc.) und die wahrscheinlichsten Aktionen prädiziert, die von diesem Benutzer bezüglich des identifizierten loT-Geräts207 auszuführen sind, oder dass auf frühere Benutzereingriffe/Historien hinsichtlich des speziellen Geräts geklickt wird. Die Prädiktion basiert in einer Ausführungsform auf früheren Aktionen desselben Benutzers bezüglich des interessierenden loT-Geräts207 , zum Beispiel auf dem Verlauf der Benutzerbefehle, der Zugriffserlaubnis, der Zeit usw. In einer Ausführungsform der vorliegenden Erfindung kann der Benutzer anstelle des prädiktionsbasierten Menüs auch ein Vollmenü anfordern. -
4 und5 zeigen Beispiele von prädiktiven Menüs jeweils für einen ersten und einen zweiten Benutzer des Benutzergeräts110 . In diesen Figuren geht man davon aus, dass das ausgewählte IoT-Gerät ein Beleuchtungskörper ist. Wie in4 zu sehen ist, enthält das benutzerdefinierte Menü für den ersten Benutzer drei Einstellungssteuerelemente401 , die der Benutzer1 am häufigsten verwendet. In dem dargestellten Beispiel umfassen diese die Lichtquelleneinstellungen An/Aus, Timer und Anwesenheitserfassung (z.B. derart, dass das Licht bei Erfassung einer Anwesenheit angeschaltet wird). - Dagegen umfassen die vorgesehenen Auswahlen in dem prädiktiven Menü für den zweiten Benutzer wie in
5 gezeigt drei Einstellungssteuerungselemente503 , nämlich An/Aus, Dimmen und Tag/Nacht (z.B. An während der Stunden bei Nacht und Aus während der Stunden bei Tag). Es versteht sich, dass diese Menüs auf dem hypothetischen früheren Steuerungsverlauf von Benutzer1 bzw. Benutzer2 basieren und identisch sein können, sich überlappen können oder vollkommen verschieden sein können, wie es deren jeweiliger Verlauf vorschreibt. Für die darstellbaren Optionen gibt es keine minimale oder maximale Anzahl, doch wurden für dieses Beispiel drei Auswahlmöglichkeiten gewählt. - Wie vorangehend bereits ausgeführt wurde, kann das gesteuerte loT-Gerät von Interesse ein beliebiges loT-Gerät sein, wobei
6 und7 in diesem Zusammenhang mögliche Optionen zeigen, die zwei verschiedenen Benutzern präsentiert werden, wenn das loT-Gerät von Interesse ein loT-Fernsehgerät ist. Für den ersten Benutzer zeigt die Benutzeroberfläche des Geräts110 drei Optionen601 , und zwar NETFLIX, AMAZON und BRAVO (6 ), während die Benutzeroberfläche des Geräts110 für den zweiten Benutzer die drei Optionen703 , nämlich STARZ, TLC und HBO (7 ) zeigt. - Jede Benutzeroberfläche, die in den
4-7 gezeigt ist, stellt auch eine Vollmenü-Option405 ,505 ,605 ,705 bereit, falls sich der Benutzer an diesem Punkt entscheidet, ein Vollmenü anzufordern. Zum Beispiel kann der Benutzer befinden, dass die ihn interessierende Option auf dem prädiktiven Menü nicht gezeigt ist und kann deshalb die Vollmenü-Option405 ,505 ,605 ,705 wählen, um alle Auswahlmöglichkeiten zu sehen oder auf diese zuzugreifen. Wie vorangehend bereits angemerkt wurde, kann eine Vollmenü-Option303 auch bereits in der Erkennungsphase des Geräts110 bereitgestellt werden. - Wie nachstehend im Zusammenhang mit
8 eingehender erläutert wird, ist die Erkennung des gewünschten loT-Geräts nicht immer einfach. Wenn zum Beispiel zwei Geräte gleich weit von dem Benutzergerät110 entfernt sind, wie in8 gezeigt ist, in der sich die beiden loT-Geräte 801 und 803 in der gleichen Entfernung D von dem Benutzergerät110 befinden, gibt es kein am nächsten gelegenes Gerät. Durch die Wahl eines Gerätetyps über die Eingabeaufforderungen805 und807 kann der Benutzer die gewünschten IoT-Geräte unterscheiden, jedoch nur, wenn die infrage kommenden loT-Geräte voneinander verschiedene Gerätetypen sind. - Wie
9 zeigt, liegen zwei identische loT-Geräte901 und903 gegebenenfalls in der gleichen Entfernung D zu dem Benutzergerät110 . Für den Fall, dass die loT-Geräte nicht nur vom gleichen Typ sind, sondern auch gleich weit von dem Benutzergerät110 entfernt sind, ist das Gerät110 in einer Ausführungsform derart konfiguriert, dass es den Benutzer auffordert, sich näher an das interessierende IoT-Gerät heranzubewegen. Solchermaßen kann das Gerät110 in dem Beispiel von9 die Aufforderung905 anzeigen: „Bewegen Sie sich näher zu dem IoT-Gerät von Interesse“. Sobald sich der Benutzer (der das Gerät110 hält), näher an das IoT-Gerät von Interesse heranbewegt, wird die Entfernung zwischen dem loT-Gerät von Interesse und dem Benutzergerät110 zur kleinsten Entfernung und lässt sich für die Identifizierung des interessierenden IoT-Geräts nutzen. - Es wird auf das Flussdiagramm von
10 Bezug genommen. Dieses Flussdiagramm zeigt in Übereinstimmung mit der vorangehenden Erläuterung ein Verfahren zum Bereitstellen von Smart-Menüs für loT-Geräte durch die Verwendung einer Kamera eines Benutzergeräts. In Schritt1001 des Verfahrens1000 initiiert der Benutzer den IoT-Steuerungsprozess, indem er zum Beispiel eine entsprechende Anwendung aktiviert. In Schritt1003 aktiviert das Benutzergerät110 seine Kamera190 . Alternativ ist der loT-Erkennungsprozess jedes Mal aktiv, wenn die Kamera des Telefons aktiv ist. - Wenn sich ein loT-Gerät in der Kameraansicht befindet, wie in Schritt
1005 ermittelt, berührt der Benutzer im weiteren Verlauf in Schritt1007 das Gerät110 auf dessen Anzeigevorrichtung. Andernfalls führt der Ablauf zurück zu Schritt1003 . Wenn der Benutzer in Schritt1007 ein Gerät in der Anzeigevorrichtung des Benutzergeräts110 berührt hat, durchsucht das Benutzergerät110 in Schritt1009 eine Geräteliste in einem aktuell bekannten IoT-Netzwerk. Wenn in dem Netzwerk nur ein loT-Gerät vorhanden ist, wie in Schritt1011 ermittelt, stellt das Benutzergerät110 direkt eine Verbindung mit diesem IoT-Gerät her. - Sind stattdessen mehrere loT-Geräte in dem Netzwerk vorhanden, wie in Schritt
1011 ermittelt, jedoch nur ein Gerät der von dem Benutzer ausgewählten Art, führt der Ablauf zu Schritt1013 , in welchem das Benutzergerät110 die SSID (Service Set Identifier) des loT-Geräts abfragt und eine Verbindung mit dem Gerät herstellt. - Wenn jedoch von der Art des Geräts, das der Benutzer in dem Netzwerk ausgewählt hat, mehrere loT-Geräte vorhanden sind, wie in Schritt
1011 ermittelt, führt der Ablauf zu den Schritten1017 und1019 , in denen die Objektentfernung auf zwei verschiedene Arten ermittelt wird. Insbesondere schätzt das Benutzergerät in Schritt1017 die Entfernung zwischen dem Telefon und dem IoT-Gerät, indem es die Größe des Geräts auf der Anzeigevorrichtung bestimmt und dabei auch die Entfernung zwischen dem Benutzergerät110 und sämtlichen IoT-Geräten in dem bekannten Netzwerk, die dem von dem Benutzer ausgewählten Typ entsprechen, indem in Schritt1019 für jedes solche IoT-Gerät der BT RSSI-Wert (Bluetooth Received Signal Strength Indiacator) bestimmt wird. - Wenn die durch die erste Vorgehensweise geschätzte Entfernung innerhalb einer vorgegebenen Toleranz mit einer durch RSSI geschätzten Entfernung übereinstimmt, wie in Schritt
1019 ermittelt, stellt das Benutzergerät110 in Schritt1021 eine Verbindung mit dem Gerät her, auf welches die Übereinstimmung zutrifft. - Wurde ein loT-Gerät von Interesse identifiziert und mit dem Benutzergerät
110 verbunden, authentifiziert das Benutzergerät110 in Schritt1023 den Benutzer. Dies kann durch ein geeignetes Verfahren erfolgen, zum Beispiel durch eine Gesichtserkennung mit einer Kamera des Geräts, wobei der Benutzer mit der Frontkamera des Geräts authentifiziert wird, wenn der Benutzer die Rückkamera des Geräts auf das IoT-Gerät gerichtet hat, das für den Benutzer von Interesse ist. Alternativ oder zusätzlich kann das Gerät110 eine Fingerabdruck-Authentifizierung nutzen (z.B. den Fingerabdruck verwenden, der erfasst wurde, als der Benutzer das IoT-Gerät ausgewählt hat) oder eine Spracherkennung. - Nach erfolgter Identifizierung des loT-Geräts von Interesse und Authentifizierung des Benutzers, generiert das Benutzergerät
110 in Schritt1025 ein vereinfachtes Geräte-Steuerungsmenü, dessen Inhalt und Format auf der Basis der Benutzerhistorie, der jeweiligen Zugriffserlaubnis, von Zeit/Ort/Umgebung oder auf der Basis eines sonstigen Benutzerverhaltens abgeleitet werden, wobei diese Informationen in dem Gerät gespeichert sind oder aus der Cloud heruntergeladen werden. Wie vorangehend erwähnt wurde, kann dem Benutzer eine Vollmenü-Option angeboten werden, die, wenn sie gewählt wird, anstelle eines benutzerdefinierten Menüs ein Vollmenü präsentiert. - In Schritt
1027 wählt der Benutzer eine Steuerungsoption, woraufhin in Schritt1029 ein entsprechender Steuerbefehl an das loT-Gerät gesandt wird. Dies kann abhängig von der loT-Netzwerkeinstellung direkt erfolgen oder über einen loT-Hub. - Als Beispiel für das vorgenannte Verfahren nehme man eine laute Umgebung, zum Beispiel eine Party, in welcher der Benutzer des Geräts die Musik oder die Eigenschaften der Musik wechseln will, die über einen loT-Lautsprecher wiedergegeben wird. Der Benutzer kann in diesem Fall keine Sprachbefehle erteilen, weil das Hintergrundgeräusch zu laut ist, um einen akustischen Befehl erkennen zu können. Stattdessen kann der Benutzer/die Benutzerin sein/ihr Telefon auf den IoT-Lautsprecher richten und den loT-Lautsprecher über die Anzeigevorrichtung des Telefons steuern.
- Ein weiteres Beispiel ist ein Sicherheitsroboter, der in einem Einkaufszentrum patroulliert und Videos zu dem Monitor einer Bedienungsperson zurückstreamt. Bemerkt die Bedienungsperson, dass eine loT-Lichtquelle in dem gestreamten Video zu dunkel ist, kann die Bedienungsperson auf das Gerät auf dem Monitor tippen, und es öffnet sich ein Steuerungsmenü für das Gerät. Dieses Beispiel zeigt, dass das Benutzergerät
110 kein Mobilgerät sein muss und dass die beschriebenen Funktionen zwischen zwei Geräten aufgeteilt sein können, indem zum Beispiel eine Bildgebungsfunktion eines ersten Geräts und eine Anzeigefunktion eines zweiten Geräts genutzt werden, wobei die Verarbeitungsfunktionen an dem einen oder an dem anderen Gerät oder an beiden Geräten stattfinden. - Die hier genannten Beispiele beziehen sich allgemein auf eine berührungsempfindliche Anzeigevorrichtung auf dem Benutzergerät
110 . Es sollte jedoch klar sein, dass eine solche Benutzeroberfläche nicht auf eine Berührung mit dem Finger beschränkt sein muss, sondern alternativ auch auf die Berührung mit einem Stift und dergleichen reagieren kann. Darüber hinaus umfasst der Begriff „berührungsempfindlich“ für die Steuerung eines loT-Geräts verschiedene Eingabearten. Zum Beispiel können die Optionstasten anstelle von Symboltasten die Tasten einer Tastatur sein, oder es können andere Eingabearten für die Gerätesteuerung verwendet werden. Diese sind unter anderem physische oder virtuelle Schieber (z.B. für die Einstellung von Thermostaten), Skalen (z.B. für die Geräteabstimmung), Joysticks (z.B. zum Ändern einer Kameraorientierung) usw. - Vorstehend wurden verschiedene Systeme und Verfahren beschrieben. In Anbetracht der vielen möglichen Ausführungsformen, bei welchen die Prinzipien der vorliegenden Erfindung Anwendung finden können, sollte jedoch erkannt werden, dass die Ausführungsformen, die hier mit Bezug auf die Zeichnungsfiguren beschrieben wurden, nur zur Veranschaulichung dienen und den Schutzumfang der Ansprüche nicht einschränken. Daher berücksichtigen die vorliegend beschriebenen Verfahren alle Ausführungsformen, die in den Schutzbereich der folgenden Ansprüche und deren Äquivalente fallen können.
Claims (20)
- Elektronisches Kommunikationsgerät, das unter Verwendung einer Kamera intelligente Internet-der-Dinge-Menüs (IoT-Menüs) bereitstellt, wobei das elektronische Kommunikationsgerät umfasst: eine berührungsempfindliche Anzeigevorrichtung; eine Kamera; einen Prozessor, der mit der berührungsempfindlichen Anzeigevorrichtung und mit der Kamera in Verbindung steht und konfiguriert ist für die Erfassung einer Abbildung eines loT-Geräts, für die Identifizierung des loT-Geräts, für die Anzeige der Abbildung des loT-Geräts über die berührungsempfindliche Anzeigevorrichtung, für den Empfang einer Auswahl des Geräts durch den Benutzer, für die Identifizierung eines Benutzers des elektronischen Kommunikationsgeräts, für den Abruf von Daten bezüglich der Verhaltenshistorie des Benutzers des elektronischen Kommunikationsgeräts, für die Generierung eines benutzerspezifischen loT Gerätesteuerungsmenüs für das identifizierte loT-Gerät unter Verwendung der abgerufenen Daten betreffend die Verhaltenshistorie des Benutzers des elektronischen Kommunikationsgeräts und für die Anzeige des benutzerspezifischen loT-Gerätesteuerungsmenüs für den Benutzer über die berührungsempfindliche Anzeigevorrichtung.
- Elektronisches Kommunikationsgerät nach
Anspruch 1 , wobei der Prozessor ferner konfiguriert ist für die Identifizierung des loT-Geräts durch den Abruf von loT-Gerätedaten und für die Identifizierung des loT-Geräts über Bildobjekterkennung. - Elektronisches Kommunikationsgerät nach
Anspruch 2 , wobei der Prozessor ferner konfiguriert ist für den Abruf der loT-Gerätedaten über ein Netzwerk. - Elektronisches Kommunikationsgerät nach
Anspruch 2 oder3 , wobei das elektronische Kommunikationsgerät ferner einen lokalen Speicher hat und wobei der Prozessor ferner konfiguriert ist für den Abruf der loT-Gerätedaten aus dem lokalen Speicher. - Elektronisches Kommunikationsgerät nach einem der
Ansprüche 2 bis4 , ferner umfassend eine Funkverbindung, wobei der Prozessor ferner konfiguriert ist für das Identifizieren des loT-Geräts durch die Erfassung eines Received Signal Strength Indicator (RSSI)-Pegels des loT-Geräts, für die Bestimmung einer Größe der angezeigten Abbildung des loT-Geräts und für die Bestimmung, dass der empfangene RSSI-Pegel und die Größe der angezeigten Abbildung innerhalb einer vorgegebenen Toleranz der gleichen Entfernung entsprechen. - Elektronisches Kommunikationsgerät nach einem der
Ansprüche 1 bis5 , wobei die Identifizierung des Benutzers des elektronischen Kommunikationsgeräts die Identifizierung des Benutzers mittels Gesichtserkennung umfasst. - Elektronische Kommunikationsgerät nach einem der
Ansprüche 1 bis6 , ferner umfassend eine zweite Kamera, wobei die zweite Kamera für die Durchführung der Gesichtserkennung verwendet wird. - Elektronisches Kommunikationsgerät nach einem der
Ansprüche 1 bis7 , wobei die Identifizierung des Benutzers des elektronischen Kommunikationsgeräts die Identifizierung des Benutzers zumindest mittels Fingerabdruckerkennung oder Spracherkennung umfasst. - Elektronisches Kommunikationsgerät nach einem der
Ansprüche 1 bis8 , wobei der Prozessor ferner konfiguriert ist für die Anzeige einer Vollmenü-Option für den Benutzer des elektronischen Kommunikationsgeräts, so dass die Wahl der Vollmenü-Option durch den Benutzer den Prozessor zur Anzeige eines nicht benutzerspezifischen IoT-Gerätesteuerungsmenüs für den Benutzer über die berührungsempfindliche Anzeigevorrichtung veranlasst. - Verfahren zur Bereitstellung eines intelligenten Internet-der-Dinge-Menüs (IoT-Menüs) unter Verwendung einer Kamera eines elektronischen Kommunikationsgeräts, umfassend: das Erfassen einer Abbildung eines loT-Geräts unter Verwendung einer Kamera des elektronischen Kommunikationsgeräts; das Identifizieren des loT-Geräts; das Anzeigen der Abbildung des loT-Geräts auf einer Anzeigevorrichtung des elektronischen Kommunikationsgeräts; das Empfangen einer Auswahl des loT-Geräts durch den Benutzer; das Identifizieren eines Benutzers des elektronischen Kommunikationsgeräts; das Abrufen von Daten betreffend die Verhaltenshistorie des Benutzers des elektronischen Geräts; das Generieren eines benutzerspezifischen IoT-Gerätesteuerungsmenüs für das identifizierte IoT-Gerät unter Verwendung der abgerufenen Daten betreffend die Verhaltenshistorie des Benutzers; und das Anzeigen des benutzerspezifischen IoT-Gerätesteuerungsmenüs für den Benutzer über die Anzeigevorrichtung des elektronischen Kommunikationsgeräts.
- Verfahren nach
Anspruch 10 , wobei der Prozessor ferner konfiguriert ist für die Identifizierung des loT-Geräts durch das Abrufen von IoT-Gerätedaten und das Identifizieren des loT-Geräts mittels Bildobjekterkennung. - Verfahren nach
Anspruch 11 , wobei die IoT-Gerätedaten über ein Netzwerk abgerufen werden. - Verfahren nach
Anspruch 11 oder12 , wobei die IoT-Gerätedaten aus einem lokalen Speicher des elektronischen Kommunikationsgeräts abgerufen werden. - Verfahren nach einem der
Ansprüche 11 bis13 , wobei das Identifizieren des loT-Geräts das Erfassen eines Received Signal Strength Indicator (RSSI)-Pegels des loT-Geräts, das Bestimmen einer Größe der angezeigten Abbildung des loT-Geräts und das Bestimmen, dass der empfangene RSSI-Pegel und die Größe der angezeigten Abbildung innerhalb eines vorgegebenen Toleranzbereichs der gleichen Entfernung entsprechen. - Verfahren nach einem der
Ansprüche 10 bis14 , wobei das Identifizieren des Benutzers des elektronischen Kommunikationsgeräts das Identifizieren des Benutzers mittels Gesichtserkennung umfasst. - Verfahren nach einem der
Ansprüche 10 bis15 , wobei das Identifizieren des Benutzers des elektronischen Kommunikationsgeräts das Identifizieren des Benutzers zumindest mittels Fingerabdruckerkennung oder Spracherkennung erfolgt. - Verfahren nach einem der
Ansprüche 10 bis16 , wobei das Anzeigen des benutzerspezifischen IoT-Gerätesteuerungsmenüs das Anzeigen einer Vollmenü-Option umfasst, so dass die Wahl der Vollmenü-Option durch den Benutzer die Anzeige eines nicht benutzerspezifischen IoT-Gerätesteuerungsmenüs bewirkt. - Verfahren zum Bereitstellen eines benutzerspezifischen IoT-Steuerungsmenüs (Internet-der-Dinge-Steuerungsmenüs) für den Benutzer eines elektronischen Kommunikationsgeräts hinsichtlich eines loT-Geräts von Interesse, wobei das Verfahren umfasst: das Erfassen einer Abbildung des loT-Geräts von Interesse mittels einer Kamera des elektronischen Kommunikationsgeräts, wenn der Benutzer die Kamera auf das IoT-Gerät von Interesse richtet; das Identifizieren des loT-Geräts von Interesse basierend auf der erfassten Abbildung; das Identifizieren des Benutzers zum Erzeugen einer Benutzeridentität; und das Anzeigen eines benutzerspezifischen IoT-Steuerungsmenüs für das loT-Gerät von Interesse, wobei das benutzerspezifische IoT-Steuerungsmenü auf der Benutzeridentität basiert.
- Verfahren nach
Anspruch 18 , wobei das Anzeigen des benutzerspezifischen IoT-Steuerungsmenüs für das loT-Gerät von Interesse ferner das Abrufen von Informationen über die Verhaltenshistorie des Benutzers umfasst, wobei die Informationen über die Verhaltenshistorie Informationen enthalten, die von dem Benutzer früher ausgewählten Optionen zum Steuern des IoT-Geräts von Interesse betreffen, und das Generieren des benutzerspezifischen IoT-Steuerungsmenüs unter Nutzung der Informationen über die Verhaltenshistorie. - Verfahren nach
Anspruch 18 oder19 , ferner umfassend das Anzeigen einer Vollmenü-Option für den Benutzer, das Empfangen einer Wahl der Vollmenü-Option durch den Benutzer und in Reaktion darauf das Ersetzen des benutzerspezifischen IoT-Steuerungsmenüs durch ein nicht benutzerspezifisches IoT-Steuerungsmenü.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
USUS16/203,175 | 2018-11-28 | ||
US16/203,175 US11233671B2 (en) | 2018-11-28 | 2018-11-28 | Smart internet of things menus with cameras |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019132052A1 true DE102019132052A1 (de) | 2020-05-28 |
Family
ID=69137275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019132052.6A Pending DE102019132052A1 (de) | 2018-11-28 | 2019-11-26 | Intelligente Internet-der-Dinge-Menüs mit Kameras |
Country Status (4)
Country | Link |
---|---|
US (1) | US11233671B2 (de) |
CN (1) | CN111240555A (de) |
DE (1) | DE102019132052A1 (de) |
GB (1) | GB2580518B (de) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102528671B1 (ko) * | 2018-09-05 | 2023-05-04 | 엘지전자 주식회사 | 이동 단말기 |
US11233671B2 (en) * | 2018-11-28 | 2022-01-25 | Motorola Mobility Llc | Smart internet of things menus with cameras |
EP3912327A1 (de) * | 2019-01-18 | 2021-11-24 | Google LLC | Modifikation der art der interaktion zwischen einer mobilen rechnervorrichtung und einer peripherievorrichtung basierend auf der nähe |
EP3895460B1 (de) | 2019-01-21 | 2023-12-27 | Google LLC | Steuerung von entfernten geräten unter verwendung von benutzerschnittstellenschablonen |
US11487873B2 (en) * | 2019-01-22 | 2022-11-01 | EMC IP Holding Company LLC | Risk score generation utilizing monitored behavior and predicted impact of compromise |
DE102019209888A1 (de) * | 2019-07-04 | 2021-01-07 | BSH Hausgeräte GmbH | System und Verfahren zur Authentifizierung an einem Gerät |
US11089109B1 (en) * | 2019-11-20 | 2021-08-10 | Sprint Communications Company L.P. | Smart device management via a mobile communication device based on privacy preferences |
KR20210061856A (ko) * | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 디스플레이 장치 및 그 동작방법 |
US11402984B2 (en) * | 2020-11-18 | 2022-08-02 | Google Llc | Proximity-based controls on a second device |
CN113220202B (zh) * | 2021-05-31 | 2023-08-11 | 中国联合网络通信集团有限公司 | 一种物联网设备的控制方法和装置 |
CN115225818B (zh) * | 2022-07-13 | 2024-05-21 | 北京有竹居网络技术有限公司 | 配置设备的方法、装置、设备和存储介质 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6496927B1 (en) * | 1999-06-09 | 2002-12-17 | Amx Corporation | Method and configuring a user interface for controlling a controlled device based upon a device class |
US7917855B1 (en) * | 2002-04-01 | 2011-03-29 | Symantec Operating Corporation | Method and apparatus for configuring a user interface |
US8713090B2 (en) * | 2006-12-15 | 2014-04-29 | Microsoft Corporation | Enhancing user experiences using aggregated device usage data |
CN102099763A (zh) * | 2008-05-20 | 2011-06-15 | 惠普开发有限公司 | 用户界面修改器 |
US8970658B2 (en) * | 2012-04-20 | 2015-03-03 | Logitech Europe S.A. | User interface allowing a participant to rejoin a previously left videoconference |
US8910262B2 (en) * | 2012-12-21 | 2014-12-09 | Cellco Partnership | Supporting multiple messaging services on mobile devices in a single user experience |
US9233472B2 (en) * | 2013-01-18 | 2016-01-12 | Irobot Corporation | Mobile robot providing environmental mapping for household environmental control |
US11185783B2 (en) * | 2013-03-14 | 2021-11-30 | Sony Interactive Entertainment Inc. | Controller emulation for cloud gaming |
US9674707B2 (en) * | 2013-03-15 | 2017-06-06 | Apple Inc. | Facilitating a secure session between paired devices |
KR20150014052A (ko) * | 2013-07-26 | 2015-02-06 | 주식회사 팬택 | 통합 커뮤니케이션 기능을 구비한 사용자 단말 및 이를 위한 커뮤니케이션 이력 표시 방법 |
US10451874B2 (en) * | 2013-09-25 | 2019-10-22 | Seiko Epson Corporation | Image display device, method of controlling image display device, computer program, and image display system |
KR102188090B1 (ko) * | 2013-12-11 | 2020-12-04 | 엘지전자 주식회사 | 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템 |
US9445032B2 (en) * | 2014-03-24 | 2016-09-13 | Broadcom Corporation | Auto-pairing control device |
CN104977904B (zh) * | 2014-04-04 | 2018-06-19 | 浙江大学 | 一种可见即可控的智能家居控制系统及控制方法 |
KR102201906B1 (ko) * | 2014-04-29 | 2021-01-12 | 삼성전자주식회사 | 전자 장치에서 다른 전자 장치를 제어하기 위한 장치 및 방법 |
US10402294B1 (en) * | 2014-06-19 | 2019-09-03 | Google Llc | Methods and systems of differentiating between at least two peripheral electronic devices |
US9529605B2 (en) * | 2014-08-27 | 2016-12-27 | Microsoft Technology Licensing, Llc | Customizing user interface indicators based on prior interactions |
KR20160145351A (ko) * | 2015-06-10 | 2016-12-20 | 삼성전자주식회사 | 디스플레이장치 및 그 제어 방법 |
KR102315345B1 (ko) * | 2015-06-26 | 2021-10-20 | 삼성전자주식회사 | 노드 단말 장치, 디스플레이 장치, 이를 포함하는 주변 기기 관리 시스템 및 그 방법 |
US20170031575A1 (en) * | 2015-07-28 | 2017-02-02 | Microsoft Technology Licensing, Llc | Tailored computing experience based on contextual signals |
KR20170015622A (ko) * | 2015-07-29 | 2017-02-09 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
CN204904540U (zh) * | 2015-08-20 | 2015-12-23 | 深圳市云动创想科技有限公司 | 有屏智能遥控器 |
KR20170055295A (ko) * | 2015-11-11 | 2017-05-19 | 엘지전자 주식회사 | 이동 단말기 및 그 이동 단말기의 제어 방법 |
KR102344021B1 (ko) * | 2015-12-23 | 2021-12-28 | 삼성전자주식회사 | 디바이스를 제어하는 방법 및 장치 |
US10574445B2 (en) * | 2016-12-21 | 2020-02-25 | Intel IP Corporation | Range constrained device configuration |
US10602362B2 (en) * | 2016-12-27 | 2020-03-24 | Lite-On Electronics (Guangzhou) Limited | Gateway, gateway setup method, and IoT device setup method in IoT system |
KR20180082812A (ko) * | 2017-01-11 | 2018-07-19 | 삼성전자주식회사 | 영상 표시 장치 및 그 동작 방법 |
US10924461B2 (en) * | 2017-04-27 | 2021-02-16 | Afero, Inc. | Secure two-way beacon in an internet of things (IoT) system |
KR20190017280A (ko) * | 2017-08-10 | 2019-02-20 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
KR102385263B1 (ko) * | 2018-01-04 | 2022-04-12 | 삼성전자주식회사 | 이동형 홈 로봇 및 이동형 홈 로봇의 제어 방법 |
US20200007411A1 (en) * | 2018-06-28 | 2020-01-02 | International Business Machines Corporation | Cognitive role-based policy assignment and user interface modification for mobile electronic devices |
CN108803371B (zh) * | 2018-08-13 | 2021-09-03 | 三星电子(中国)研发中心 | 一种电器设备的控制方法以及装置 |
KR102528671B1 (ko) * | 2018-09-05 | 2023-05-04 | 엘지전자 주식회사 | 이동 단말기 |
WO2020068040A1 (en) * | 2018-09-24 | 2020-04-02 | Google Llc | Controlling a device based on processing of image data that captures the device and/or an installation environment of the device |
US11233671B2 (en) * | 2018-11-28 | 2022-01-25 | Motorola Mobility Llc | Smart internet of things menus with cameras |
-
2018
- 2018-11-28 US US16/203,175 patent/US11233671B2/en active Active
-
2019
- 2019-10-30 CN CN201911044025.0A patent/CN111240555A/zh active Pending
- 2019-11-26 DE DE102019132052.6A patent/DE102019132052A1/de active Pending
- 2019-11-27 GB GB1917285.7A patent/GB2580518B/en active Active
Also Published As
Publication number | Publication date |
---|---|
GB2580518B (en) | 2021-11-10 |
CN111240555A (zh) | 2020-06-05 |
GB2580518A (en) | 2020-07-22 |
US20200169427A1 (en) | 2020-05-28 |
GB201917285D0 (en) | 2020-01-08 |
US11233671B2 (en) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019132052A1 (de) | Intelligente Internet-der-Dinge-Menüs mit Kameras | |
DE202017105691U1 (de) | Intelligente Assistenz für wiederholte Aktionen | |
US10687089B2 (en) | Hospitality property management tool and system and method for use of same | |
DE102012220655A1 (de) | Verfahren und system zum verwalten persönlicher einstellungen auf einem fahrzeug | |
DE102015200118B4 (de) | Vorrichtungskonfiguration mit mehreren profilen für einen einzelnen benutzer unter verwendung von benutzer-biometriken aus der ferne | |
DE112015004481T5 (de) | Rahmen für zustandskennung mobiler anwendungen | |
DE102020007191A1 (de) | Maschinelles Lernen zur Digitalbildauswahl unter Objektvarianten | |
DE202019005728U1 (de) | Elektronische Vorrichtung zur Steuerung einer Mehrzahl von Anwendungen | |
DE102015104962A1 (de) | Verfahren zur Informationsverarbeitung und elektronisches Gerät | |
DE102014107571A1 (de) | Verfahren und System zum Erzeugen und Verfeinern von Regeln zur personalisierten Bereitstellung von Inhalten auf der Grundlage physischer Aktivitäten von Benutzern | |
DE112017004979T5 (de) | Gemeinsame nutzung von umgebungsdaten zur client-vorrichtungsverwendung | |
DE102017111440A1 (de) | Universalgateway für automatisiertes lernen | |
DE112018001007T5 (de) | Verfahren zum bereitstellen einer angepassten benutzerschnittstelle für eine gruppenkommunikation auf einem kommunikationsgerät | |
DE102015200119A1 (de) | Vorrichtungskonfiguration für mehrere benutzer unter verwendung von benutzer-biometriken aus der ferne | |
DE102012009429A1 (de) | Verfahren zur Fernkonfiguration eines Fahrzeugs durch Visualisierung der Fahrzeugbedienung, sowie Endgerät und Fahrzeug hierfür | |
DE102016205172A1 (de) | Vorrichtung und verfahren | |
DE102014113322A1 (de) | Informationsverarbeitungsverfahren und elektronisches Gerät | |
DE202021102712U1 (de) | Elektronische Vorrichtung zum Bereitstellen mehrerer Fenster unter Verwendung eines vergrösserbaren Displays | |
DE102015122031A1 (de) | Identifizierung eines Nutzers für eine personalisierte Darstellung eines Medieninhaltes | |
DE102014119335A1 (de) | Informationsverarbeitungsverfahren und elektronische Vorrichtung | |
DE202016008959U1 (de) | Elektronische Vorrichtung, Fernbedienungsvorrichtung und elektronisches System | |
DE102020102921A1 (de) | System und verfahren zum auffinden einer vorrichtung in einer lauten umgebung | |
DE112021005050T5 (de) | Zugriffsberechtigungsprüfung in systemen mit künstlicher intelligenz | |
EP2163956A1 (de) | Verfahren zur Bereitstellung einer Steuerungsinformation für eine verteilte Operation in einem Automatisierungssystem, Computerprogramm und Automatisierungssystem | |
DE112016004733T5 (de) | Techniken zum Anfügen von durch ein mobiles Computergerät aufgenommenen Medien an ein elektronisches Dokument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |