-
BEANSPRUCHUNG DER PRIORITÄT
-
Die vorliegende Anmeldung beansprucht die Priorität der nicht-provisorischen
US-Patentanmeldung Nr. 15/587,201 mit dem Titel: „Contextual User Interface Based on Environment“ von Roman et al., die am 4. Mai 2017 eingereicht wurde. Die vorliegende Anmeldung beansprucht ferner die Priorität der provisorischen
US-Patentanmeldung Nr. 62/448,912 mit dem Titel „Contextual User Interface Based on Environment“ von Roman et al., die am 20. Januar 2017 eingereicht wurde. Die vorliegende Anmeldung beansprucht ferner die Priorität der provisorischen
US-Patentanmeldung Nr. 62/486,359 mit dem Titel „Contextual User Interface Based on Environment“ von Roman et al., die am 17. April 2017 eingereicht wurde. Die vorliegende Anmeldung beansprucht ferner die Priorität der provisorischen
US-Patentanmeldung Nr. 62/486,365 mit dem Titel „Contextual User Interface Based on Changes in Environment“ von Roman et al., die am 17. April 2017 eingereicht wurde. Der Inhalt der oben angegebenen Anmeldungen wird hiermit durch Bezugnahme in seiner Gesamtheit in das vorliegende Dokument aufgenommen.
-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung bezieht sich auf Nutzerschnittstellen und insbesondere auf eine Nutzerschnittstelle (NS), die auf der Basis des Kontexts der Umgebung adaptiv ist.
-
HINTERGRUND
-
Das Internet der Dinge (loT, Internet of Things) ermöglicht den netzüberschreitenden Betrieb von Geräten, um untereinander Daten auszutauschen, um eine hochkomplexe Funktionalität zu ermöglichen. Beispielsweise können Geräte, die für die Heimautomatisierung ausgelegt sind, Daten austauschen, um die Steuerung und Automatisierung von Beleuchtung, Klimaanlagen, Sicherheit usw. zu ermöglichen. In der intelligenten Heimumgebung kann dies auch Heimassistenzgeräte umfassen, die einen intelligenten persönlichen Assistenten bereitstellen, der auf Sprache reagiert. Beispielsweise kann ein Heimassistenzgerät ein Mikrofonarray umfassen, um Spracheingabe zu empfangen und die entsprechenden Sprachdaten einem Server zur Analyse bereitzustellen, um eine Antwort auf eine seitens eines Nutzers gestellte Frage zu liefern. Der Server kann diese Antwort dem Heimassistenzgerät bereitstellen, das die Antwort unter Verwendung eines Lautsprechers als Sprachausgabe bereitstellen kann. Als weiteres Beispiel kann der Nutzer dem Heimassistenzgerät einen Sprachbefehl erteilen, ein anderes Gerät in seinem Zuhause zu steuern, beispielsweise einen Befehl, eine Lampe ein- oder auszuschalten. Als solches können der Nutzer und das Heimassistenzgerät unter Verwendung von Sprache miteinander interagieren, und die Interaktion kann durch einen außerhalb des Zuhauses befindlichen Server, der die Antworten liefert, ergänzt werden. Jedoch können Haushalte unterschiedliche Nutzer haben, die in unterschiedlichen kontextabhängigen Umgebungen (z. B. von unterschiedlichen Örtlichkeiten aus und zu unterschiedlichen Zeiten) in dem Haushalt mit dem Heimassistenzgerät interagieren.
-
KURZDARSTELLUNG
-
Ein Teil des hierin beschriebenen Gegenstands umfasst ein Heimassistenzgerät, das folgende Merkmale umfasst: einen Anzeigebildschirm; ein Mikrofon; einen oder mehrere Prozessoren; und Speicherspeicherungsanweisungen, wobei der eine oder die mehreren Prozessoren dazu konfiguriert sind, die Anweisungen derart auszuführen, dass der eine oder die mehreren Prozessoren und der Speicher dazu konfiguriert sind: zu ermitteln, dass in einer Nähe des Heimassistenzgeräts unter Verwendung des Mikrofons erste Sprache gesprochen wurde; einen ersten Kontext einer Umgebung des Heimassistenzgeräts zu ermitteln, wobei der erste Kontext der Umgebung eine oder mehrere einer Örtlichkeit eines die erste Sprache bereitstellenden Nutzers, eines Zeitpunkts der ersten Sprache, einer Nutzeridentität, die dem die erste Sprache bereitstellenden Nutzer entspricht, eines Grades der Fertigkeiten des die erste Sprache bereitstellenden Nutzers bezüglich des Interagierens mit dem Heimassistenzgerät, eines Zeitplans des die erste Sprache bereitstellenden Nutzers oder von Charakteristika der ersten Sprache umfasst; eine erste graphische Nutzerschnittstelle (GUI) für das Assistenzgerät auf dem Anzeigebildschirm anzuzeigen, um eine Antwort bezüglich der ersten Sprache bereitzustellen, wobei die erste GUI auf dem ersten Kontext der Umgebung und dem Inhalt der ersten Sprache beruht; zu ermitteln, dass in der Nähe das Heimassistenzgerät unter Verwendung des Mikrofons zweite Sprache gesprochen wurde, wobei die erste Sprache und die zweite Sprache denselben Inhalt umfassen; einen zweiten Kontext einer Umgebung des Heimassistenzgeräts zu ermitteln, wobei der zweite Kontext der Umgebung zumindest entweder eine Örtlichkeit eines die zweite Sprache bereitstellenden Nutzers und/oder einen Zeitpunkt der zweiten Sprache und/oder eine Nutzeridentität, die dem die zweite Sprache bereitstellenden Nutzer entspricht, und/oder einen Grad der Fertigkeiten des die zweite Sprache bereitstellenden Nutzers bezüglich des Interagierens mit dem Heimassistenzgerät und/oder einen Zeitplan des die zweite Sprache bereitstellenden Nutzers und/oder Charakteristika der zweiten Sprache umfasst, wobei der erste Kontext und der zweite Kontext unterschiedlich sind; und eine zweite GUI für das Assistenzgerät auf dem Anzeigebildschirm anzuzeigen, um eine Antwort bezüglich der zweiten Sprache bereitzustellen, wobei die zweite GUI auf dem zweiten Kontext der Umgebung und dem Inhalt der zweiten Sprache beruht, wobei der erste GUI und die zweite GUI unterschiedlichen Inhalt bereitstellen.
-
Ein Teil des hierin beschriebenen Gegenstands umfasst ferner ein Verfahren zum Bereitstellen einer kontextabhängigen Nutzerschnittstelle, das folgende Schritte umfasst: Ermitteln, seitens eines Prozessors, dass eine erste Sprache gesprochen wurde; Ermitteln, seitens des Prozessors, eines ersten Kontexts einer Umgebung, der der ersten Sprache entspricht; Bereitstellen, seitens des Prozessors, einer ersten Nutzerschnittstelle auf der Basis des ersten Kontexts der Umgebung und des Inhalts der ersten Sprache; Ermitteln, seitens des Prozessors, dass eine zweite Sprache gesprochen wurde, wobei die zweite Sprache zu einem anderen Zeitpunkt gesprochen wurde als die erste Sprache; Ermitteln, seitens des Prozessors, eines zweiten Kontexts der Umgebung, der der zweiten Sprache entspricht, wobei der erste Kontext und der zweite Kontext unterschiedlich sind; und Bereitstellen, seitens des Prozessors, einer zweiten Nutzerschnittstelle auf der Basis des zweiten Kontexts der Umgebung und des Inhalts der zweiten Sprache, wobei der Inhalt der ersten Sprache und der zweiten Sprache ähnlich sind, wobei die erste Nutzerschnittstelle und die zweite Nutzerschnittstelle unterschiedlich sind.
-
Bei manchen Implementierungen beruht der erste Kontext auf Audio- und/oder visuellen Feststellungen einer umliegenden Umgebung eines Assistenzgeräts, dass die erste Sprache und die zweite Sprache gerichtet sind.
-
Bei manchen Implementierungen umfasst der erste Kontext eine erste Interaktion, die der ersten Sprache in einer ersten Entfernung entspricht, umfasst der zweite Kontext eine zweite Interaktion, die der zweiten Sprache in einer zweiten Entfernung entspricht, wobei die erste Entfernung und die zweite Entfernung unterschiedlich sind.
-
Bei manchen Implementierungen umfasst der erste Kontext, dass ein erster Nutzer die erste Sprache bereitstellt, umfasst der zweite Kontext, dass ein zweiter Nutzer die zweite Sprache bereitstellt, wobei der erste Nutzer und der zweite Nutzer unterschiedlich sind.
-
Bei manchen Implementierungen ist der erste Nutzer einem ersten Grad der Fertigkeiten bezüglich des Interagierens mit einem Assistenzgerät zugeordnet, ist der zweite Nutzer einem zweiten Grad der Fertigkeiten bezüglich des Interagierens mit dem Assistenzgerät zugeordnet, sind der erste Grad der Fertigkeiten und der zweite Grad der Fertigkeiten unterschiedlich, beruht der erste Kontext auf dem ersten Grad der Fertigkeiten und beruht der zweite Kontext auf dem zweiten Grad der Fertigkeiten.
-
Bei manchen Implementierungen umfassen der erste Kontext und der zweite Kontext einen mit einem Assistenzgerät interagierenden Nutzer und/oder Menschen in der Umgebung um das Assistenzgerät herum und/oder einen Zeitpunkt einer Interaktion mit dem Assistenzgerät und/oder eine Örtlichkeit eines mit dem Assistenzgerät interagierenden Nutzers und/oder einen Grad der Fertigkeiten eines mit dem Assistenzgerät interagierenden Nutzers.
-
Bei manchen Implementierungen umfasst das Verfahren folgende Schritte: Ermitteln, seitens des Prozessors, einer Veränderung der Umgebung; und Erzeugen, seitens des Prozessors, einer dritten Nutzerschnittstelle auf der Basis des ersten und/oder des zweiten Kontexts als Reaktion auf die Veränderung der Umgebung, um Geheimhaltungserwartungen eines oder mehrerer Nutzer, die in der Umgebung zugegen sind, zu wahren.
-
Ein Teil des hierin beschriebenen Gegenstands umfasst ferner ein elektronisches Gerät, das folgende Merkmale umfasst: einen oder mehrere Prozessoren; und Speicherspeicherungsanweisungen, wobei der Prozessor dazu konfiguriert ist, die Anweisungen derart auszuführen, dass der Prozessor und der Speicher dazu konfiguriert sind: zu ermitteln, dass eine erste Sprache gesprochen wurde; einen ersten Kontext einer Umgebung zu ermitteln, der der ersten Sprache entspricht, eine erste Nutzerschnittstelle auf der Basis des ersten Kontexts der Umgebung und des Inhalts der ersten Sprache zu erzeugen; zu ermitteln, dass eine zweite Sprache gesprochen wurde, wobei die zweite Sprache zu einem anderen Zeitpunkt gesprochen wurde als die erste Sprache; einen zweiten Kontext der Umgebung zu ermitteln, der der zweiten Sprache entspricht, wobei der erste Kontext und der zweite Kontext unterschiedlich sind; und eine zweite Nutzerschnittstelle auf der Basis des zweiten Kontexts der Umgebung und des Inhalts der zweiten Sprache zu erzeugen, wobei der Inhalt der ersten Sprache und der zweiten Sprache ähnlich sind, wobei die erste Nutzerschnittstelle und die zweite Nutzerschnittstelle unterschiedlich sind.
-
Bei manchen Implementierungen beruht der erste Kontext auf Audio- und/oder visuellen Feststellungen einer umliegenden Umgebung eines Assistenzgeräts, dass die erste Sprache und die zweite Sprache gerichtet sind.
-
Bei manchen Implementierungen umfasst der erste Kontext eine erste Interaktion, die der ersten Sprache in einer ersten Entfernung entspricht, wobei der zweite Kontext eine zweite Interaktion, die der zweiten Sprache in einer zweiten Entfernung entspricht, umfasst, wobei die erste Entfernung und die zweite Entfernung unterschiedlich sind.
-
Bei manchen Implementierungen umfasst der erste Kontext, dass ein erster Nutzer die erste Sprache bereitstellt, umfasst zweite Kontext, dass ein zweiter Nutzer die zweite Sprache bereitstellt, wobei der erste Nutzer und der zweite Nutzer unterschiedlich sind.
-
Bei manchen Implementierungen ist der erste Nutzer einem ersten Grad der Fertigkeiten bezüglich des Interagierens mit einem Assistenzgerät zugeordnet, ist der zweite Nutzer einem zweiten Grad der Fertigkeiten bezüglich des Interagierens mit dem Assistenzgerät zugeordnet, der erste Grad der Fertigkeiten und der zweite Grad der Fertigkeiten unterschiedlich sind, der erste Kontext auf dem ersten Grad der Fertigkeiten beruht und der zweite Kontext auf dem zweiten Grad der Fertigkeiten beruht.
-
Bei manchen Implementierungen umfassen der erste Kontext und der zweite Kontext einen mit einem Assistenzgerät interagierenden Nutzer und/oder Menschen in der Umgebung um das Assistenzgerät herum und/oder einen Zeitpunkt einer Interaktion mit dem Assistenzgerät und/oder eine Örtlichkeit eines mit dem Assistenzgerät interagierenden Nutzers und/oder einen Grad der Fertigkeiten eines mit dem Assistenzgerät interagierenden Nutzers.
-
Bei manchen Implementierungen ist der Prozessor dazu konfiguriert, die Anweisungen derart auszuführen, dass der Prozessor und der Speicher dazu konfiguriert sind: eine Veränderung der Umgebung zu ermitteln; und als Reaktion auf die Veränderung der Umgebung eine dritte Nutzerschnittstelle auf der Basis des ersten und/oder des zweiten Kontexts zu erzeugen, um Geheimhaltungserwartungen eines oder mehrerer Nutzer, die in der Umgebung zugegen sind, zu wahren.
-
Ein Teil des hierin beschriebenen Gegenstands umfasst ferner ein Computerprogrammprodukt, das ein oder mehrere nicht-flüchtige computerlesbare Medien aufweist, in denen Computerprogrammanweisungen gespeichert sind, wobei die Computerprogrammanweisungen derart konfiguriert sind, dass, wenn sie durch eine oder mehrere Rechenvorrichtungen ausgeführt werden, die Computerprogrammanweisungen die eine oder die mehreren Rechenvorrichtungen dazu veranlassen: zu ermitteln, dass eine erste Sprache gesprochen wurde; einen ersten Kontext einer Umgebung zu ermitteln, der der ersten Sprache entspricht; eine erste Nutzerschnittstelle auf der Basis des ersten Kontexts der Umgebung und des Inhalts der ersten Sprache zu erzeugen; zu ermitteln, dass eine zweite Sprache gesprochen wurde, wobei die zweite Sprache zu einem anderen Zeitpunkt gesprochen wurde als die erste Sprache; einen zweiten Kontext der Umgebung zu ermitteln, der der zweiten Sprache entspricht, wobei der erste Kontext und der zweite Kontext unterschiedlich sind; und eine zweite Nutzerschnittstelle auf der Basis des zweiten Kontexts der Umgebung und des Inhalts der zweiten Sprache zu erzeugen, wobei der Inhalt der ersten Sprache und der zweiten Sprache ähnlich sind, wobei die erste Nutzerschnittstelle und die zweite Nutzerschnittstelle unterschiedlich sind.
-
Bei manchen Implementierungen beruht der erste Kontext auf Audio- und/oder visuellen Feststellungen einer umliegenden Umgebung eines Assistenzgeräts, dass die erste Sprache und die zweite Sprache gerichtet sind.
-
Bei manchen Implementierungen umfasst der erste Kontext eine erste Interaktion, die der ersten Sprache in einer ersten Entfernung entspricht, wobei der zweite Kontext eine zweite Interaktion, die der zweiten Sprache in einer zweiten Entfernung entspricht, umfasst, wobei die erste Entfernung und die zweite Entfernung unterschiedlich sind.
-
Bei manchen Implementierungen umfasst der erste Kontext, dass ein erster Nutzer die erste Sprache bereitstellt, umfasst zweite Kontext, dass ein zweiter Nutzer die zweite Sprache bereitstellt, wobei der erste Nutzer und der zweite Nutzer unterschiedlich sind.
-
Bei manchen Implementierungen ist der erste Nutzer einem ersten Grad der Fertigkeiten bezüglich des Interagierens mit einem Assistenzgerät zugeordnet, ist der zweite Nutzer einem zweiten Grad der Fertigkeiten bezüglich des Interagierens mit dem Assistenzgerät zugeordnet, der erste Grad der Fertigkeiten und der zweite Grad der Fertigkeiten unterschiedlich sind, der erste Kontext auf dem ersten Grad der Fertigkeiten beruht und der zweite Kontext auf dem zweiten Grad der Fertigkeiten beruht.
-
Bei manchen Implementierungen umfassen der erste Kontext und der zweite Kontext einen mit einem Assistenzgerät interagierenden Nutzer und/oder Menschen in der Umgebung um das Assistenzgerät herum und/oder einen Zeitpunkt einer Interaktion mit dem Assistenzgerät und/oder eine Örtlichkeit eines mit dem Assistenzgerät interagierenden Nutzers und/oder einen Grad der Fertigkeiten eines mit dem Assistenzgerät interagierenden Nutzers.
-
Bei manchen Implementierungen veranlassen die Computerprogrammanweisungen die eine oder die mehreren Rechenvorrichtungen dazu: eine Veränderung der Umgebung zu ermitteln; und als Reaktion auf die Veränderung der Umgebung eine dritte Nutzerschnittstelle auf der Basis des ersten und/oder des zweiten Kontexts zu erzeugen, um Geheimhaltungserwartungen eines oder mehrerer Nutzer, die in der Umgebung zugegen sind, zu wahren.
-
Ein Teil des hierin beschriebenen Gegenstands umfasst ferner ein elektronisches Gerät, das folgende Merkmale umfasst: einen Anzeigebildschirm; einen oder mehrere Prozessoren; und Speicherspeicherungsanweisungen, wobei der Prozessor dazu konfiguriert ist, die Anweisungen derart auszuführen, dass der Prozessor und der Speicher dazu konfiguriert sind: ein erstes Auftreten einer ersten Aktivität in einer Umgebung des elektronischen Geräts zu ermitteln; einen ersten Kontext der Umgebung des elektronischen Geräts zu ermitteln; und auf der Basis des ersten Kontexts der Umgebung und der ersten Aktivität eine erste graphische Nutzerschnittstelle (GUI) auf dem Anzeigebildschirm anzuzeigen.
-
Bei manchen Implementierungen ist die erste Aktivität entweder eine in der Umgebung gesprochene Sprache und/oder ein durch ein Objekt in der Umgebung erzeugtes Geräusch.
-
Bei manchen Implementierungen ist der Prozessor dazu konfiguriert, die Anweisungen derart auszuführen, dass der Prozessor und der Speicher dazu konfiguriert sind: ein zweites Auftreten einer zweiten Aktivität in der Umgebung des elektronischen Geräts zu ermitteln; einen zweiten Kontext der Umgebung des elektronischen Geräts zu ermitteln, wobei der erste und der zweite Kontext unterschiedlich sind; und auf der Basis des zweiten Kontexts der Umgebung und der zweiten Aktivität eine zweite graphische Nutzerschnittstelle (GUI) auf dem Anzeigebildschirm anzuzeigen, wobei sich der erste Inhalt der ersten GUI von dem zweiten Inhalt der zweiten GUI unterscheidet.
-
Bei manchen Implementierungen sind die erste Aktivität und die zweite Aktivität ähnlich, und der erste Inhalt der ersten GUI unterscheidet sich von dem zweiten Inhalt der zweiten GUI auf der Basis von Unterschieden zwischen dem ersten Kontext der Umgebung und dem zweiten Kontext der Umgebung.
-
Bei manchen Implementierungen umfasst der erste Inhalt eine erste Anzahl graphischer Darstellungen von Informationen oder einen Zugriff auf eine durch das elektronische Gerät bereitgestellte Funktionalität, der zweite Inhalt umfasst eine zweite Anzahl graphischer Darstellungen von Informationen oder einen Zugriff auf eine durch das elektronische Gerät bereitgestellte Funktionalität, wobei die erste Anzahl und die zweite Anzahl unterschiedlich sind.
-
Bei manchen Implementierungen umfasst der erste Inhalt eine erste graphische Darstellung eines Postens, der Informationen oder einen Zugriff auf eine durch das elektronische Gerät bereitgestellte Funktionalität bereitstellt, in einer ersten Größe, der zweite Inhalt umfasst eine zweite graphische Darstellung des Postens in einer zweiten Größe, wobei sich die erste Größe und die zweite Größe unterscheiden.
-
Bei manchen Implementierungen ist die erste Aktivität Sprache, die in der Umgebung des elektronischen Geräts gesprochen wird, wobei der erste Kontext der Umgebung zumindest entweder eine Örtlichkeit eines die Sprache bereitstellenden Nutzers und/oder einen Zeitpunkt der Sprache und/oder eine Nutzeridentität, die dem die Sprache bereitstellenden Nutzer entspricht und/oder einen Grad der Fertigkeiten des die Sprache bereitstellenden Nutzers bezüglich des Interagierens mit dem Heimassistenzgerät seitens, einen Zeitplan des die Sprache bereitstellenden Nutzers und/oder Charakteristika der Sprache umfasst.
-
Bei manchen Implementierungen umfasst die erste GUI einen Inhalt, der auf die erste Aktivität auf der Basis des ersten Kontexts anspricht.
-
Figurenliste
-
- 1 veranschaulicht ein Beispiel eines Assistenzgeräts, das auf der Basis des Kontexts der Umgebung eine Nutzerschnittstelle bereitstellt.
- 2 veranschaulicht ein Beispiel eines Blockdiagramms, das auf der Basis des Kontexts der Umgebung eine Nutzerschnittstelle bereitstellt.
- 3 veranschaulicht ein Beispiel eines Blockdiagramms, das den Kontext der Umgebung eines Assistenzgeräts ermittelt.
- 4 veranschaulicht ein weiteres Beispiel eines Assistenzgeräts, das auf der Basis des Kontexts der Umgebung eine Nutzerschnittstelle bereitstellt.
- 5 veranschaulicht ein Beispiel eines Assistenzgeräts.
- 6 veranschaulicht ein Beispiel eines Blockdiagramms zum Anpassen einer Nutzerschnittstelle dahin gehend, Erwartungen an die Geheimhaltung zu wahren.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Die vorliegende Offenbarung beschreibt Geräte und Techniken zum Bereitstellen einer Nutzerschnittstelle für ein Heimassistenzgerät auf der Basis des Kontexts oder Charakteristika der umliegenden Umgebung. Bei einem Beispiel kann die Nutzerschnittstelle des Heimassistenzgeräts (z. B. eine graphische Nutzerschnittstelle (GUI), die zum Zweck einer Anzeige auf einem Anzeigebildschirm des Heimassistenzgeräts erzeugt wurde) auf der Basis einer Kombination kontextabhängiger Faktoren der umliegenden Umgebung, einschließlich der mit dem Heimassistenzgerät interagierenden Person, der Menschen in der umliegenden Umgebung, des Zeitpunkts, der Örtlichkeit des Heimassistenzgeräts in dem Haushalt, der Örtlichkeit der mit dem Heimassistenzgerät interagierenden Person, der Gegenwart Fremder, Interessen der Nutzer usw., unterschiedlich sein. Folglich können durch das Heimassistenzgerät auf der Basis der kontextabhängigen Faktoren unterschiedliche Inhalte (z. B. Informationen, graphische Symbole, die Zugriff auf eine Funktionalität des Heimassistenzgeräts gewähren, usw.) angezeigt werden.
-
Außerdem kann derselbe Inhalt unterschiedlich angezeigt werden. Beispielsweise können auf der Basis des Kontexts der Umgebung verschiedene Sprachen, visuelle Effekte usw. bereitgestellt werden. Bei einem anderen Beispiel stellen vielleicht zwei verschiedene Nutzer (oder sogar derselbe Nutzer zu unterschiedlichen Zeiten) dem Heimassistenzgerät dieselbe Frage. Auf der Basis von Unterschieden bezüglich des Kontexts der Umgebung, wenn die Frage gestellt wird, kann die Nutzerschnittstelle dieselbe Frage auf unterschiedliche Art und Weise beantworten.
-
Genauer gesagt veranschaulicht 1 ein Beispiel eines Assistenzgeräts, das auf der Basis des Kontexts der Umgebung eine Nutzerschnittstelle bereitstellt. In 1 kann das Heimassistenzgerät 110 ein Mikrofon (z. B. ein Mikrofonarray) zum Empfangen einer Stimmeingabe von Nutzern und einen Lautsprecher zum Bereitstellen einer Audioausgabe in Form einer Stimme (oder anderer Arten von Audio), um den Nutzer zu antworten, umfassen. Außerdem kann das Heimassistenzgerät 110 einen Anzeigebildschirm umfassen, um Nutzern eine visuelle Rückmeldung zu geben, indem es eine graphische Nutzerschnittstelle (GUI) erzeugt, die Inhalte zur Anzeige bereitstellt. Beispielsweise kann ein Nutzer dem Heimassistenzgerät 110 eine Frage stellen, und eine Antwort auf diese Frage kann auf dem Anzeigebildschirm erscheinen. Zusätzliche visuelle Komponenten wie beispielsweise lichtemittierende Dioden (LEDs) können ebenfalls vorhanden sein. Folglich kann die Nutzerschnittstelle Audio, Stimme, Anzeigebildschirme, Beleuchtung und andere Audio- oder visuelle Komponenten umfassen. Bei manchen Implementierungen kann auch eine Kamera 115 enthalten sein, damit das Heimassistenzgerät 110 eine visuelle Eingabe seiner umliegenden Umgebung empfangen kann. Die Kamera 115 kann physisch in das Heimassistenzgerät 110 integriert sein (z. B. physisch mit demselben gekoppelt sein), oder die Kamera 115 kann eine separate Komponente eines drahtlosen Netzwerks eines Hauses bzw. einer Wohnung sein, die dem Heimassistenzgerät 110 Videodaten bereitstellen kann.
-
In 1 kann sich das Heimassistenzgerät 110 an einer bestimmten Stelle des Hauses bzw. der Wohnung, zum Beispiel in der Küche, befinden. Es könnten unterschiedliche Nutzer von unterschiedlichen Örtlichkeiten in dem Haushalt aus (z. B. der Küche oder dem Wohnzimmer) und zu unterschiedlichen Zeiten mit dem Heimassistenzgerät interagieren. Außerdem könnten die unterschiedlichen Nutzer an unterschiedlichen Merkmalen, Funktionalitäten oder Informationen, die durch das Heimassistenzgerät 110 bereitgestellt werden, interessiert sein. Diese unterschiedlichen kontextabhängigen Faktoren der Umgebung des Heimassistenzgeräts 110 können dazu führen, dass die Nutzerschnittstelle des Heimassistenzgeräts 110 verändert wird. Da die Nutzerschnittstelle Inhalte wie beispielsweise Merkmale, Funktionalitäten, Information usw. bereitstellen kann, kann dies dazu führen, dass auf dem Ansagebildschirm unterschiedliche Inhalte angezeigt werden. Das heißt, unterschiedliche Kombinationen von kontextabhängigen Faktoren der Umgebung können zu einer unterschiedlichen Nutzerschnittstelle des Heimassistenzgeräts 110 führen, was zu einer adaptiven Nutzerschnittstelle führt, die auf dem Kontext der Umgebung beruht. Die kontextabhängigen Faktoren können auch demografische Gegebenheiten der Nutzer umfassen. Falls beispielsweise ein Kind das Heimassistenzgerät 110 benutzt, können die bereitgestellten Inhalte anders sein als wenn ein Erwachsener das Heimassistenzgerät 110 benutzt (z. B. können kinderfreundliche Inhalte bereitgestellt werden).
-
Beispielsweise kann in 1 ein Nutzer 130a abends um 23.39 Uhr in der Küche sein (z. B. im selben Raum wie das oder in unmittelbarer Nähe zu dem Heimassistenzgerät 110). Das Heimassistenzgerät 110 kann den Nutzer 130a beispielsweise erkennen, indem es eine Videoeingabe von der Kamera 115 verwendet, um den Nutzer 130a visuell zu verifizieren. Bei einem anderen Beispiel kann das Heimassistenzgerät 110 den Nutzer 130a durch eine Spracherkennung erkennen, wenn der Nutzer 130a entweder mit dem Heimassistenzgerät 110 oder mit anderen Menschen oder sogar mit sich selbst spricht. Der Nutzer 130a kann auch schon frühere Interaktionen mit dem Heimassistenzgerät 110 gehabt haben, und deshalb kann das Heimassistenzgerät 110 sich an die Vorlieben, Erwartungen, den Zeitplan usw. des Nutzers 130a erinnern. Folglich kann auf der Basis des aktuellen Kontexts der Umgebung, der den Nutzer, den Zeitpunkt und die örtlichkeit, von der der Nutzer gerade spricht, angibt, eine Nutzerschnittstelle 120a erzeugt werden, damit der Nutzer 130a mit dem Heimassistenzgerät 110 interagiert.
-
Im Gegensatz dazu kann sich der Nutzer 130b morgens um 8.30 Uhr im Wohnzimmer desselben Hauses bzw. derselben Wohnung befinden wie das Heimassistenzgerät 110. Da der Nutzer, der Zeitpunkt und die Örtlichkeit des Nutzers anders sind, kann das Heimassistenzgerät 110 eine andere Nutzerschnittstelle 120b erzeugen, die eine andere GUI bereitstellt, die andere Inhalte aufweist, wie in 1 gezeigt ist. Folglich kann sich die Nutzerschnittstelle 120b von der Nutzerschnittstelle 120a unterscheiden, da sie ansprechend auf unterschiedliche kontextabhängige Umgebungen, wenn die Nutzer 130a und 130b sprechen, bereitgestellt oder erzeugt werden. Dies kann sogar dann auftreten, wenn der Inhalt der durch die Nutzer 130a und 130b bereitgestellten Sprache ähnlich oder sogar identisch ist. Falls beispielsweise beide Nutzer 130a und 130b dieselbe oder eine ähnliche Frage stellen (z. B. ihre Sprache einen ähnlichen oder identischen Inhalt umfasst, beispielsweise eine Frage nach einer Liste neuer Restaurants, die in der Nähe eröffnet haben), kann die durch das Heimassistenzgerät 110 bereitgestellte Nutzerschnittstelle (zum Beantworten der Frage) aufgrund des unterschiedlichen Kontexts der jeweiligen Umgebung, als die Sprache geäußert wurde, unterschiedlich sein. Außerdem könnten die Nutzer unterschiedliche Interessen haben (wie z.B. durch ein Profil angegeben ist), die ebenfalls dazu führen, dass unterschiedliche Inhalte unterschiedliche Dienstleistungen, Funktionalitäten usw. bereitstellen.
-
Bei einem anderen Beispiel kann die Nutzerschnittstelle 120a, da sie am Abend erzeugt wurde, andere Farben, eine andere Helligkeit oder andere visuelle Charakteristika aufweisen als die Anzeige 120b. Dies könnte deshalb erfolgen, weil die Nutzerschnittstelle in unterschiedlichen Beleuchtungssituationen nicht zu sehr stören sollte. Beispielsweise kann ein Lichtsensor (z. B. eine Photodiode) dazu verwendet werden, zu ermitteln, dass ein Raum dunkel ist. Das Heimassistenzgerät 110 kann dann die Helligkeit des Anzeigebildschirms auf der Basis der ermittelten Beleuchtungssituation in der Umgebung anpassen.
-
Da sich die Nutzer 130a und 130b außerdem in unterschiedlichen Räumen und somit in unterschiedlicher Entfernung von dem Heimassistenzgerät 110 befinden, können die Nutzerschnittstellen 120a und 120b unterschiedlich sein, um dies zu berücksichtigen. Da sich der Nutzer 130a in 1 beispielsweise in der Küche befindet, ist er dem Heimassistenzgerät 110 eventuell relativ nahe, und deshalb kann die Größe eines Teils der Inhalte (z. B. der Posten A-G, der Tasten, Symbole, des Text usw. sein) einer als Nutzerschnittstelle 120a bereitgestellten GUI relativ gering sein. Im Gegensatz dazu kann, da sich der Nutzer 130b im Wohnzimmer befindet (d. h. weiter entfernt von dem Heimassistenzgerät 110 als der Nutzer 130a), ein Teil des Inhalts der Nutzerschnittstelle 120b größer sein, so dass er aus einer Entfernung besser sichtbar ist. Beispielsweise weisen in 1 die Symbole A und F bei den verschiedenen Nutzerschnittstellen 120a und 120b unterschiedliche Größen auf. Das heißt, Inhalte wie beispielsweise die Posten der Nutzerschnittstellen, die Zugriff auf dieselbe Funktionalität bereitstellen oder eine Angabe derselben Art von Informationen bereitstellen, können unterschiedliche Größen aufweisen, da die kontextabhängigen Umgebungen unterschiedlich sind. Falls beispielsweise die Nutzer 130a und 130b eine Auflistung neuer, nahegelegener Restaurants anfordern, könnten die Symbole A-G eine Liste einiger der identifizierten Restaurants präsentieren. Außerdem kann die Audiowiedergabe auf der Basis der Entfernung eines Nutzers von dem Heimassistenzgerät 110 eine bestimmte Lautstärke aufweisen. Beispielsweise kann eine größere Entfernung eines Nutzers zu einer lauteren Audiowiedergabe führen als wenn sich ein Nutzer näher an dem Heimassistenzgerät 110 befindet.
-
Die Nutzerschnittstellen 120a und 120b können sich auch auf andere Art und Weise unterscheiden. Beispielsweise kann aufgrund der unterschiedlichen kontextabhängigen Umgebungen auch die Örtlichkeit der Inhalte, die Anzahl der Inhalte usw., wie sie in 1 dargestellt sind, unterschiedlich sein.
-
2 veranschaulicht ein Beispiel eines Blockdiagramms, das auf der Basis des Kontexts der Umgebung eine Nutzerschnittstelle bereitstellt. In 2 kann bei Block 203 ermittelt werden, dass Sprache gesprochen wurde. Beispielsweise kann ein Mikrofon des Heimassistenzgeräts 110 Sprache, die in der Umgebung gesprochen wurde, erfassen. Diese Sprache kann in Sprachdaten umgewandelt und durch einen Prozessor des Heimassistenzgeräts 110 analysiert werden, um zu ermitteln, dass Sprache empfangen wurde. Bei Block 205 kann der Kontext der umliegenden Umgebung oder der unmittelbaren Umgebung um das Heimassistenzgerät 110 herum ermittelt werden. Beispielsweise kann das Heimassistenzgerät 110 beliebige der zuvor erwähnten Einzelheiten bezüglich der Umgebung in dem physischen Raum um das Heimassistenzgerät 110 herum, einschließlich Zeitpunkt, Nutzer, vorheriger Interaktionen mit dem Nutzer, Position des Nutzers und des Heimassistenzgeräts 110 usw. ermitteln. Jegliche der nachstehend erörterten Einzelheiten können ebenfalls ermittelt werden. Bei Block 210 kann die Nutzerschnittstelle auf der Basis des ermittelten Kontexts und Inhalts der Sprache bereitgestellt oder erzeugt werden. Dies kann beispielsweise ein Erzeugen einer GUI mit einem Inhalt, der auf den Inhalt der Sprache bezogen ist und in verschiedenen Größen, Farben usw. auf einem Anzeigebildschirm des Heimassistenzgeräts 110 bereitgestellt wird, auf der Basis des Kontexts umfassen. Bei manchen Implementierungen kann die Nutzerschnittstelle auch eine Audiowiedergabe (z. B. eine Tonwiedergabe), ein Einschalten verschiedener Beleuchtungseffekte (z. B. LEDs) usw. umfassen. Beispielsweise können unterschiedliche GUIs mit unterschiedlichen Audioeffekten bereitgestellt werden.
-
Als Nächstes kann das Heimassistenzgerät 110 zu einem anderen Zeitpunkt mehr Sprache erfassen. Falls der Kontext der Umgebung jedoch anders ist, kann eine andere Nutzerschnittstelle als die bei Block 210 erzeugte erzeugt werden. Sogar dann, wenn der Inhalt der Sprache zu den zwei verschiedenen Zeitpunkten derselbe war, können sich also die erzeugten Nutzerschnittstellen unterscheiden, falls sich der Kontext der Umgebung unterschied.
-
3 veranschaulicht ein Beispiel eines Blockdiagramms, das den Kontext der Umgebung eines Assistenzgeräts ermittelt. Wie zuvor erörtert wurde, kann in 3 die Örtlichkeit der Sprache bei Block 305 ermittelt werden, kann der Zeitpunkt der Sprache bei Block 310 ermittelt werden und kann der Nutzer, der Sprache bereitstellt, bei Block 315 ermittelt werden, um den Kontext der Umgebung zu ermitteln.
-
Andere Einzelheiten können den Grad der Fertigkeiten des Nutzers bei Block 320 umfassen. Beispielsweise kann das Heimassistenzgerät 110 den Grad der Fertigkeiten eines Nutzers ermitteln, wenn dieser mehr mit der Nutzerschnittstelle interagiert. Falls der Nutzer mehr Funktionalität oder kompliziertere Funktionalität verwendet, ein beträchtliches Maß an Einzelheiten bezüglich der Funktionalität usw. abfragt usw., kann der Nutzer seitens des Heimassistenzgeräts 110 als fortgeschrittener Nutzer identifiziert werden. Falls im Gegensatz dazu ein anderer Nutzer tendenziell dieselben, sich wiederholenden Aufgaben von dem Heimassistenzgerät fordert oder dieselben, sich wiederholenden Fragen an das Heimassistenzgerät 110 richtet, kann der Nutzer als weniger fortgeschrittener Nutzer identifiziert werden. Falls der Nutzer tendenziell weniger komplizierte Funktionalität oder weniger Funktionalität verwendet oder keine besonderen Einzelheiten abfragt, kann der Nutzer ebenfalls als weniger fortgeschritten identifiziert werden. In 1 kann der Nutzer 130a ein fortgeschrittener Nutzer sein, was darauf hinweist, dass der Nutzer einen relativ hohen Grad der Fertigkeiten beim Verwenden des Heimassistenzgeräts 110 hat und dass deshalb mehr Funktionalität (oder mehr Inhalt) auf der Nutzerschnittstelle 120a bereitgestellt werden kann (d.h. Posten A-G werden bereitgestellt). Im Gegensatz dazu kann der Nutzer 130b ein weniger fortgeschrittener Nutzer sein, was darauf hinweist, dass der Nutzer einen relativ niedrigeren Grad an Fertigkeiten (als der Nutzer 130a) aufweist, und deshalb kann auf der Nutzerschnittstelle 120b weniger Inhalt bereitgestellt werden (d. h. es werden weniger Posten A, C, D und F bereitgestellt). Bei manchen Implementierungen könnte dieselbe Anzahl an Inhalten von Nutzerschnittstellen bereitgestellt werden, jedoch könnten auf der Basis des Grades der Fertigkeiten des Nutzers unterschiedliche Inhalte angezeigt werden, die unterschiedlichen Funktionalitäten oder Merkmalen entsprechen. Somit können bei einer Nutzerschnittstelle des Heimassistenzgeräts 110 unterschiedliche Inhalte bereitgestellt werden.
-
Wie zuvor erörtert wurde, kann die Nutzerschnittstelle andere visuelle Komponenten als ein Anzeigen von Inhalt als Teil einer GUI auf einem Anzeigebildschirm umfassen. In 1 kann dies Beleuchtung umfassen, beispielsweise LEDs oder andere Arten von Lichtern, die aktiviert werden können, indem sie eingeschaltet werden, die leuchten, flackern, eine bestimmte Farbe anzeigen usw., um einem Nutzer einen Hinweis auf eine Situation zu geben. Beispielsweise kann das Heimassistenzgerät 110 den Zeitplan eines Nutzers bei Block 325 ermitteln und eine Angabe bezüglich dessen bereitstellen, wann der Nutzer das Haus verlassen sollte, so dass er seinen Zeitplan ohne Verspätung einhalten kann. In 1 kann dies zu einem Ring um den Anzeigebildschirm herum führen, der andere Farben aufweisen kann (z. B. mit LEDs oder sonstigen Arten von Beleuchtung implementiert ist); jedoch kann der Ring bei anderen Implementierungen Bestandteil des Anzeigebildschirms selbst sein.
-
Bei einem Beispiel kann der Ring eine Farbe aufweisen, die dem Verkehrs- oder Pendelstatus bezüglich dessen entspricht, dass sich der Nutzer zu seiner nächsten erwarteten Örtlichkeit begibt, beispielsweise am Morgen zum Arbeitsplatz oder zu einem auf seinem Kalender eingetragenen Treffen auf einen Kaffee. Falls der Ring auf eine grüne Farbe eingestellt ist, kann dies dem Nutzer anzeigen, dass der Verkehr relativ schwach ist. Im Gegensatz dazu kann eine rote Farbe darauf hinweisen, dass der Verkehr relativ dicht ist. Diese Art von Nutzerschnittstelle kann einen Nutzer mit Informationen versorgen, während er sich weit weg von dem Heimassistenzgerät 110 befindet, da die Farben aus einer Entfernung leicht zu sehen sind. Bei manchen Implementierungen kann der Ring auch angeben, ob der Nutzer bald oder sofort das Haus verlassen muss, falls er pünktlich zur nächsten Verabredung auf seinem Zeitplan kommen möchte. Beispielsweise kann die Intensität oder Helligkeit der Farbe erhöht werden, der Ring kann blinken usw. Dies kann einem Nutzer aus der Entfernung weitere Einzelheiten vermitteln. Bei manchen Implementierungen kann die Nutzerschnittstelle auf dem Anzeigebildschirm auch eine Route zur Örtlichkeit des nächsten Ereignisses auf dem Zeitplan des Nutzers anzeigen, eine Zeitschätzung abgeben usw. Falls der Nutzer also entscheidet, dass er mehr Einzelheiten möchte und näher auf das Heimassistenzgerät 110 zugeht, können Informationen ohne Weiteres angezeigt werden und verfügbar sein. Bei manchen Implementierungen kann das Heimassistenzgerät 105 ermitteln, dass der Nutzer auf es zugeht, nachdem der Ring aktiviert wurde, und kann anschließend Informationen verarbeiten und die zusätzlichen Informationen auf dem Anzeigebildschirm anzeigen, so dass Informationen verfügbar sind, wenn der Nutzer näher da ist. Bei manchen Implementierungen kann die Farbe des Rings andere Feststellungen angeben, beispielsweise eine unerwartete Situation wie z. B. ein offenes Fenster oder eine offene Tür, eine erfasste Überflutung, oder dass die Temperatur in einem Temperaturbereich liegt, der einer Anomalie entspricht.
-
Die Nutzerschnittstelle kann auch Audiotöne zur Wiedergabe umfassen. Beispielsweise könnte die Nutzerschnittstelle 120a in 1 eine Art von Audioton wiedergeben, wenn der Nutzer 130a mit ihr interagiert, beispielsweise einen der Posten A-G auswählt, die Nutzerschnittstelle 120a zu einer Veränderung (z. B. zum Bereitstellen eines neuen Inhalts) auffordert, usw. Im Gegensatz dazu könnte die Nutzerschnittstelle 120b aufgrund des unterschiedlichen Kontexts der Umgebung unterschiedliche Töne für dieselben Interaktionen seitens des Nutzers 130b wiedergeben.
-
Charakteristika bezüglich der seitens des Heimassistenzgeräts 110 empfangenen Sprache können ebenfalls bei Block 330 ermittelt werden. Beispielsweise kann das Heimassistenzgerät 110 die Lautstärke, die Geschwindigkeit, den Akzent, die Sprache, den Ton usw. des Gesprochenen Ermitteln und dies als kontextabhängigen Faktor beim Bereitstellen einer Nutzerschnittstelle verwenden. Bei einem Beispiel kann, falls ein Nutzer schnell spricht (z. B. mit einer Geschwindigkeit oder Rate, von der festgestellt wird, dass sie in einem Bereich von Wörtern pro Minute liegt, der einem schnellen Sprechen entspricht), der Inhalt der Nutzerschnittstelle schneller aktualisiert werden als wenn der Nutzer langsam sprechen würde, beispielsweise indem die GUI der Nutzerschnittstelle rascher aktualisiert wird. Bei einem anderen Beispiel könnte in dem Fall, dass festgestellt wird, dass die Sprache des Nutzers Stress oder Frustration ausdrückt, die Nutzerschnittstelle einen Inhalt anders bereitstellen als wenn festgestellt wird, dass die Sprache des Nutzers relativ frei von Stress oder Frustration ist. Falls der Nutzer beispielsweise gestresst oder frustriert ist, kann die Menge an auf der Nutzerschnittstelle bereitgestelltem Inhalt im Vergleich dazu verringert werden, wenn der Nutzer nicht gestresst oder frustriert ist.
-
Bei manchen Implementierungen kann die Nutzerschnittstelle in dem Fall, dass ermittelt wird, dass der Nutzer gestresst oder frustriert ist, die Wiedergabe von Musik umfassen. Beispielsweise kann unter Verwendung des Lautsprechers des Heimassistenzgeräts 110 beruhigende Musik abgespielt werden.
-
Bei manchen Implementierungen kann die Beleuchtung des Heimassistenzgeräts 110 auf der Basis dessen, was auf der Nutzerschnittstelle bereitgestellt wird, unterschiedlich sein. Beispielsweise können verschiedene Arten von Inhalt zu unterschiedlicher Helligkeit, verschiedenen Farben usw. führen.
-
Die Nutzerschnittelle kann auch dahin gehend verändert werden, Geheimhaltungserwartungen eines Nutzers zu berücksichtigen, wenn sich der Kontext der Umgebung verändert (d. h. die Bedingungen oder Charakteristika der Umgebung sich verändern). 4 veranschaulicht ein weiteres Beispiel eines Assistenzgeräts, das eine auf dem Kontext der Umgebung beruhende Nutzerschnittstelle bereitstellt. In 4 befinden sich die Nutzer 130a, 130b und 130c in der häuslichen Umgebung des Heimassistenzgeräts 110. Diese verschiedenen Nutzer können identifiziert werden, und die Nutzerschnittstelle 120c in 4 kann dahin gehend erzeugt werden, Bedenken der verschiedenen Nutzer bezüglich des Schutzes ihrer Privatsphäre zu berücksichtigen.
-
Beispielsweise möchte der Nutzer 130a vielleicht, dass ein gewisser Inhalt auf einer Nutzerschnittstelle bereitgestellt wird, wenn er alleine ist, möchte jedoch eventuell nicht, dass dieser Inhalt angezeigt wird, wenn andere ebenfalls zu Hause sind. Desgleichen möchte der Nutzer 130b eventuell nicht, dass ein bestimmter Inhalt bereitgestellt wird. Bei manchen Implementierungen könnte der Nutzer 130a es akzeptabel finden, dass der Inhalt auf der Nutzerschnittstelle auch dann bereitgestellt wird, wenn die Gegenwart des Nutzers 130b erfasst wird, da der Nutzer 130b demselben Haushalt angehört. Jedoch möchte der Nutzer 130a vielleicht, dass dieser Inhalt nicht angezeigt wird, falls sich Fremde oder Gäste im Haus befinden. Der Nutzer 130c kann ein Fremder oder Neuankömmling in der häuslichen Umgebung sein und hat noch nie zuvor mit dem Heimassistenzgerät 110 interagiert und wird deshalb von dem Heimassistenzgerät 110 nicht erkannt.
-
Das Heimassistenzgerät 110 kann die verschiedenen Nutzer oder Personen in dem Haushalt erkennen und auf der Basis der Nutzer 130a-c die Nutzerschnittstelle 120c erzeugen. Beispielsweise kann das Heimassistenzgerät 110 einige Einzelheiten der Nutzerschnittstellen 120a und 120b (z. B. Nutzerschnittstellen, die normalerweise für die Nutzer 130a bzw. 130b sind) nehmen und auf der Basis dieser anderen Nutzerschnittstellen die Nutzerschnittstelle 120c in 4 erzeugen. Das heißt, die Nutzerschnittstelle 120c kann auf der Basis dessen erzeugt werden, wie Nutzerschnittstellen für die Nutzer 130a und 130b erzeugt würden. In 4 führt dies dazu, dass ein bestimmter Inhalt der Nutzerschnittstelle 120b eine relativ große Größe aufweist (z. B. wie bei der Nutzerschnittstelle 120b), jedoch weniger Inhalt aufweist als eine der beiden Nutzerschnittstellen 120a oder 120b. Bei manchen Implementierungen kann Inhalt, der in den Nutzerschnittstellen 120a und 120b vorhanden wäre, in der Nutzerschnittstelle 120c bereitgestellt werden, jedoch könnte ein Inhalt, der auf lediglich einer der Nutzerschnittstellen 120a oder 120b vorliegt, eventuell nicht bereitgestellt werden, da er eventuell lediglich einen einzigen Nutzer anspricht oder diese Nutzer unterschiedliche Geheimhaltungserwartungen haben könnten. Beispielsweise würde der Posten B, wie er in der Nutzerschnittstelle 120a in 1 gezeigt ist, eventuell nicht erscheinen, da er nicht in der Nutzerschnittstelle 120b in 1 bereitgestellt wird.
-
Bei manchen Implementierungen kann auf eine Erfassung des Nutzers 130c (d. h. eines Fremden oder Gasts in der Umgebung) hin die Nutzerschnittstelle auch dazu angepasst sein, einen unerkannten Nutzer zu berücksichtigen. Beispielsweise könnte auf eine Erfassung eines unerkannten Nutzers hin ein gewisser Inhalt von einer Nutzerschnittstelle entfernt werden. Wenn der unerkannte Nutzer das Haus verlässt, kann dies erfasst werden, und deshalb kann das Heimassistenzgerät 110 dann den entfernten Inhalt wieder mit der Nutzerschnittstelle bereitstellen. Folglich können die Geheimhaltungserwartungen des Nutzers aufrechterhalten werden, wenn sich Gäste in der Nähe befinden.
-
Andere Arten von Änderungen des Kontexts der Umgebung als eine Erfassung von Fremden oder Gästen kann ein Ermitteln von zeitlichen Unterschieden umfassen. Beispielsweise könnte es ein Nutzer akzeptabel finden, einen gewissen Inhalt spät nachts oder früh morgens auf der GUI anzuzeigen, möchte jedoch eventuell nicht, dass dieser Inhalt während des Tages angezeigt wird, da die Wahrscheinlichkeit, dass andere diesen Inhalt sehen, höher sein könnte. Ein weiteres Beispiel kann Aktivitäten von Personen in der Umgebung umfassen. Falls beispielsweise mehrere Menschen in der Umgebung ein bestimmtes Thema diskutieren, ein gesellschaftliches Zusammentreffen stattfindet usw., können vielleicht die Geheimhaltungserwartungen eines Nutzers erhöht sein, und deshalb kann ein Teil des Inhalts, der andernfalls angezeigt würde, entfernt werden.
-
Bei manchen Implementierungen können die Geheimhaltungserwartungen eines Nutzers durch diesen Nutzer eingestellt oder von dem Heimassistenzgerät 110 mit der Zeit erlernt werden, oder es ist eine Kombination aus beidem möglich. Beispielsweise kann der Nutzer angeben, dass ein gewisser Inhalt nicht angezeigt werden sollte, wenn sich unerkannte Personen in der Umgebung befinden. Als weiteres Beispiel könnte der Nutzer Inhalte von der GUI beseitigen, und das Heimassistenzgerät 110 kann den Kontext in der Umgebung identifizieren, als der Nutzer den Inhalt beseitigt hat, um die Geheimhaltungserwartungen des Nutzers zu ermitteln.
-
6 veranschaulicht ein Beispiel eines Blockdiagramms zum Anpassen einer Nutzerschnittstelle, um Geheimhaltungserwartungen zu wahren. In 6 kann bei Block 605 der Kontext der Umgebung ermittelt werden. Beispielsweise können die Gegenwart von Personen, einschließlich erkannter Nutzer und/oder Fremder, die Zeit, in der Umgebung durchgeführte Aktivitäten usw. ermittelt werden. Bei Block 607 können Geheimhaltungserwartungen für einen Nutzer auf der Basis des Kontexts ermittelt werden. Falls ein Nutzer sich beispielsweise in der Umgebung befindet, kann eine GUI bereitgestellt werden, die unterschiedliche Inhalte bereitstellt. Falls in der Umgebung jedoch Fremde oder Gäste erfasst werden, möchte der Nutzer aufgrund stärkerer Bedenken bezüglich des Schutzes seiner Privatsphäre eventuell nicht, dass bestimmte Inhalte auf der GUI angezeigt werden, was zu höheren Geheimhaltungserwartungen für diese Inhalte führt. Somit kann die GUI bei Block 610 auf der Basis der Geheimhaltungserwartungen angepasst oder modifiziert werden. Beispielsweise können aufgrund der höheren Geheimhaltungserwartungen, während sich der Fremde oder der Gast in der Umgebung befindet, die Inhalte beseitigt werden.
-
Wenn der Fremde oder der Gast das Haus verlässt, kann dies als Veränderung des Kontexts der Umgebung und somit auch als Veränderung der Geheimhaltungserwartungen für die Nutzer ermittelt werden. Da der Nutzer die einzige Person in der Umgebung sein könnte, kann die GUI wiederum dahin gehend modifiziert werden, die Inhalte, die zuvor beseitigt wurden, zu umfassen. Falls sich der Kontext der Umgebung verändert deshalb bei dem Nutzer, für den die GUI bereitgestellt wird, eine Veränderung der Geheimhaltungserwartungen eintritt, kann die GUI angepasst werden.
-
Viele der hierin offenbarten Beispiele erörtern visuelle Anpassungen für die Nutzerschnittstelle. Jedoch können auf der Basis der oben beschriebenen Kontextsituationen auch Audioanpassungen vorgenommen werden. Beispielsweise können auch die Art der Stimme, der Akzent, die Lautstärke usw. für verschiedene Nutzerschnittstellen unter Verwendung der hierin beschriebenen Techniken angepasst werden.
-
Viele der hierin offenbarten Beispiele erörtern eine Erkennung von Sprache. Jedoch können mit den Techniken auch andere Arten von Audio verwendet werden. Beispielsweise können auch Geräusche von Objekten wie beispielsweise Fernseher oder Radio, das Klingeln einer Türglocke, das Öffnen einer Tür, das Zerbrechen von Glas usw. erfasste Auftretensfälle einer anderen Aktivität als Sprache sein.
-
Bei manchen Implementierungen kann der Inhalt der Nutzerschnittstelle auch auf der Basis dessen verändert werden, ob ermittelt wird, dass ein Nutzer das Heimassistenzgerät 110 ansieht oder mit dem Heimassistenzgerät 110 spricht. Beispielsweise könnte der Anzeigebildschirm des Heimassistenzgeräts 110 ausgeschaltet sein, kann sich jedoch einschalten, wenn ermittelt wird, dass ein Nutzer es ansieht.
-
Bei manchen Implementierungen kann die Lautstärke der Wiedergabe eines durch das Heimassistenzgerät 119 bereitgestellten Audio auf Erfassung eines eingehenden Telefonanrufs oder Funkrufs (z. B. über ein Mobiltelefon in der häuslichen Umgebung) hin angepasst werden. Bei einem anderen Beispiel kann der angezeigte Inhalt auf der Basis des Status eines anderen Geräts angepasst werden. Beispielsweise kann ein auf dem Anzeigebildschirm des Heimassistenzgeräts 110 angezeigtes Kochrezept auf der Basis eines ermittelten Status eines Küchengeräts (z. B. Herd, Zeituhr usw.), das für das Kochrezept verwendet wird, verändert werden.
-
Bei manchen Implementierungen kann der über die Nutzerschnittstelle bereitgestellte Inhalt darauf basieren, wie ein Nutzer ein anderes Gerät in der häuslichen Umgebung verwendet. Beispielsweise können die Infrarotsignale eines Fernsehers und/oder einer Fernsteuerung des Fernsehers erfasst werden, um anzuzeigen, zwischen welchen Kanälen gerade umgeschaltet wird. Diese Informationen können seitens des Heimassistenzgeräts 110 einem Cloud-Server bereitgestellt werden, der das Heimassistenzgerät 110 mit Informationen bezüglich des Inhalts auf diesen Kanälen, die gerade angeschaut werden, versorgen kann. Beispielsweise kann der über die Nutzerschnittstelle bereitzustellende Inhalt „heiße Tasten“ umfassen, die Informationen bezüglich der Kanäle (z. B. Zeitplan, aktuelle Sendungen, Beliebtheitsbewertungen für das, was derzeit auf dem Kanal gezeigt wird usw.) zeigen können. Falls, bei einem anderen Beispiel, ermittelt wird, dass ein Kanal gerade ein Sportmatch zeigt, dann können die Punktezahl, Teaminformationen (z. B. Teamnamenslisten) angezeigt werden. Bei manchen Implementierungen können in dem Fall, dass ermittelt wird, dass der Nutzer innerhalb eines kurzen Zeitraums zwischen drei Kanälen hin- und herschaltet und manche der Kanäle während dieses kurzen Zeitraums wiederholt (z. B. wird jeder Kanal innerhalb eines Zeitraums von fünf Minuten zumindest zweimal besucht), heiße Tasten für jeden dieser Kanäle erzeugt werden. Die heißen Tasten können in verschiedenen Teilen des Anzeigebildschirms angezeigt werden, und jede Taste kann einen Inhalt umfassen, der Informationen darstellt, die dem Kanal entsprechen. Beispielsweise kann der Nutzer zwischen drei Kanälen wechseln, die drei verschiedene Basketballspiele zeigen. Jede der heißen Tasten kann die Punktzahlen und die Zeit (z. B. 3:23 Minuten verbleiben noch im vierten Viertel) des auf diesem Kanal gezeigten Spiels umfassen. Somit kann das Umschalten zwischen den verschiedenen Kanälen ermittelt werden, und Inhalt für die Kanäle, die gerade nicht einmal angeschaut werden, kann über die heißen Tasten angezeigt werden. Der Nutzer kann dann eine dieser Tasten auswählen, und der Fernseher kann zu dem Kanal, der der ausgewählten Taste entspricht, umschalten. Dies kann geschehen, indem das Heimassistenzgerät 110 entweder über das drahtlose Netzwerk mit dem Fernseher kommuniziert oder indem es Infrarotsignale erzeugt, um eine Fernsteuerung zu simulieren.
-
Viele der oben erwähnten Beispiele erörtern eine häusliche Umgebung. Bei anderen Beispielen können die hierin erörterten Geräte und Techniken auch in einem Büro, einer öffentlichen Einrichtung usw. installiert sein.
-
5 veranschaulicht ein Beispiel eines Assistenzgeräts. Bei 5 kann das Heimassistenzgerät 110 ein elektronisches Gerät mit einem oder mehreren Prozessoren 605 (z. B. Schaltungen) und einem Speicher 610 zum Speichern von Anweisungen sein, die durch die Prozessoren 605 ausgeführt werden können, um eine kontextabhängige Nutzerschnittstelle 630 zu implementieren, die die hierin beschriebenen Techniken bereitstellt. Das Heimassistenzgerät 105 kann auch ein Mikrofon 620 (z. B. ein oder mehrere Mikrofone, die ein Mikrofonarray implementieren können) umfassen, um Töne in elektrische Signale und somit Sprache in Daten umzuwandeln, die unter Verwendung der Prozessoren 605 verarbeitet und in dem Speicher 610 gespeichert werden können. Ein Lautsprecher 615 kann zum Bereitstellen einer Audioausgabe verwendet werden. Außerdem kann eine Anzeige 625 eine GUI anzeigen, die durch die Prozessoren 605 und den Speicher 610 dazu implementiert ist, eine visuelle Rückmeldung bereitzustellen. Der Speicher 610 kann nicht-flüchtige computerlesbare Speichermedien sein. Das Heimassistenzgerät 110 kann auch verschiedene sonstige Hardware wie beispielsweise Kameras, Antennen usw. umfassen, um die hierin offenbarten Techniken zu implementieren. Somit können die hierin beschriebenen Beispiele mit einer programmierbaren Schaltungsanordnung (z. B. einem oder mehreren Mikroprozessoren), die mit Software und/oder Firmware programmiert ist, oder gänzlich in einer speziell für diesen Zweck vorgesehenen festverdrahteten (nicht-programmierbaren) Schaltungsanordnung oder in einer Kombination derartiger Formen implementiert werden. Speziell für diesen Zweck vorgesehene festverdrahtete Schaltungsanordnungen können in Form z. B. einer oder mehrerer anwendungsspezifischer integrierter Schaltungen (ASICs - application specific intergrated circuits), von komplexen programmierbaren logischen Bauelementen (CPLDs - complex programmable logic devices), feldprogrammierbaren Gatearrays (FPGAs - field programmable gate arrays), strukturierten ASICs usw. vorliegen.
-
Fachleuten wird einleuchten, dass die in den hierin erörterten verschiedenen Flussdiagrammen veranschaulichte(n) Logik und Prozessschritte auf unterschiedliche Weise verändert werden können. Beispielsweise kann die Reihenfolge der Logik umarrangiert werden, es können Teilschritte parallel durchgeführt werden, es kann eine veranschaulichte Logik weggelassen oder eine andere Logik aufgenommen werden usw. Man wird erkennen, dass gewisse Schritte zu einem einzigen Schritt konsolidiert werden können und dass Handlungen, die durch einen einzigen Schritt dargestellt sind, alternativ als eine Sammlung von Teilschritten dargestellt werden können. Die Figuren sind dahin gehend entworfen, die offenbarten Konzepte für einen Leser verständlicher zu machen. Fachleuten wird einleuchten, dass tatsächliche Datenstrukturen, die zum Speichern dieser Informationen verwendet werden, von den gezeigten Figuren und/oder Tabellen abweichen können, indem sie beispielsweise auf andere Art und Weise organisiert sein können; mehr oder weniger Informationen als gezeigt enthalten können; komprimiert, verscrambelt und/oder verschlüsselt sein können; usw.
-
Aus dem Vorstehenden wird man erkennen, dass spezifische Ausführungsbeispiele der Erfindung hierin zu Veranschaulichungszwecken beschrieben wurden, dass jedoch diverse Modifikationen vorgenommen werden können, ohne von dem Schutzumfang der Erfindung abzuweichen. Demgemäß wird die Erfindung lediglich durch die angehängten Ansprüche eingeschränkt.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 15587201 [0001]
- US 62448912 [0001]
- US 62486359 [0001]
- US 62486365 [0001]