DE102016216407A1 - Individuelle Kommunikationsunterstützung - Google Patents

Individuelle Kommunikationsunterstützung Download PDF

Info

Publication number
DE102016216407A1
DE102016216407A1 DE102016216407.4A DE102016216407A DE102016216407A1 DE 102016216407 A1 DE102016216407 A1 DE 102016216407A1 DE 102016216407 A DE102016216407 A DE 102016216407A DE 102016216407 A1 DE102016216407 A1 DE 102016216407A1
Authority
DE
Germany
Prior art keywords
user
emotion
output
signal
contraption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016216407.4A
Other languages
English (en)
Inventor
Marcel Nero
Arne Rost
Cristina Rico Garcia
Timo Stühler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BSH Hausgeraete GmbH
Original Assignee
BSH Hausgeraete GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Hausgeraete GmbH filed Critical BSH Hausgeraete GmbH
Priority to DE102016216407.4A priority Critical patent/DE102016216407A1/de
Priority to PCT/EP2017/071342 priority patent/WO2018041714A1/de
Publication of DE102016216407A1 publication Critical patent/DE102016216407A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L15/00Washing or rinsing machines for crockery or tableware
    • A47L15/0018Controlling processes, i.e. processes to control the operation of the machine characterised by the purpose or target of the control
    • A47L15/0063Controlling processes, i.e. processes to control the operation of the machine characterised by the purpose or target of the control using remote monitoring or controlling of the dishwasher operation, e.g. networking systems
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L15/00Washing or rinsing machines for crockery or tableware
    • A47L15/42Details
    • A47L15/4293Arrangements for programme selection, e.g. control panels; Indication of the selected programme, programme progress or other parameters of the programme, e.g. by using display panels

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Hospice & Palliative Care (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst eine Eingabevorrichtung zur Abtastung einer benutzergesteuerten Eingabe; eine Ausgabevorrichtung zur Bereitstellung einer an den Benutzer gerichteten Ausgabe; eine Schnittstelle zum Austauschen von Signalen mit einem Hausgerät; und eine Verarbeitungseinrichtung. Die Verarbeitungseinrichtung ist dazu eingerichtet, eine benutzergesteuerte Eingabe abzutasten, die Eingabe in ein Signal umzuwandeln und das Signal dem Hausgerät bereitzustellen; ein Signal des Hausgeräts abzutasten, das Signal in eine Ausgabe umzuwandeln und die Ausgabe dem Benutzer bereitzustellen; ferner eine Emotion des Benutzers abzutasten; auf der Basis der Emotion des Benutzers eine empathische Emotion zu bestimmen; und die empathische Emotion dem Benutzer auszudrücken.

Description

  • Die Erfindung betrifft die Kommunikation zwischen einem Benutzer und einem Hausgerät. Insbesondere betrifft die Erfindung eine auf den Benutzer individualisierte Unterstützung der Kommunikation.
  • Stand der Technik
  • In einem Haushalt sind unterschiedliche Hausgeräte zu finden, die beispielsweise eine Waschmaschine, eine Spülmaschine und einen Kühlschrank umfassen können. Die Hausgeräte können jeweils mit Schnittstellen ausgerüstet sein, um jeweils einen Betriebszustand als Signal in elektronischer Form nach außen bereitzustellen oder um ein Signal zur Anforderung eines Dienstes oder einer Funktion entgegenzunehmen. Die Funktionen mehrerer Hausgeräte können zentral verwaltet werden, indem eine entsprechende Komponente die Signale sammelt bzw. verteilt und zur Interaktion mit dem Benutzer ausgebildet ist. In einer Ausführungsform ist ein mobiles Gerät vorgesehen, mit dem der Benutzer kommuniziert und das mit der zentralen Komponente vernetzt ist.
  • Insbesondere bei der Arbeit des Benutzers in einer Küche des Haushalts kann die zentralisierte Kommunikation mit unterschiedlichen Hausgeräten der Küche schwierig sein. Bei der Zubereitung von Speisen wirkt der Benutzer üblicherweise kreativ, wobei er unterschiedlichen Stimmungen oder Emotionen ausgesetzt sein kann. Außerdem kann der Benutzer beim Kochen mehrere nebenläufige Prozesse steuern, was ihn physisch oder psychisch unter Druck setzen kann. Zur Interaktion hat der Benutzer auch nicht zu jedem Zeitpunkt eine Hand frei oder die Hände des Benutzers können mit Lebensmitteln oder Zutaten in Kontakt sein, sodass eine manuelle Bedienung einer üblichen, haptischen Benutzerschnittstelle schwierig oder für die Benutzerschnittstelle schädlich sein kann.
  • US 6 038 493 betrifft einen Roboter mit einer Ausgabeeinrichtung zur Darstellung eines Gesichts in unterschiedlichen emotionalen Zuständen.
  • Eine der vorliegenden Erfindung zugrunde liegende Aufgabe besteht darin, die Kommunikation zwischen einem Benutzer und einem Hausgerät, insbesondere innerhalb einer Küche, verbessert zu gestalten, sodass der Benutzer in seinen Möglichkeiten bei der Verrichtung einer Aufgabe im Haushalt möglichst unterstützt wird. Die Erfindung löst diese Aufgabe mittels der Gegenstände der unabhängigen Ansprüche. Unteransprüche geben bevorzugte Ausführungsformen wieder.
  • Eine erfindungsgemäße Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät, insbesondere in einer Küche, umfasst eine Eingabevorrichtung zur Abtastung einer benutzergesteuerten Eingabe; eine Ausgabevorrichtung zur Bereitstellung einer an den Benutzer gerichteten Ausgabe; eine Schnittstelle zum Austauschen von Signalen mit einem Hausgerät; und eine Verarbeitungseinrichtung. Dabei ist die Verarbeitungseinrichtung dazu eingerichtet, eine benutzergesteuerte Eingabe abzutasten, die Eingabe in ein Signal umzuwandeln und das Signal dem Hausgerät bereitzustellen; ein Signal des Hausgeräts abzutasten, das Signal in eine Ausgabe umzuwandeln und die Ausgabe dem Benutzer bereitzustellen; ferner eine Emotion des Benutzers abzutasten; auf der Basis der Emotion des Benutzers eine empathische Emotion zu bestimmen; und die empathische Emotion dem Benutzer auszudrücken.
  • Es wurde erkannt, dass die Kommunikation zwischen dem Benutzer und der Vorrichtung verbessert werden kann, wenn dem Benutzer ausgedrückt wird, dass seine Emotionen bemerkt bzw. verstanden wurden. Die Vorrichtung kann dazu dienen, eine Vielzahl Hausgeräte über die Schnittstelle zu steuern und eine einheitliche Benutzerschnittstelle für die Hausgeräte anzubieten. Der Benutzer kann auch in schwierigen Situationen, beispielsweise unter Stress, unter hoher Konzentration oder bei der Verrichtung mehrerer Arbeitsgänge gleichzeitig sich besser verständlich machen oder eine verbesserte Rückmeldung erhalten, sodass er sich besser verstanden fühlt.
  • Die durch die Vorrichtung ausgedrückte empathische Emotion wird allgemein durch eine deterministische Maschine bestimmt und ist üblicherweise lediglich eine Simulation, die dazu eingerichtet ist, vom Benutzer als Emotion oder als Metapher für eine Emotion erfasst zu werden. Durch die Unterstützung von Emotionen im Dialog kann ein ansonsten ungenutzter bzw. unmodulierter Kommunikationskanal zum verbesserten Informationsaustausch zwischen der Vorrichtung und dem Benutzer verwendet werden.
  • Bevorzugt umfasst die benutzergesteuerte Eingabe eine Spracheingabe, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die Emotion des Benutzers auf der Basis der Spracheingabe zu bestimmen. Dazu kann beispielsweise eine Sprachgeschwindigkeit, eine Tonhöhe, eine Betonung, eine Wortwahl oder auch ein Nebengeräusch analysiert werden. Die Spracheingabe hat den zusätzlichen Vorteil, dass der Benutzer auch auf einige Entfernung mit der Vorrichtung interagieren kann, wobei er die Vorrichtung noch nicht einmal ansehen muss. In der gesprochenen Äußerung können genügend Informationen liegen, die eine Analyse seiner Emotion bzw. seines Gefühlszustands erlauben kann.
  • In einer weiteren Ausführungsform ist eine Einrichtung zur Bestimmung einer Position des Benutzers vorgesehen, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die Emotion des Benutzers auf der Basis von dessen Position zu bestimmen. Dabei kann die Position beispielsweise eine physische Nähe zu einem Hausgerät umfassen. Es kann auch eine Bewegung des Benutzers anhand eines Verlaufs von Positionen bestimmt werden, wobei die Emotion des Benutzers auf der Basis seiner Bewegung bestimmt wird. Bewegt sich der Benutzer beispielsweise häufig oder rasch, so kann von einer angespannten Emotion ausgegangen werden.
  • In einer weiter bevorzugten Ausführungsform umfasst die Vorrichtung eine Kamera, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die empathische Emotion auf der Basis eines Kamerabilds des Benutzers zu bestimmen. Dazu können beispielsweise eine Körperhaltung oder ein Gesichtsausdruck des Benutzers bestimmt werden.
  • Üblicherweise wird die empathische Emotion strikt auf der Basis der Emotion des Benutzers bestimmt, sodass eine Eins-zu-eins-Zuordnung zwischen Emotion und empathischer Emotion erfolgt. In einer anderen Ausführungsform kann die empathische Emotion jedoch auch auf der Basis einer Abfolge von Emotionen des Benutzers bestimmt werden. So kann beispielsweise zum Übergang der empathischen Emotion von einer sehr angespannten auf eine sehr entspannte Emotion das Durchlaufen von Zwischenzuständen erforderlich sein. Die empathische Emotion kann für den Benutzer realistischer sein, sodass der Informationsaustausch zwischen ihm und der Vorrichtung verbessert unterstützt sein kann. Außerdem kann ein impulsiver Benutzer, dessen Emotionen sich häufig ändern, auf diese Weise nicht automatisch eine häufige Änderung der empathischen Emotion der Vorrichtung verursachen. Der Austausch von Informationen mit dem Benutzer und die Kontrolle eines oder mehrerer angeschlossener Hausgeräte können dadurch verbessert sein.
  • Die empathische Emotion der Vorrichtung kann auf unterschiedliche Weisen ausgedrückt werden. In einer Ausführungsform ist die Ausgabeeinrichtung akustisch ausgeführt, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die empathische Emotion durch Variation einer natürlichsprachigen Ausgabe auszudrücken. Dabei können die gleichen Variationen durchgeführt werden, die oben mit Bezug auf die Analyse einer sprachlichen Äußerung des Benutzers angeführt wurden. Insbesondere kann die empathische Emotion durch Variieren von wenigstens eines von einer Ausgabegeschwindigkeit, einer Betonung, einer Tonhöhe und einer Wortwahl ausgedrückt werden. Ein natürliches Verhalten eines menschlichen Benutzers kann so auf einfache und effiziente Weise nachvollzogen werden, um die empathische Emotion unmittelbar und leicht verständlich auszudrücken.
  • In einer weiteren Ausführungsform kann die Emotion des Benutzers auf der Basis des Signals bestimmt werden. Weist das Signal beispielsweise auf einen kritischen Zustand des Hausgeräts hin, so kann eine Anspannung des Benutzers unterstellt werden. Auch wenn diese an den Äußerungen des Benutzers nicht erkennbar ist, kann dies beispielsweise zu einer angespannten empathischen Emotion der Vorrichtung führen, die der Dringlichkeit der Situation Ausdruck verleiht. Die durch die Vorrichtung ausgedrückten Emotionen können dadurch für den Benutzer verbessert glaubhaft sein.
  • Die empathische Emotion kann auch beispielsweise mittels einer symbolischen optischen Darstellung eines Gesichts ausgedrückt werden. Dadurch kann eine universelle, leicht zu erkennende Übermittlung der Emotion realisiert werden.
  • Dabei kann das Gesicht eine symbolische Strichdarstellung umfassen. Eine Benutzerschnittstelle kann so einfach und intuitiv gehalten sein.
  • Das Gesicht kann ferner eine kreisbogenförmige Begrenzung und zwei kreisbogenförmige Augen umfassen. Durch diese Abstraktion kann das Gesicht einfach und überzeugend dargestellt werden. Die empathische Emotion der Vorrichtung kann so verbessert ohne Ablenkung an den Benutzer übermittelt werden.
  • Die kreisbogenförmige Begrenzung kann eine Aussparung aufweisen, die einen Hals symbolisiert, oder sie kann in zwei Teile untergliedert sein, die Ohren symbolisieren, wobei insbesondere eine Größe der Ohren von einer akustischen Ausgabe oder einer akustischen Eingabe abhängt.
  • In einer weiteren Ausführungsform kann das Gesicht animiert werden. Dazu können insbesondere Parameter, die die Kreisbögen definieren, zeitlich variiert werden.
  • Zusätzlich umfasst die Erfindung ein Hausgerät mit einer erfindungsgemäßen Vorrichtung.
  • Ein erfindungsgemäßes Verfahren zum Vermitteln einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst Schritte des Abtastens einer benutzergesteuerten Eingabe, des Umwandelns der Eingabe in ein Signal und des Ausgebens des Signals an das Hausgerät; oder des Abtastens eines Signals des Hausgeräts, des Umwandelns des Signals in eine Ausgabe und des Bereitstellens der Ausgabe an den Benutzer. Ferner umfasst das Verfahren Schritte des Abtastens einer Emotion des Benutzers; des Bestimmens einer empathischen Emotion auf der Basis der Emotion des Benutzers; und des Ausdrückens der empathischen Emotion an den Benutzer.
  • Die ausgedrückten empathischen Emotionen können insbesondere im Rahmen des Dialogs mit dem Benutzer vermittelt werden. In einer anderen Ausführungsform kann die empathische Emotion auch außerhalb des Dialogs mit dem Benutzer angezeigt bzw. ausgedrückt werden.
  • Das Verfahren kann insbesondere mittels der oben beschriebenen Vorrichtung durchgeführt werden. Dazu kann wenigstens ein Teil des Verfahrens als Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des beschriebenen Verfahrens vorliegen, wobei das Computerprogrammprodukt auf einer Verarbeitungseinrichtung ablaufen oder auf einem computerlesbaren Datenträger gespeichert sein kann. Die Verarbeitungseinrichtung kann insbesondere einen programmierbaren Mikrocomputer oder Mikrocontroller umfassen.
  • Die Erfindung wurde mit Bezug auf eine Vorrichtung, ein Hausgerät sowie ein Verfahren erläutert. Sofern nichts Anderes angegeben ist, sind Merkmale einer Anspruchskategorie analog auf die anderen Anspruchskategorien anwendbar. Die Merkmale, Varianten und Ausführungsformen des Verfahrens gelten somit sinngemäß auch für die Vorrichtung und umgekehrt.
  • Die Erfindung wird nun unter Bezug auf die beiliegenden Figuren genauer beschrieben, in denen:
  • 1 eine schematische Darstellung einer Vorrichtung mit einem Benutzer und einem Hausgerät;
  • 2 weitere Ausführungsformen der Vorrichtung von 1;
  • 3 ein Ablaufdiagramm eines Verfahrens zur Interaktion eines Benutzers mit einem Hausgerät;
  • 4 eine exemplarische Zuordnung von Emotionen eines Benutzers zu empathischen Emotionen der Vorrichtung
  • 5 eine Darstellung eines Gesichts; und
  • 6 bis 11 beispielhafte Ausdrucksweisen für ausgewählte Emotionen
    darstellt.
  • 1 zeigt eine Vorrichtung 100 zur Unterstützung einer Kommunikation zwischen einem Benutzer 105 und einem Hausgerät 110. Insbesondere können auch mehrere Hausgeräte 110 nacheinander, gleichzeitig oder miteinander vernetzt gesteuert werden. Exemplarisch sind als Hausgeräte 110 eine Schneidemaschine, eine Kaffeemaschine, ein Geschirrspüler, ein Kühl- und Gefrierschrank, eine Waschmaschine, ein Ofen, ein Herd, eine Dunstabzugshaube und ein Mikrowellenofen dargestellt. Es können jedoch auch andere Hausgeräte 110 gesteuert werden. Die Hausgeräte 110 befinden sich bevorzugt alle in demselben Haushalt. In einer besonders bevorzugten Ausführungsform befinden sich alle gesteuerten Hausgeräte 110 im gleichen Raum des Haushalts, wobei der Raum insbesondere eine Küche sein kann. Als Küche kann ein Raum angesehen werden, in dem wenigstens ein Herd oder Ofen steht, wobei dieser nicht notwendigerweise mittels der Vorrichtung 100 steuerbar sein muss.
  • Die Vorrichtung 100 ist dazu eingerichtet, eine Eingabe des Benutzers 105 abzutasten, die Eingabe in ein Signal umzuwandeln und das Signal dem Hausgerät 110 bereitzustellen. Jedes steuerbare Hausgerät 110 verfügt daher bevorzugt über eine Schnittstelle, die bevorzugt drahtlos ausgeführt ist. Außerdem ist die Vorrichtung 100 dazu eingerichtet, ein Signal des Hausgeräts 110 abzutasten, das Signal in eine Ausgabe umzuwandeln und die Ausgabe dem Benutzer 105 bereitzustellen.
  • Die Vorrichtung 100 umfasst eine Verarbeitungseinrichtung 115, eine bevorzugt drahtlose Schnittstelle 120 sowie bevorzugt einen oder mehrere Sensoren oder Aktoren. Beispielsweise können eine akustische Eingabevorrichtung 125, eine akustische Ausgabevorrichtung 130, eine Anzeigevorrichtung 135, ein Projektor 140 oder eine Kamera 145 vorgesehen sein. Die Anzeigevorrichtung 135 kann insbesondere im Bereich des Kopfabschnitts 155 angebracht sein und beispielsweise eine rechteckige, elliptische oder kreisrunde Anzeigefläche aufweisen. Die akustische Eingabevorrichtung 125 kann mehrfach ausgeführt sein, um eine Ortung einer Geräuschquelle nach dem Stereo-Prinzip zu erlauben. Beispielsweise können mehrere akustische Eingabevorrichtungen 125 auf einem Umkreis angeordnet sein. Bevorzugt wird eine Ortungsgenauigkeit von ca. ±15° bei einer Entfernung der Geräuschquelle von ca. 4 m erreicht. In Verbindung mit der Kamera 145 kann die Verarbeitungsvorrichtung 115 dazu eingerichtet sein, einen Gegenstand, eine Person, einen Gesichtsausdruck oder eine Körperhaltung einer Person zu erkennen. Es können auch mehrere akustische Ausgabevorrichtungen 130 vorgesehen sein, um eine gerichtete Ausgabe von akustischen Informationen zu erlauben.
  • Weitere mögliche Sensoren und Aktoren werden unten mit Bezug auf 2 beschrieben. In einer weiteren Ausführungsform kann auch ein mechanischer Aktor 150 vorgesehen sein, um einen Teil der Vorrichtung 100 zu bewegen. In der dargestellten Ausführungsform kann beispielsweise ein rundlich dargestellter Kopfabschnitt 155 gegenüber einem Basisabschnitt 160 verschwenkt, gedreht oder verschoben werden. Aktoren oder Sensoren, die speziell auf den Benutzer 105 ausgerichtet werden sollen, sind hierbei bevorzugt am Kopfabschnitt 155 angebracht. Ferner kann die Position des Kopfabschnitts 155 zum Ausdrücken von Emotionen verwendet werden. Die Verarbeitungseinrichtung 115 ist bevorzugt dazu eingerichtet, eine natürlichsprachige Eingabe des Benutzers 105 mittels der Eingabevorrichtung 125 abzutasten und zu analysieren. Die Eingabevorrichtung 125 kann mehrfach vorgesehen sein, sodass nach dem Stereoprinzip eine zumindest grobe Ortung des Benutzers 105 relativ zur Vorrichtung 100 möglich sein kann. Die Ausgabevorrichtung 130 kann ferner dazu eingerichtet sein, ein Signal in eine gesprochene Nachricht umzuwandeln („Text to Speech“, Text in Sprache) und mittels der akustischen Ausgabevorrichtung 130 auszugeben. Der Projektor 140 kann auf eine Arbeitsoberfläche oder eine Wand gerichtet werden. Mittels des Projektors 140 und/oder der Anzeigevorrichtung 135 können graphische oder textuelle Ausgaben erfolgen. Insbesondere können auf diesem Weg ein Auge oder ein Augenpaar dargestellt werden, bevorzugt in Abhängigkeit einer zuvor bestimmten empathischen Emotion. In einer weiteren Ausführungsform ist auch eine haptische Eingabevorrichtung 165 vorgesehen, die insbesondere mit der Anzeigevorrichtung 135 integriert als Touchscreen ausgeführt sein kann. In einer Ausführungsform ist die haptische Eingabevorrichtung 165 dazu eingerichtet, eine manuelle Navigation durch eine klassische Benutzerschnittstelle zu erlauben, um die Vorrichtung 100 zu steuern. In einer weiteren Ausführungsform ist die haptische Eingabevorrichtung 165 dazu eingerichtet, eine taktile Äußerung wie eine Berührung, ein Streichen oder Streicheln, ein Klopfen oder ein Schlagen zu erfassen.
  • Die Vorrichtung 100 ist bevorzugt dazu eingerichtet, sich zumindest ansatzweise wie ein zusätzliches Familienmitglied einer Familie darzustellen, die in dem Haushalt lebt. Die Interaktion mit der Vorrichtung 100 ist bevorzugt leicht zu erlernen oder durchzuführen, macht Freude und kann in die täglichen Abläufe der Benutzer 105 im Haushalt auf natürliche Weise eingebunden werden. Die Erfüllung dieser Ziele werden insbesondere durch die Spracheingabe und Sprachausgabe oder die Darstellbarkeit graphischer Informationen mittels der Anzeigeeinrichtung 135 oder des Projektors 140 unterstützt. Außerdem wird angestrebt, dass eine soziale Interaktion auf der Basis einer Emotion des Benutzers 105 und einer daraus abgeleiteten empathischen Emotion der Vorrichtung 100 zur Unterstützung der Interaktion eingesetzt wird. Das Ausdrücken der empathischen Emotion kann unterschiedliche Aspekte umfassen, beispielsweise optisch, akustisch oder durch eine Bewegung. Eines oder mehrere Hausgeräte 110 können durch die Vorrichtung 100 teilweise automatisch gesteuert werden. Beispielsweise kann eine situationsabhängige Steuerung erfolgen, sodass ein Betriebszustand eines Hausgeräts 110 Einfluss auf den Betriebszustand eines anderen Hausgeräts 110 haben kann. Die Vorrichtung 100 kann als Konzentrator („Hub“) für Geräte dienen, die nach dem Gedanken des Internet der Dinge („Internet of Things“, IoT) netzwerkfähig sind. Dazu können auch andere Geräte als die Hausgeräte 110 mit der Vorrichtung 100 verbunden werden.
  • Die Vorrichtung 100 kann auch spezifische Dienste anbieten, die insbesondere in einer Küche vom Benutzer 105 als hilfreich empfunden werden können. Beispielsweise kann eine Schritt-für-Schritt-Unterstützung beim Kochen nach Rezept erfolgen. Die Vorrichtung 100 kann zum Auffinden eines gewünschten Rezepts verwendet werden und eine optische Anleitung während des Kochprozesses anbieten. Mehrere Benutzer 105 an unterschiedlichen Orten können miteinander kochen, indem sie über Videofunktion der Vorrichtung 100 miteinander verbunden werden. In ähnlicher Weise kann der Benutzer 105 an einem Kochkurs teilnehmen, um seine Kochkünste zu verbessern. Die eigene Küche muss er dazu nicht verlassen. Die Vorrichtung 100 kann auch allgemeine Wissens- oder Informationsfragen beantworten, beispielsweise nach einem aktuellen Wetter oder einer Nachrichtenlage. Die Vorrichtung 100 kann zum Abspielen eines Films oder von Musik genutzt werden. Sollte eines der Hausgeräte 110 ein Problem zeigen, so kann mittels der Vorrichtung 100 ein Kundendienst kontaktiert werden.
  • 2 zeigt weitere Ausführungsformen der Vorrichtung 100 von 1. In 2A weist die Vorrichtung 100 zwischen dem Kopfabschnitt 155 und dem Basisabschnitt 160 einen Mittelabschnitt 205 auf, der unabhängig von den anderen Abschnitten bewegt werden kann, beispielsweise indem er um eine Hochachse der Vorrichtung 100 gedreht wird. Am Mittelabschnitt 205 kann insbesondere der Projektor 140 angebracht sein. Außerdem kann ein Bedienknopf 210 vorgesehen sein, der optional in einer oder unterschiedlichen Farben beleuchtet werden kann. Mittels des Bedienknopfs 210 kann ein Funktionszustand (beispielsweise Aus-Energiesparen-Ein) gesteuert werden.
  • 2B zeigt eine Ausführungsform, bei der ein LED-Band 215 vorgesehen ist. Das LED-Band 215 ist hier auf einem Umfang des Basisabschnitts 160 in Bodennähe angeordnet. Das LED-Band 215 kann beispielsweise zur Darstellung eines analogen Werts oder als Beleuchtung verwendet werden. Dabei können LEDs verwendet werden, die die gleiche oder unterschiedliche Farben aufweisen.
  • 2C zeigt eine Ausführungsform, bei der eine Punktmatrix-Anzeige 220 im Bereich des Basisabschnitts 160 integriert ist. Die Punktmatrix-Anzeige 220 kann beispielsweise zur permanenten Darstellung vorbestimmter Informationen verwendet werden, auch wenn die Vorrichtung 100 ansonsten ausgeschaltet ist. Beispielsweise können eine Uhrzeit, Wetterdaten oder ein Umgebungsparameter der Vorrichtung 100 dargestellt werden.
  • In weiteren Ausführungsformen können auch noch weitere Sensoren von der Vorrichtung 100 umfasst sein. Beispielsweise können ein Feuchtigkeitssensor, ein Sensor zur Bestimmung einer Luftqualität oder ein Temperatursensor umfasst sein.
  • Die Vorrichtung 100 ist bevorzugt zum Einsatz in einer Küche vorgesehen. Ein Gehäuse der Vorrichtung 100 ist daher bevorzugt abwaschbar, wasserdicht, lebensmittelecht und so ausgeführt, dass es seine Farbe auch beim Kontakt mit stark färbenden oder aggressiven Substanzen in der Küche behält.
  • 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zur Interaktion eines Benutzers 105 mit einem Hausgerät 110. Das Verfahren 300 wird bevorzugt zumindest teilweise durch die Vorrichtung 100 der vorangehenden Figuren ausgeführt.
  • In einem Schritt 305 wird eine Eingabe des Benutzers 105 abgetastet. Diese Eingabe kann insbesondere akustisch und weiter bevorzugt natürlichsprachig sein. In einem nachfolgenden Schritt 310 wird die abgetastete Eingabe in ein Signal umgewandelt. Das Signal wird in einem Schritt 315 einem Hausgerät 110 bereitgestellt. In umgekehrter Weise kann auch in einem Schritt 320 ein Signal des Hausgeräts 110 abgetastet werden, in einem Schritt 325 das Signal in eine Ausgabe umgewandelt und in einem Schritt 330 die Ausgabe dem Benutzer 105 bereitgestellt werden. Dies umfasst bevorzugt das Ausgeben einer natürlichsprachigen Nachricht an den Benutzer 105.
  • Ein erstes Teilverfahren der Schritte 305 bis 315 und ein zweites Teilverfahren der Schritte 320 bis 330 stehen bevorzugt in kausalem Zusammenhang. So kann insbesondere das im Schritt 320 durch das Hausgerät 110 bereitgestellte Signal als Reaktion auf das im Schritt 315 bereitgestellte Signal erfolgen. Dementsprechend kann die Ausgabe im Schritt 330 eine Antwort auf die Eingabe im Schritt 305 sein. In anderen Ausführungsformen können die beiden Teilverfahren aber auch unabhängig voneinander ausgeführt werden.
  • Es wird vorgeschlagen, dass die Vorrichtung 100 eine Emotion des Benutzers 105 erkennt und in passender Weise darauf reagiert. Dies erfolgt in einem dritten Teilverfahren der Schritte 335 bis 350. Die drei Teilverfahren können potentiell auch nebenläufig ausgeführt werden.
  • In einem Schritt 335 wird der Benutzer 105 abgetastet. Dies kann beispielsweise mittels der akustischen Eingabevorrichtung 125, der Kamera 145 oder der haptischen Eingabevorrichtung 165 erfolgen. Ergebnisse oder Zwischenergebnisse des Schritts 305, in welchem eine Eingabe des Benutzers 105 abgetastet wird, können zusätzlich verwendet werden, um in einem nachfolgenden Schritt 340 eine Emotion des Benutzers 105 auf der Basis der Abtastungen zu bestimmen. Auf der Basis der bestimmten Emotion wird in einem Schritt 345 bevorzugt eine empathische Emotion bestimmt. Die empathische Emotion wird dann in einem Schritt 350 ausgedrückt. Dabei kann das Ausdrücken unabhängig von den ersten beiden Teilverfahren sein. Es kann jedoch auch gezielt Einfluss genommen werden auf das zweite Teilverfahren, spezifisch im Schritt 325, in dem die an den Benutzer 105 gerichtete Ausgabe in Abhängigkeit der empathischen Emotion der Vorrichtung 100 umgewandelt wird.
  • 4 zeigt eine exemplarische Zuordnung 400 von Emotionen des Benutzers 105 zu empathischen Emotionen der Vorrichtung 100. Es wird beispielhaft von einer Eins-zu-eins-Zuordnung ausgegangen, sodass jeder Emotion des Benutzers 105 genau eine empathische Emotion der Vorrichtung 100 zugeordnet ist. Die Zuordnung 400 ist bevorzugt zumindest surjektiv, es kann also erlaubt sein, dass unterschiedlichen Emotionen des Benutzers 105 die gleiche empathische Emotion der Vorrichtung 100 zugeordnet ist.
  • In rein exemplarischer Weise ist einer alarmierten Emotion 405 des Benutzers 105 eine professionelle Emotion 410 der Vorrichtung 100 zugeordnet. Die Alarmiertheit des Benutzers 105 kann beispielsweise anhand einer knappen Wortwahl, einer hohen Sprechgeschwindigkeit, starken Umgebungsgeräuschen oder einer Eingabe des Benutzers 105 erkannt werden. Die professionelle Emotion 410 der Vorrichtung 100 kann eine knappe und klare Ausdrucksweise bei gleichzeitiger Unterdrückung von spielerischen oder nicht essentiellen Emotion umfassen.
  • In einem zweiten illustrativen Beispiel ist der Benutzer 105 ratlos 415 und die Vorrichtung 100 gibt sich inspirativ 420. Die Ratlosigkeit 415 kann sich durch getragene Sprechweise, langsame oder seltene Bewegungen oder auch eine geringe Aufmerksamkeit des Benutzers 105 erkennen lassen. Auch wenn eine erwartete Eingabe des Benutzers 105 länger als eine vorbestimmte Zeitspanne nicht erfolgt, kann von Entscheidungs- oder Verständnisschwierigkeiten ausgegangen werden, die als Ratlosigkeit 415 subsumiert werden können.
  • Die inspirative Emotion 420 kann dazu führen, vermehrt Kontakt zum Benutzer 105 herzustellen, diesen positiver zu gestalten oder mehrere Kommunikationskanäle (akustisch, optisch, haptisch) gleichzeitig zu benutzen. Die Vorrichtung 100 kann einen Vorschlag zur Erleichterung einer Entscheidung machen. Will der Benutzer 105 beispielsweise ein Gericht kochen, wird die Vorrichtung eher nicht eine Liste von Rezepten zeigen, sondern ein bestimmtes Rezept vorschlagen. Der Vorschlag kann auf früheren Erfahrungen mit dem Benutzer 105 aufbauen. In einem anderen Beispiel kann die Vorrichtung 100 den Benutzer 105 um eine Bestätigung bitten, ob ein Hausgerät 110 auf eine bestimmte Weise gesteuert werden soll. Um die Entscheidung zu erleichtern, kann der Kopfabschnitt 155 horizontal bewegt werden, um ein Kopfschütteln zu simulieren, wenn die vorgeschlagene Antwort nein ist, oder der Kopfabschnitt 155 kann vertikal bewegt werden, um ein Nicken zu simulieren, wenn die vorgeschlagene Antwort ja ist.
  • In einem weiteren Beispiel ist die Emotion 425 des Benutzers 105 konzentriert und die empathische Emotion 430 der Vorrichtung 100 zurückhaltend. Die Konzentriertheit des Benutzers 105 kann sich durch rasche, knappe Bewegungen, seltene, knappe Äußerungen und mäßige Hintergrundgeräusche bestimmen lassen. Die Vorrichtung 100 kann Ausgaben auf ein Minimum reduzieren, jeweils nur auf eine Weise ausgeben (akustisch, optisch, haptisch) oder eine Hintergrundbeschallung automatisch reduzieren.
  • In noch einem weiteren Beispiel hat der Benutzer 105 eine introvertierte Emotion 435 und die empathische Emotion 440 der Vorrichtung 100 ist ruhig. In einem letzten illustrativen Beispiel ist die Emotion 445 des Benutzers 105 inspiriert und die empathische Emotion 450 der Vorrichtung 100 ist klar.
  • Darüber hinaus können bestimmte Situationen oder Zustände des Benutzers 105, die allgemein auch als Emotion eingestuft werden können, zu einem vorbestimmten Verhalten der Vorrichtung 100 führen. Die Zuordnung 400 somit durch weitere Beispiele erweitert werden.
  • Wird der Benutzer 105 durch die Vorrichtung nicht erkannt, so kann der Benutzer 105 unerfahren in der Interaktion mit der Vorrichtung 100 sein. Der Benutzer kann als neu 455 eingestuft werden und die Vorrichtung 100 kann in der Rolle eines Lehrers 460 seine Funktionen erläutern. Insbesondere kann die Vorrichtung 100 kontextsensitiv darüber informieren, welche Funktionen verfügbar sind, auf welche Eingaben die Vorrichtung 100 sensibel ist und welche Ausgaben möglich sind. Eine Ausgabe kann mit unterschiedlichen empathischen Emotionen untermalt werden, um dem Benutzer 105 einen verbesserten Eindruck einer emotional unterstützten Interaktion zu geben.
  • Ist der Benutzer 105 in Eile 465, so kann die Vorrichtung 100 durch knappes oder kurz angebundenes Verhalten 470 darauf reagieren. Eine akustische Ausgabe kann auf kurze Sätze beschränkt sein, optionale Informationen können nicht ausgegeben werden, bestimmte Bestätigungen können entfallen. Wird auf eine Benutzereingabe gewartet, so kann die maximale Wartezeit, nach der eine erneute Eingabeaufforderung ausgegeben wird, angepasst werden, beispielsweise indem die Wartezeit verkürzt wird.
  • Ist der Benutzer 105 frustriert 475, kann die empathische Emotion der Vorrichtung 100 kontaktsuchend 480 sein. Akustische Ausgeben können kurz oder knapp sein, es können Hinweise zu Interaktionsmöglichkeiten mit der Vorrichtung 100 gegeben werden.
  • Wird die Emotion des Benutzers als traurig 485 bestimmt, so kann die empathische Emotion aufmunternd 490 sein. Beispielsweise kann die Vorrichtung 100 Witze darbieten oder mögliche neue Applikationen zur Verwendung anbieten. Dabei können insbesondere Applikationen ausgewählt werden, die soziale Interaktionen unterstützen. Die Vorrichtung 100 kann anzeigen, dass sie mit positiven empathischen Emotionen reagiert, wenn sich der Benutzer 105 mit der Vorrichtung 100 beschäftigt.
  • Hat der Benutzer 105 gute Laune 495, so kann die empathische Emotion der Vorrichtung 100 lustig 499 sein. Beispielsweise kann die Vorrichtung 100 Witze darbieten und seinen Kopfabschnitt 155 häufig bewegen um zu zeigen, dass er glücklich ist. Die Vorrichtung 100 kann neue Applikationen 100 zur Verwendung vorschlagen, die der Benutzer 105 noch nicht oder nicht häufig ausprobiert hat.
  • 5a zeigt ein Gesicht 500, das dem Benutzer 105 mittels der Vorrichtung 100 optisch dargeboten werden kann, und zwar insbesondere mittels der Anzeigevorrichtung 135 oder des Projektors 140. Das Gesicht 500 ist bevorzugt symbolisch bzw. graphisch reduziert dargestellt. In der dargestellten Ausführungsform beschränkt sich das Gesicht 500 auf eine Begrenzung 505 und zwei Augen 510, die jeweils als Striche dargestellt werden können. Die Begrenzung 505 und die Augen 510 können insbesondere jeweils als Kreisbogen dargestellt sein, wobei jeweils ein Mittelpunktswinkel, eine Öffnungsrichtung eines zu einem Vollkreis fehlenden Abschnitts, eine Linienstärke, eine Linienfarbe oder eine Linienhelligkeit variiert werden können. In einer anderen Ausführungsform liegen den Bögen keine Kreise, sondern Ellipsen zu Grunde.
  • Die Begrenzung 505 kann dazu eingerichtet sein, den Eindruck eines Kopfes hervorzurufen, der das Gesicht 500 umfasst, wobei der zu einem Vollkreis fehlende Abschnitt der Begrenzung 505 einen Hals symbolisieren kann. Der Hals kann als Bezugsrichtung „unten“ verwendet werden. Die Augen 510 sind bevorzugt in einer oberen Hälfte der Begrenzung 505 dargestellt. Eine Ausrichtung einer Achse, die Mittelpunkte der Augen 510 miteinander verbindet, kann bezüglich der Bezugsrichtung einen vorbestimmten Winkel aufweisen, der ebenfalls variierbar sein kann. Auch Positionen der Augen 510 innerhalb der Begrenzung 505 können variiert werden, wobei ein Abstand zwischen ihren Mittelpunkten bevorzugt konstant bleibt.
  • In einer Ausführungsform werden die Augen 510 auf der Anzeigevorrichtung 135 dargestellt und die Begrenzung 505 mittels eines Leuchtbands, das kreis- oder ellipsenförmig um die Anzeigevorrichtung 135 gelegt ist. Das Leuchtband kann beispielsweise eine Anzahl LED umfassen, die angesteuert werden können, eines oder mehrere zusammenhängende Bänder oder Linien darzustellen. Es ist insbesondere bevorzugt, dass der Kopfabschnitt 155 der Vorrichtung eine kreisrunde oder ellipsenförmige Außenkontur umfasst, wobei das Leuchtband an der Kontur entlang geführt sein kann. In einer anderen Ausführungsform werden die Begrenzung 505 und die Augen 510 mittels der gleichen Ausgabevorrichtung 135, 140 dargestellt. Es kann ein Farbschema für die Begrenzung 505 und die Augen 510 vorgegeben sein; beispielsweise können die Begrenzung 505 in rot und die Augen 510 in weiß dargestellt werden. Ein anderes beispielhaftes Farbschema sieht eine blaue Begrenzung 505 und blaue Augen 510 vor. Die Darstellung kann hell auf dunkel oder dunkel auf hell erfolgen.
  • Das Gesicht 500 kann animiert werden, etwa indem einer oder mehrere der oben genannten Parameter über die Zeit verändert werden. Es ist bevorzugt, kurze Bewegungssequenzen als Animationen zu definieren. Ein komplexerer Ausdruck des Gesichts 500 kann aus mehreren Darstellungen und/oder Animationen zusammengesetzt werden. Das Gesicht 500 kann dazu verwendet werden, eine Emotion, insbesondere eine empathische Emotion der Vorrichtung 100, einem Benutzer 105 graphisch anzuzeigen. Auf diese Weise kann ein vorbestimmter Gemütszustand transportiert werden, der ein Teil eines Dialogs zwischen der Vorrichtung 100 und dem Benutzer 105 sein kann oder einen insbesondere akustischen Informationsaustausch unterstützen kann. Die graphische Unterstützung kann beispielsweise ein „Zuhören“ oder „Sprechen“ der Vorrichtung 100 umfassen. Mittels der Begrenzung 505 und der Augen 510 können zahlreiche Gesichtsausdrücke mit unterschiedlichen Stimmungen oder Emotionen dargestellt werden. Außerdem lassen sich beispielsweise eine Kopfbewegung, eine Spracheingabe, eine Sprachausgabe oder Wartevorgänge visualisieren.
  • Mittels des Gesichts 500 kann eine Benutzerschnittstelle zwischen der Vorrichtung 100 und einem Benutzer 105 einfach und unaufwendig sein. Es kann eine menschliche Anmutung der Vorrichtung 100 generiert werden, die dazu beitragen kann, dass der Benutzer 105 den Eindruck einer persönlichen Beziehung zur Vorrichtung 100 erhält. Die Bedienung der Vorrichtung 100 kann dadurch direkter, weniger fehlerträchtig oder angenehmer gestaltet sein.
  • Im unteren Bereich von 5 sind beispielhafte Verwendungen des Gesichts 500 dargestellt. 5b zeigt zwei Darstellungen, um jeweils eine Neigung des Gesichts 500 bzw. eines umgebenden Kopfes auszudrücken. Dazu wird die Richtung des Mittelpunktswinkels der Begrenzung 105 passend gewählt. Eine Achse, auf der Mittelpunkte der Augen 510 liegen, kann entsprechend verschwenkt werden, insobesondere derart, dass die Linie parallel zu Endpunkten der Kreislinie liegt, die die Begrenzung 105 bildet. Gleichzeitig können die Augen 510 gedreht werden, indem die Öffnungsrichtungen ihrer Mittelpunktswinkel angepasst werden. Die Ausrichtung der Mittelpunktswinkel kann bezüglich des angedeuteten Halses konstant sein.
  • 5c zeigt eine Änderung einer Blickrichtung des Gesichts 500. Dazu kann der Mittelpunktswinkel in seiner Ausrichtung oder in seiner Größe verändert werden. Die Augen 510 können ebenfalls in der Ausrichtung oder Größe ihrer Mittelpunktswinkel verändert werden.
  • 5d zeigt eine Begleitung einer akustischen Ausgabe der Vorrichtung 100, insbesondere mittels der Ausgabeeinrichtung 130. Die dargestellte Ausdrucksweise kann insbesondere eine Sprachausgabe untermalen, die die Vorrichtung 100 beispielsweise an den Benutzer 105 richtet. Dazu wird in der dargestellten Ausführungsform die Begrenzung 105 in zwei Segmente geteilt, die rechts und links seitlich der Augen 520 dargestellt sind und dazu eingerichtet sein können, den Eindruck von Ohren hervorzurufen. Die Segmente können nach Art einer Aussteuerungs- oder Lautstärkenanzeige in Abhängigkeit einer ausgegebenen Lautstärke in vertikaler Richtung unterschiedlich groß dargestellt werden. Eine entsprechende Darstellung kann auch eine akustische Eingabe, insbesondere mittels der Eingabeeinrichtung 125, begleiten. Dabei kann die vertikale Ausdehnung der Segmente entsprechend der Lautstärke einer externen Schallquelle variiert werden.
  • Im Folgenden werden beispielhafte Darstellungen und Animationen des Gesichts 500 näher erläutert. Falls nicht anders angegeben, weiden einzelne Darstellungen in Leserichtung von links nach rechts und von oben nach unten dargestellt. Dabei können Übergänge fließend sein. Eine umgekehrte Abfolge kann für einen umgekehrten Zweck verwendet werden. In allen Varianten kann sich die Begrenzung 505 zur Darstellung einer Kopfbewegung nach oben oder unten drehen, um die jeweilige Situation oder empathische Emotion zu unterstreichen.
  • 6 zeigt das Gesicht 500 beim exemplarischen Ausdrücken von Freude. Die Augen 510 können als geschlossene Halbkreise dargestellt werden. Die Begrenzung 505 ist vollständig dargestellt.
  • 7 zeigt das Gesicht 500 beim exemplarischen Augenrollen. Damit kann beispielsweise Unglaube oder Bedauern ausgedrückt werden. Die Augen 510 drehen sich bevorzugt um ihre Mittelpunkte.
  • 8 und 9 zeigen das Gesicht 500 in zwei exemplarischen Varianten beim Kichern, womit beispielsweise Humor oder Freundlichkeit ausgedrückt werden kann. In 8 werden die Augen 510 zu Halbkreisen geschlossen und optional von oben nach unten bewegt. In 9 wird zusätzlich der Kopf 500 geneigt oder gedreht.
  • 10 zeigt das Gesicht 500 mit vergrößerten Augen, womit beispielsweise Erstaunen oder Erschrecken als Emotion dargestellt werden kann. Durchmesser der Augen 510 können vergrößert werden. Außerdem kann eine Linie, mit der die Augen 510 dargestellt sind, intensiviert werden. Das Intensivieren kann eine Änderung der Farbe, der Strichstärke oder der Helligkeit der Linie umfassen.
  • 11 zeigt das Gesicht 500 beim exemplarischen Ausdrücken einer Anstrengung. Die Augen 510 werden zusammengekniffen dargestellt. Dabei kann von der Darstellung eines Kreisbogens abgewichen werden und die Augen 510 können beispielsweise als Winkel dargestellt werden.
  • Bezugszeichenliste
  • 100
    Vorrichtung
    105
    Benutzer
    110
    Hausgerät
    115
    Verarbeitungseinrichtung
    120
    Schnittstelle
    125
    akustische Eingabevorrichtung
    130
    akustische Ausgabevorrichtung
    135
    Anzeigevorrichtung
    140
    Projektor
    145
    Kamera
    150
    Aktor
    155
    Kopfabschnitt
    160
    Basisabschnitt
    165
    haptische Eingabevorrichtung
    205
    Mittelabschnitt
    210
    Bedienknopf
    215
    LED-Band
    220
    Punktmatrix-Anzeige
    300
    Verfahren
    305
    Abtasten benutzergesteuerte Eingabe
    310
    Umwandeln in Signal
    315
    Bereitstellen Signal
    320
    Abtasten Signal
    325
    Umwandeln in Ausgabe
    330
    Bereitstellen Ausgabe
    335
    Abtasten Benutzer
    340
    Bestimmen Emotion
    345
    Bestimmen empathische Emotion
    350
    Ausdrücken Emotion
    400
    Zuordnung
    405
    alarmiert
    410
    professionell
    415
    ratlos
    420
    inspirativ
    425
    konzentriert
    430
    zurückhaltend
    435
    introvertiert
    440
    ruhig
    445
    inspiriert
    450
    klar
    455
    neu
    460
    Lehrer
    465
    in Eile
    470
    knapp
    475
    frustriert
    480
    kontaktsuchend
    485
    traurig
    490
    aufmunternd
    495
    gute Laune
    499
    lustig
    500
    Gesicht
    505
    Begrenzung
    510
    Auge
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6038493 [0004]

Claims (15)

  1. Vorrichtung (100) zur Steuerung einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (110), wobei die Vorrichtung (100) folgendes umfasst: – eine Eingabevorrichtung (125) zur Abtastung einer benutzergesteuerten Eingabe; – eine Ausgabevorrichtung (130) zur Bereitstellung einer an den Benutzer (105) gerichteten Ausgabe; – eine Schnittstelle (120) zum Austauschen von Signalen mit einem Hausgerät (110); und – eine Verarbeitungseinrichtung (115), die dazu eingerichtet ist, – eine benutzergesteuerte Eingabe abzutasten, die Eingabe in ein Signal umzuwandeln und das Signal dem Hausgerät (110) bereitzustellen; – ein Signal des Hausgeräts (110) abzutasten, das Signal in eine Ausgabe umzuwandeln und die Ausgabe dem Benutzer (105) bereitzustellen; – eine Emotion des Benutzers (105) abzutasten; – auf der Basis der Emotion des Benutzers (105) eine empathische Emotion zu bestimmen; und – die empathische Emotion dem Benutzer (105) auszudrücken.
  2. Vorrichtung (100) nach Anspruch 1, wobei die benutzergesteuerte Eingabe eine Spracheingabe umfasst und die Verarbeitungseinrichtung (115) dazu eingerichtet ist, die Emotion des Benutzers (105) auf der Basis der Spracheingabe zu bestimmen.
  3. Vorrichtung (100) nach Anspruch 1 oder 2, ferner umfassend eine Einrichtung zur Bestimmung einer Position des Benutzers (105), wobei die Verarbeitungseinrichtung (115) dazu eingerichtet ist, die Emotion des Benutzers (105) auf der Basis von dessen Position zu bestimmen.
  4. Vorrichtung (100) nach einem der vorangehenden Ansprüche, ferner umfassend eine Kamera (145), wobei die Verarbeitungseinrichtung (115) dazu eingerichtet ist, die empathische Emotion auf der Basis eines Kamerabilds des Benutzers (105) zu bestimmen.
  5. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die empathische Emotion auf der Basis einer Abfolge von Emotionen des Benutzers (105) bestimmt wird.
  6. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Ausgabeeinrichtung (130) akustisch ausgeführt und die Verarbeitungseinrichtung (115) dazu eingerichtet ist, die empathische Emotion durch Variation einer natürlichsprachigen Ausgabe auszudrücken.
  7. Vorrichtung (100) nach Anspruch 6, wobei die empathische Emotion durch Variieren wenigstens eines von einer Ausgabegeschwindigkeit, einer Betonung, einer Tonhöhe und einer Wortwahl ausgedrückt wird.
  8. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Emotion des Benutzers (105) auf der Basis des Signals bestimmt wird.
  9. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Vorrichtung dazu eingerichtet ist, die empathische Emotion mittels einer symbolischen optischen Darstellung eines Gesichts (500) auszudrücken, wobei das Gesicht (50) insbesondere eine symbolische Strichdarstellung umfasst.
  10. Vorrichtung (100) nach Anspruch 9, wobei das Gesicht (500) eine kreisbogenförmige Begrenzung (505) und zwei kreisbogenförmige Augen (510) umfasst.
  11. Vorrichtung (100) nach Anspruch 10, wobei die kreisbogenförmige Begrenzung (505) eine Aussparung aufweist, die einen Hals symbolisiert, oder die kreisbogenförmige Begrenzung (505) in zwei Teile untergliedert ist, die Ohren symbolisieren, wobei insbesondere eine Größe der Ohren von einer akustischen Ausgabe oder einer akustischen Eingabe abhängt.
  12. Vorrichtung (100) nach einem der Ansprüche 9 bis 11, wobei das Gesicht (500) animiert ist.
  13. Hausgerät (110) mit einer Vorrichtung (100) nach einem der vorhergehenden Ansprüche.
  14. Verfahren (300) zum Vermitteln einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (110), wobei das Verfahren folgende Schritte umfasst: – Abtasten (305) einer benutzergesteuerten Eingabe, Umwandeln (310) der Eingabe in ein Signal und Ausgeben (315) des Signals an das Hausgerät (110); – oder – Abtasten (320) eines Signals des Hausgeräts (110), Umwandeln (325) des Signals in eine Ausgabe und Bereitstellen (330) der Ausgabe an den Benutzer (105); – und – Abtasten (340) einer Emotion des Benutzers (105); – Bestimmen (345) einer empathischen Emotion auf der Basis der Emotion des Benutzers (105); und – Ausdrücken (350) der empathischen Emotion an den Benutzer (105).
  15. Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des Verfahrens (300) nach Anspruch 14, wenn das Computerprogrammprodukt auf einer Verarbeitungseinrichtung (115) abläuft oder auf einem computerlesbaren Datenträger gespeichert ist.
DE102016216407.4A 2016-08-31 2016-08-31 Individuelle Kommunikationsunterstützung Pending DE102016216407A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016216407.4A DE102016216407A1 (de) 2016-08-31 2016-08-31 Individuelle Kommunikationsunterstützung
PCT/EP2017/071342 WO2018041714A1 (de) 2016-08-31 2017-08-24 Individuelle kommunikationsunterstützung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016216407.4A DE102016216407A1 (de) 2016-08-31 2016-08-31 Individuelle Kommunikationsunterstützung

Publications (1)

Publication Number Publication Date
DE102016216407A1 true DE102016216407A1 (de) 2018-03-01

Family

ID=59856493

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016216407.4A Pending DE102016216407A1 (de) 2016-08-31 2016-08-31 Individuelle Kommunikationsunterstützung

Country Status (2)

Country Link
DE (1) DE102016216407A1 (de)
WO (1) WO2018041714A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018206941A1 (de) * 2018-05-04 2019-11-07 BSH Hausgeräte GmbH Haushalts-Assistent mit Interaktionseinheit
DE102020208346A1 (de) 2020-07-03 2022-01-05 BSH Hausgeräte GmbH System mit einer Geschirrspülmaschine und Verfahren zum Betreiben einer Geschirrspülmaschine
DE102021108765A1 (de) 2021-04-08 2022-10-13 Cariad Se Verfahren, Prozessorschaltung und Bediensystem zum kontextsensitiven Bereitstellen von Tutorials für ein Gerät

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038493A (en) 1996-09-26 2000-03-14 Interval Research Corporation Affect-based robot communication methods and systems
WO2007036818A1 (en) 2005-09-29 2007-04-05 Koninklijke Philips Electronics N.V. A remote control device and system
US20110144804A1 (en) 2009-12-16 2011-06-16 NATIONAL CHIAO TUNG UNIVERSITY of Taiwan, Republic of China Device and method for expressing robot autonomous emotions
CN103268086A (zh) 2013-04-18 2013-08-28 塔米智能科技(北京)有限公司 一种集成了智能家居系统的机器人
DE202015102100U1 (de) 2015-04-28 2015-06-01 Dario Jandrijic Fernbedienung zur Fernsteuerung von elektronisch steuer- und regelbaren Funktionseinheiten in einem Hausautomationssystem
WO2016014597A2 (en) 2014-07-21 2016-01-28 Feele, A Partnership By Operation Of Law Translating emotions into electronic representations

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105409197A (zh) * 2013-03-15 2016-03-16 趣普科技公司 用于提供持久伙伴装置的设备和方法
US9769564B2 (en) * 2015-02-11 2017-09-19 Google Inc. Methods, systems, and media for ambient background noise modification based on mood and/or behavior information
CN105334743B (zh) * 2015-11-18 2018-10-26 深圳创维-Rgb电子有限公司 一种基于情感识别的智能家居控制方法及其系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038493A (en) 1996-09-26 2000-03-14 Interval Research Corporation Affect-based robot communication methods and systems
WO2007036818A1 (en) 2005-09-29 2007-04-05 Koninklijke Philips Electronics N.V. A remote control device and system
US20110144804A1 (en) 2009-12-16 2011-06-16 NATIONAL CHIAO TUNG UNIVERSITY of Taiwan, Republic of China Device and method for expressing robot autonomous emotions
CN103268086A (zh) 2013-04-18 2013-08-28 塔米智能科技(北京)有限公司 一种集成了智能家居系统的机器人
WO2016014597A2 (en) 2014-07-21 2016-01-28 Feele, A Partnership By Operation Of Law Translating emotions into electronic representations
DE202015102100U1 (de) 2015-04-28 2015-06-01 Dario Jandrijic Fernbedienung zur Fernsteuerung von elektronisch steuer- und regelbaren Funktionseinheiten in einem Hausautomationssystem

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018206941A1 (de) * 2018-05-04 2019-11-07 BSH Hausgeräte GmbH Haushalts-Assistent mit Interaktionseinheit
DE102020208346A1 (de) 2020-07-03 2022-01-05 BSH Hausgeräte GmbH System mit einer Geschirrspülmaschine und Verfahren zum Betreiben einer Geschirrspülmaschine
DE102021108765A1 (de) 2021-04-08 2022-10-13 Cariad Se Verfahren, Prozessorschaltung und Bediensystem zum kontextsensitiven Bereitstellen von Tutorials für ein Gerät

Also Published As

Publication number Publication date
WO2018041714A1 (de) 2018-03-08

Similar Documents

Publication Publication Date Title
DE60032619T2 (de) Benutzerschnittstelle mit sprachlichen aufforderungen und binären sensoren für ein unterhaltungselektronikgerät
DE69830295T2 (de) Steuerungsverfahren
WO2018041714A1 (de) Individuelle kommunikationsunterstützung
EP2972734A2 (de) Neue verwendungen von smartphones und vergleichbaren mobilen, digitalen endgeräten
Williamson et al. Child-directed action promotes 2-year-olds’ imitation
DE102015210879A1 (de) Vorrichtung zur Unterstützung eines Nutzers in einem Haushalt
DE112017006882T5 (de) Kontextabhängige, umgebungsbasierte nutzerschnittstelle
DE102013203676A1 (de) Haushaltsgerät mit einer Lichtquelle und Verfahren zum Betreiben eines Haushaltsgerätes
CN109922277A (zh) 视频制作模板的推荐方法及推荐装置
EP3470919B1 (de) Haushaltsassistent mit projektor
Edwards et al. The grammatical incorporation of demonstratives in an emerging tactile language
Schick Filmstil, Differenzqualitäten, Emotionen
CN113053492A (zh) 基于用户背景和情绪的自适应虚拟现实干预系统及方法
CN105099895B (zh) 聊天设备及其信息输出方法、聊天系统及其信息交互方法
WO2021004683A1 (de) Verfahren und bediensystem zum erfassen einer nutzereingabe für eine einrichtung eines fahrzeugs
DE102010016473B4 (de) Verfahren zum Anleiten, Anweisen und/oder Anlernen von Benutzern eines Gargeräts und Gargerät zur Durchführung solch eines Verfahrens
EP3291055A1 (de) Multimodale zustandsanzeige
Sparrow Fading light and sluggish flight: A two-dimensional model of consciousness in lucid dreams
Huber Emotion and decision making in transition research: a mixed methods approach
Zhang et al. Perceptual influence of auditory pitch on motion speed
Dixon Systemic thinking: A framework for research into complex psychosocial problems
Lake et al. Looking for Goldin: Can Adopting Student" Engagement Structures" Reveal Engagement Structures for Teachers? The Case of Adam.
DE102015117503A1 (de) Verfahren und Vorrichtung zur Erzeugung einer Audiodatei
DE10249060A1 (de) Dialogsteuerung für elektrisches Gerät
DE102011017305A1 (de) Bedien- und Beobachtungssystem für technische Anlagen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003000000

Ipc: G06F0003010000

R016 Response to examination communication