DE102016205925A1 - Verfahren und System zum Steuern einer Anwendungseinheit - Google Patents

Verfahren und System zum Steuern einer Anwendungseinheit Download PDF

Info

Publication number
DE102016205925A1
DE102016205925A1 DE102016205925.4A DE102016205925A DE102016205925A1 DE 102016205925 A1 DE102016205925 A1 DE 102016205925A1 DE 102016205925 A DE102016205925 A DE 102016205925A DE 102016205925 A1 DE102016205925 A1 DE 102016205925A1
Authority
DE
Germany
Prior art keywords
application unit
conversation
data
function
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016205925.4A
Other languages
English (en)
Inventor
Asisa Asseily
Andreas Blattner
Hannes Mögele
Stefan Mayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Volkswagen AG
Original Assignee
Audi AG
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG, Volkswagen AG filed Critical Audi AG
Priority to DE102016205925.4A priority Critical patent/DE102016205925A1/de
Publication of DE102016205925A1 publication Critical patent/DE102016205925A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Steuern einer Anwendungseinheit, insbesondere in einem Fahrzeug. Dabei werden Akustiksignale erfasst und es wird ein Beginn eines Gesprächs zwischen zwei Personen detektiert. Ferner werden anhand der Akustiksignale Gesprächsdaten eines Gesprächs bestimmt, wobei anhand der Gesprächsdaten eine Äußerung bestimmt wird. Anhand einer semantischen Analyse der Äußerung wird eine Funktion der Anwendungseinheit bestimmt und es wird in Abhängigkeit von der Funktion ein Steuersignal erzeugt und an die Anwendungseinheit übertragen. Die Erfindung betrifft ferner ein System zum Steuern einer Anwendungseinheit (5) mit einer Erfassungseinheit (1), durch die Akustiksignale erfassbar sind. Das System umfasst ferner eine Spracherkennungseinheit (2), durch die ein Beginn eines Gesprächs zwischen zwei Personen detektierbar ist, anhand der Akustiksignale Gesprächsdaten eines Gesprächs bestimmbar sind und anhand der Gesprächsdaten eine Äußerung bestimmbar ist. Durch eine Zuordnungseinheit (3) ist zudem anhand einer semantischen Analyse der Äußerung eine Funktion der Anwendungseinheit (5) bestimmbar und durch eine Steuereinheit (4) ist in Abhängigkeit von der bestimmten Funktion ein Steuersignal erzeugbar und an die Anwendungseinheit (5) übertragbar.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und ein System zum Steuern einer Anwendungseinheit, insbesondere in einem Fahrzeug.
  • Die Integration elektronisch steuerbarer Einrichtungen in den modernen Alltag bringt hohe Ansprüche an die Gestaltung von Bedien- und Eingabemöglichkeiten mit sich. Klassische Konzepte wie Regler, Tastaturen, Zeigegeräte oder graphische Bedienoberflächen in Verbindung mit Touchscreens haben typischerweise den Nachteil, dass physische Bedienelemente einen teils erheblichen Bauraum erfordern und dass ein Nutzer seine Aufmerksamkeit, vor allem seine Blickrichtung, für eine bestimmte Zeit auf die Bedienelemente richten muss. Beispielsweise erfordern komplexe Bedienoberflächen die Verwendung großflächiger Anzeigeflächen, etwa bei Mobiltelefonen oder im Innenraum von Fahrzeugen und sind oft nicht ausreichend schnell erfassbar.
  • Aus diesem Grund etablieren sich zunehmend Spracherkennungssysteme als alternatives Bedienkonzept für ein breites Anwendungsspektrum von Bediensystemen. Dies betrifft gleichermaßen die Bedienung von Geräten sowie die Erledigung fernmündlicher Aufgaben mittels Sprachcomputer, beispielsweise Telefon-Banking. Auch hat sich die Bedienung von Einrichtungen in Fahrzeugen über Spracheingaben als wesentliches Merkmal aktueller Benutzerschnittstellen im Fahrzeug etabliert. Beispielsweise werden zur Eingabe komplexer Sachverhalte entsprechende Informationen durch ein Sprachdialogsystem sequentiell vom Nutzer abgefragt, längere Texte können diktiert werden.
  • Bei dem in der WO 2014/197730 A1 beschriebenen Verfahren wird ein elektronischer Assistent bereitgestellt, den der Nutzer mittels einer Sprachsteuerung steuern kann. Dabei kann der Assistent etwa aufgefordert werden, eine Textnachricht vorzulesen, oder es kann der Text einer neuen Nachricht eingegeben werden.
  • Die DE 10 2012 218 934 A1 beschreibt eine sprachbasierte Nutzerschnittstelle für eine Mobilvorrichtung, bei der eine Spracheingabe eines Nutzers empfangen und mittels eines Clouddienstes beantwortet wird. Insbesondere wird dabei ein Freihanddienst bereitgestellt, der eine vollständige Bedienung mittels Sprachsteuerung erlaubt.
  • Die US 2014/0330769 A1 schlägt ein System vor, bei dem eine Intention eines Nutzers vorhergesagt und basierend auf dieser Vorhersage eine entsprechende Anfrage verarbeitet wird. Dabei werden verschiedene Faktoren, wie etwa die aktuelle Position des Nutzers, Kalendereinträge und frühere Interaktionen, zur Vorhersage genutzt. Anhand der Vorhersage wird dem Nutzer eine Suchanfrage oder andere Aktion vorgeschlagen, die dieser akzeptieren kann und die anschließend ausgeführt wird.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren und ein System zum Steuern einer Anwendungseinheit bereitzustellen, die eine besonders einfache und bequeme Bedienung mittels einer Sprachsteuerung erlauben.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 und ein System mit den Merkmalen des Anspruchs 9 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
  • Bei dem erfindungsgemäßen Verfahren werden Akustiksignale erfasst und es wird ein Beginn eines Gesprächs zwischen zwei Personen detektiert. Anhand der Akustiksignale werden akustische Gesprächsdaten eines Gesprächs bestimmt und es wird anhand der Gesprächsdaten eine Äußerung bestimmt. Anhand einer semantischen Analyse der Äußerung wird eine Funktion der Anwendungseinheit bestimmt und in Abhängigkeit von der Funktion wird ein Steuersignal erzeugt und an die Anwendungseinheit übertragen.
  • Dadurch kann vorteilhafterweise eine Sprachsteuerung mit einer „Zuhörfunktion“ implementiert werden. So kann flexibel und schnell auf die Bedürfnisse eines Nutzers reagiert werden, ohne dass dieser dafür gesonderte Bedienschritte vornehmen muss.
  • Bei dem Verfahren wird anhand von erfassten Akustiksignalen ein Gespräch erkannt und dessen Inhalt ausgewertet. Als „Gespräch“ wird dabei ein Vorgang der mündlichen Kommunikation bezeichnet, die direkt oder mittels einer Fernsprecheinrichtung erfolgen kann. Insbesondere werden zumindest zwei Gesprächspartner vorausgesetzt, die Äußerungen tätigen, welche sich aufeinander beziehen können.
  • Zur Erkennung des Gesprächs anhand der detektierten Akustiksignale können an sich bekannte Verfahren verwendet werden, wobei zunächst der Beginn des Gesprächs erkannt wird. Dies kann auch eine Erkennung eines Teils eines Gesprächs umfassen, wobei als Beginn der Anfang eines Abschnitts des Gesprächs betrachtet werden kann.
  • Es werden nun Gesprächsdaten bestimmt, die über die reinen Akustiksignale hinausgehende Informationen umfassen. Beispielsweise kann dabei eine Sprecherseparation durchgeführt werden, wobei der Sprecher einer Äußerung identifiziert werden kann. Ferner können die Beiträge verschiedener Beteiligter an dem Gespräch separiert werden. Zudem können weitere Daten zum Kontext des Gesprächs, etwa Daten über die Identität der Beteiligten, Datum und Uhrzeit sowie Daten über die Umgebung von den Gesprächsdaten umfasst sein.
  • Dies erlaubt im nächsten Schritt, einzelne Äußerungen zu bestimmen. Dies kann ein in sich geschlossener Gesprächsbeitrag eines Beteiligten sein oder es kann ein anderer Ausschnitt des Gesprächs sein. Dabei können ferner Bezüge zwischen mehreren Gesprächsbeiträgen berücksichtigt werden, etwa Fragen und Antworten von jeweils verschiedenen Personen.
  • Die semantische Analyse schließlich erschließt das mit der Äußerung Gemeinte und erlaubt so die Bestimmung der relevanten Funktion der Anwendungseinheit.
  • Als Anwendungseinheit im Sinne der Erfindung kann jede Einrichtung vorgesehen sein, die nicht vollautomatisch gesteuert sondern bedienbar ist. Beispielweise kann dies ein Mobiltelefon, ein Rechner oder eine Einrichtung eines Fahrzeugs sein. Beispielsweise kann eine Wärmeverteilung mit Klimazonen für einen Fahrzeuginnenraum, ein Infotainment-System, ein Navigationsgerät oder ein weiteres System des Fahrzeugs gesteuert werden. Die bei dem Verfahren bestimmte Funktion der Anwendungseinheit ist dabei allgemein als von einer Funktionssteuerung ausführbarer Vorgang zu interpretieren. Insbesondere kann dabei ein Steuerparameter für die Funktion bestimmt werden, der die Ausführung der Funktion näher bestimmt.
  • Beispielsweise kann mittels des erfindungsgemäßen Verfahrens erkannt werden, wenn sich zwei Personen im Laufe eines Telefongesprächs miteinander verabreden und es kann automatisch ein Eintrag in einem elektronischen Terminkalender durchgeführt oder vorbereitet werden. Ferner können automatisch andere relevante Funktionen ausgeführt werden, etwa um zu überprüfen, wie lang die Fahrt dauern wird und ob der Energievorrat eines Fahrzeugs ausreicht, um den Zielort für den neu erzeugten Termin pünktlich zu erreichen. Dabei werden insbesondere proaktive, vorausschauende Vorschläge gemacht, die nicht auf explizit in dem Gespräch ausgesprochenen Anweisungen beruhen, sondern anhand der semantischen Analyse mit der Äußerung innerhalb des Gesprächs inhaltlich in Verbindung stehen.
  • Bei einer Ausbildung des erfindungsgemäßen Verfahrens werden die Akustiksignale fortlaufend erfasst. Dadurch wird vorteilhafterweise ein fortlaufendes „Zuhören“ implementiert.
  • Insbesondere kann die Sprachsteuerung nach dem erfindungsgemäßen Verfahren durchgeführt werden, ohne dass der Sprecher sich direkt an das System wenden muss, wie dies bei bekannten Systemen vorausgesetzt wird. Statt dessen kann ein natürliches Gespräch mit einer weiteren Person geführt werden und es wird automatisch erkannt, welche Aufgaben sich daraus für die Anwendungseinheit ergeben.
  • Insbesondere ist dabei keine Betätigung eines Bedienelements nötig, um die Sprachsteuerung zu aktivieren, wie dies etwa bei einem Push-to-Talk-Schalter notwendig ist. Ferner kann auf die Verwendung von Schlüsselbegriffen verzichtet werden, die typischerweise verwendet werden, um den Beginn einer Eingabe eines Befehls per Sprachsteuerung zu erkennen.
  • Bei einer weiteren Ausbildung werden die Gesprächsdaten ferner anhand von Daten einer Kommunikationseinrichtung erfasst. Dies erlaubt vorteilhafterweise die Auswertung von Daten etwa eines Telefongesprächs und eine besonders einfache Erkennung der Tatsache, dass ein Gespräch geführt wird.
  • Es ist nämlich bei einer Kommunikationseinrichtung, die für den Zweck der fernmündlichen oder mündlichen Kommunikation zwischen Personen typischerweise klar definiert, wann ein Gespräch vermittelt wird. Beispielsweise wird bei einem Telefon das Gespräch initiiert oder angenommen, wobei der Nutzer zu verstehen gibt, dass nun ein Gespräch beginnen wird. Umgekehrt entspricht der Zeitpunkt des Unterbrechens der Verbindung einem klar definierten Zeitpunkt für das Ende des Gesprächs. Während die Sprachverbindung besteht, können anhand der mittels des Telefons übertragenen Akustiksignale besonders leicht die Gesprächsdaten und die einzelnen Äußerungen der am Gespräch beteiligten Personen bestimmt werden.
  • Bei einer Ausgestaltung werden die Gesprächsdaten mittels einer Analyse der Akustiksignale bestimmt. Dies erlaubt vorteilhafterweise die Nutzung an sich bekannter Verfahren zur Bestimmung des Gesprächsbeginns oder der Gesprächsdaten.
  • Beispielweise können die mit den Akustiksignalen erfassten Frequenzen analysiert werden. Ferner können mehrere Mikrofone, die zur Erfassung der Akustiksignale etwa im Innenraum eines Fahrzeugs verteilt sind, Rückschlüsse über das erfasste Gespräch erlauben. Beispielsweise können Daten über die beteiligten Personen bestimmt werden.
  • Bei einer Ausgestaltung kann in Abhängigkeit von dem Steuersignal eine Informationsausgabe erzeugt und ausgegeben werden. Dadurch kann ein Nutzer vorteilhafterweise über die Ergebnisse der Sprachsteuerung informiert werden.
  • Die Informationsausgabe kann auf verschiedene, an sich bekannte Weise erfolgen, etwa durch eine Anzeige auf einem Bildschirm oder einer Sichtfeldanzeige. Beispielsweise kann in einem Fahrzeug ein Head-up-Display, ein Kombiinstrument oder eine Mitteldisplay verwendet werden, um eine visuell wahrnehmbare Informationsausgabe zu auszugeben. Ferner können allgemein auch bei anderen Einrichtungen Bildschirmanzeigen verwendet werden, etwa bei einem Mobiltelefon oder einem Rechner.
  • Ferner kann alternativ oder zusätzlich eine akustisch wahrnehmbare Informationsausgabe erfolgen, etwa mittels eines Signaltons oder einer Sprachausgabe. Insbesondere kann ein Dialogsystem verwendet werden, bei dem das System sprachliche Eingaben erfasst und Ausgaben in Form gesprochener Sprache erzeugt.
  • Bei einer Weiterbildung wird in Abhängigkeit von dem Steuersignal eine Anfrage ausgegeben und eine Bedienhandlung erfasst und die Funktion wird in Abhängigkeit von der Bedienhandlung ausgeführt. Dadurch kann vorteilhafterweise sichergestellt werden, dass der Nutzer kontrollierend und nachsteuernd in die Sprachsteuerung eingreifen kann.
  • Die Ausgabe der Anfrage kann auf verschiedene, an sich bekannte Weise ausgegeben werden und es kann eine Eingabe des Nutzers, insbesondere eine Bestätigung oder Ablehnung, erfasst werden. Beispielsweise kann das Steuersignal so erzeugt werden, dass zunächst eine Anfrage an den Nutzer ausgegeben wird, ob die Funktion der Anwendungseinheit ausgeführt werden soll. Ferner können weitere Eingaben des Nutzers, etwa weitere Präzisierungen oder Parameter der Funktion, abgefragt werden.
  • Insbesondere kann vorgesehen sein, dass die Anfrage bei bestimmten Funktionen ausgegeben wird, um eine automatische Ausführung bestimmter Funktionen, etwa mit einer höheren Fehlertoleranz zu ermöglichen, während andere kritische Funktionen nur nach Beantwortung einer Anfrage durch den Nutzer ausgeführt werden. Ferner kann ein Schwellenwert für die Erkennungssicherheit der Sprachsteuerung festgelegt werden und es kann eine Anfrage ausgegeben werden, wenn nicht sicher genug erkannt wurde, ob oder mit welchen Parametern eine Funktion der Anwendungseinheit ausgeführt werden soll.
  • Bei einer Ausbildung wird den erfassten Sprachdaten ein Nutzerprofil zugeordnet. Die Sprachsteuerung kann so vorteilhafterweise besser individuell angepasst werden.
  • Beispielweise können die an einem Gespräch beteiligten Personen erkannt werden und es können weitere Daten über die Personen erfasst werden. Beispielweise können Sprachprofile erfasst werden, etwa um die Spracherkennung und/oder semantische Analyse mit höherer Zuverlässigkeit durchführen zu können. Ferner können weitere Daten verwendet werden, um die Sprachsteuerung zu verbessern. Dabei können einer Person auch mehrere Profile zugeordnet sein, etwa für verschiedene Rollen, zum Beispiel als Fahrer und Passagier, oder für verschiedene Kontexte, etwa beruflich und privat.
  • Insbesondere kann vorgesehen sein, dass einzelnen Personen bestimmte Rechte bei der Bedienung der Anwendungseinheit zugeordnet sind. Zum Beispiel können bestimmte Funktionen nur anhand der Äußerungen bestimmter Personen ausgeführt werden, etwa Einträge in einem Kalender einer Person nur anhand einer Äußerung der jeweiligen Person oder Änderungen eines Navigationsziels nur anhand einer Äußerung des Fahrers.
  • Bei einer weiteren Ausbildung werden durch die Anwendungseinheit anhand des Steuersignals Nutzerdaten verändert und gespeichert. Dadurch können vorteilhafterweise Eingaben eines Nutzers anhand des Gesprächs erkannt und ausgewertet werden.
  • Beispielsweise kann ein Eintrag für einen elektronischen Kalender erstellt oder verändert werden. Ferner können beispielsweise Notizen bearbeitet werden. Zudem kann anhand der Sprachsteuerung eine Textnachricht erzeugt werden, beispielsweise eine Benachrichtigung an einen Adressaten, wobei bei einer solchen Funktion ein Benachrichtigungstext anhand der semantischen Analyse erzeugt werden kann, beispielsweise eine Zu- oder Absage für einen Termin. Dabei können ferner auch die bereits bestehenden Nutzerdaten berücksichtigt werden, etwa indem Terminkollisionen berücksichtigt werden.
  • Bei einer Weiterbildung wird die Funktion der Anwendungseinheit ferner anhand von Nutzerdaten und/oder Umgebungsdaten bestimmt. Dadurch kann die Bestimmung der Funktion in vorteilhafter Weise besonders zuverlässig erfolgen.
  • Diese Daten können dabei von verschiedenen Quellen erfasst werden, etwa durch eine Speichereinheit der Anwendungseinheit selbst, beispielsweise eines Mobiltelefons, eines Rechners oder eines Fahrzeugs. Ferner können die Daten von anderen Quellen über eine zumindest zeitweise bestehende datentechnische Verbindung erfasst werden.
  • Die Nutzerdaten sind dabei insbesondere einer bestimmten Funktion zugeordnete Daten, etwa persönliche Daten, Termine oder eine Position des Nutzers. Dabei können insbesondere die aktuelle, vergangene und/oder geplante Positionen berücksichtigt werden. Ferner können die Nutzerdaten im weiteren Sinne auch die Anwendungseinheit oder mit dieser in Verbindung stehende Einrichtungen, etwa eines Fahrzeugs, betreffen. Bei einem Fahrzeug kann berücksichtigt werden, um welchen Fahrzeugtyp und welches Fahrzeug es sich handelt sowie über welchen Energievorrat das Fahrzeug verfügt. Ferner können persönliche Nutzerdaten und weitere Daten in Verbindung zueinander stehen, etwa wenn eine Sitzplatzbelegung ermittelt wird und persönliche Daten der Personen auf den Sitzen des Fahrzeugs erfasst werden. Ferner kann ein Fahrerzustand ermittelt werden und/oder es können von weiteren Sensoren des Fahrzeugs erfasste Daten genutzt werden.
  • Die Funktion kann insbesondere anhand eines Kontextes bestimmt und ausgeführt werden, wobei der Kontext selbst anhand der genannten Daten bestimmt wird. Insbesondere werden hierbei auch die Umgebungsdaten berücksichtigt, die beispielsweise geographische Informationen über die Umgebung umfassen können. Dabei können etwa einer Position zugeordnete Daten über Parkplätze oder eine Verkehrslage berücksichtigt werden. Ferner können Daten erfasst werden, die von anderen Systemen in der Umgebung erfasst wurden, beispielweise sogenannte Schwarmdaten anderer Fahrzeuge, wobei eine Vielzahl von Fahrzeugen datentechnisch miteinander verbunden ist und relevante Daten ausgetauscht werden können. Ferner können beispielsweise Daten über das Wetter oder weitere klimatische Bedingungen in der Umgebung zum aktuellen oder einem anderen Zeitpunkt berücksichtigt werden.
  • Bei einer Ausbildung werden ferner Daten über vergangene Nutzerinteraktionen erfasst und die Funktion der Anwendungseinheit wird ferner anhand der vergangenen Nutzerinteraktionen bestimmt. Dies erlaubt vorteilhafterweise die Implementierung einer Lernfunktion.
  • Beispielsweise kann auf diese Weise bestimmt werden, zu welchen Zeiten bestimmte Funktionen typischerweise relevant sind, beispielsweise wegen regelmäßiger Fahrzeiten und/oder Fahrziele eines Fahrzeugs. Ferner können besonders häufig genutzte Funktionen bestimmt werden, deren Bedienung etwa mit einer höheren Sicherheit angenommen werden kann als bei anderen Funktionen. Ferner kann, insbesondere in einem Fahrzeug, etwa ein von einem Nutzer bevorzugtes Klimaprofil oder eine andere Einstellung einer steuerbaren Einrichtung bestimmt werden.
  • Das erfindungsgemäße System zum Steuern einer Anwendungseinheit umfasst eine Erfassungseinheit, durch die Akustikdaten erfassbar sind, sowie eine Spracherkennungseinheit, durch die ein Beginn eines Gesprächs zwischen zwei Personen detektierbar ist. Ferner sind anhand der Akustiksignale Gesprächsdaten eines Gesprächs bestimmbar und es ist anhand der Gesprächsdaten eine Äußerung bestimmbar. Das System umfasst ferner eine Zuordnungseinheit, durch die anhand einer semantischen Analyse der Äußerung eine Funktion der Anwendungseinheit bestimmbar ist, sowie eine Steuereinheit, durch die in Abhängigkeit von der bestimmten Funktion ein Steuersignal erzeugbar und an die Anwendungseinheit übertragbar ist.
  • Das erfindungsgemäße System ist insbesondere ausgebildet, das vorstehend beschriebene erfindungsgemäße Verfahren zu implementieren. Das System weist somit dieselben Vorteile auf wie das erfindungsgemäße Verfahren.
  • Bei einer Ausbildung des erfindungsgemäßen Systems ist in Abhängigkeit von dem Steuersignal eine Informationsausgabe erzeugbar und die Informationsausgabe ist anhand einer Sichtfeldanzeige ausgebbar.
  • Dadurch kann vorteilhafterweise eine Informationsausgabe erfolgen, die dem Nutzer eine Rückmeldung über das Verhalten des Systems gibt. Insbesondere kann dabei eine Sichtfeldanzeige genutzt werden, bei der die Informationsausgabe, etwa in Form einer Anzeige, in das Sichtfeld des Nutzers projiziert wird. Der Nutzer muss daher den Blick nicht auf eine bestimmte Anzeigefläche richten und dazu von dem aktuellen Zentrum seiner Aufmerksamkeit abwenden. Dies ist in Fahrzeugen von besonderem Vorteil, da auf diese Weise weniger Aufmerksamkeit eines Nutzers, insbesondere des Fahrers des Fahrzeugs, beansprucht wird.
  • In anderen Ausbildungen des Systems kann alternativ oder zusätzlich eine andere Einrichtung genutzt werden, um die Informationsausgabe auszugeben, etwa ein Display. Ferner kann eine akustisch wahrnehmbare Ausgabe erfolgen.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
  • 1 zeigt ein Fahrzeug mit einem Ausführungsbeispiel des erfindungsgemäßen Systems und
  • 2A und 2B zeigen Beispiele von Anzeigen, die mittels eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens erzeugt wurden.
  • Mit Bezug zu 1 wird ein Fahrzeug mit einem Ausführungsbeispiel des erfindungsgemäßen Systems erläutert.
  • Ein Fahrzeug 6 umfasst eine Erfassungseinheit 1, die mit einer Steuereinheit 4 gekoppelt ist. Die Steuereinheit 4 umfasst eine Spracherkennungseinheit 2 sowie eine Zuordnungseinheit 3. Ferner sind mit der Steuereinheit 4 eine Sichtfeldanzeige 7, im dargestellten Fall ein Head-up-Display 7, und eine Anwendungseinheit 5, im dargestellten Fall ein elektronischer Kalender 5, gekoppelt.
  • Mit Bezug zu 1 wird ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens erläutert. Es wird dabei von dem oben mit Bezug zu 1 beschriebenen System ausgegangen.
  • Das Fahrzeug 6 ist in dem Ausführungsbeispiel mit einem Fahrer besetzt. Dieser führt ein Telefonat mit einer weiteren Person, wobei das Gespräch über ein mit der Erfassungseinheit 1 gekoppeltes Telefon erfolgt. Durch die Erfassungseinheit 1 werden in dem Ausführungsbeispiel fortlaufend Akustiksignale erfasst. Ferner wird mit Beginn des Telefonats der Beginn eines Gesprächs zwischen dem Fahrer und der weiteren Person detektiert.
  • In einem weiteren Ausführungsbeispiel beginnt die Erfassung von Akustiksignalen erst, wenn eine Gesprächsverbindung über das Telefon hergestellt wurde.
  • Anhand der erfassten Akustiksignale werden Gesprächsdaten des Gesprächs bestimmt. Dabei wird insbesondere eine Vorverarbeitung der erfassten Akustiksignale durchgeführt, wobei die von dem Fahrer und der weiteren Person gesprochene Sprache von anderen erfassten Akustiksignalen getrennt wird. Insbesondere kann die Bestimmung der Gesprächsdaten anhand einer Analyse der Akustiksignale erfolgen.
  • Anhand der Gesprächsdaten wird zumindest eine Äußerung bestimmt. Als Äußerung kann beispielsweise ein von dem Fahrer oder der weiteren Person gesprochener Satz bestimmt werden. Ferner kann eine Äußerung einen längeren oder kürzeren Ausschnitt des Gesprächs umfassen. Die Äußerung kann sich auf eine Person beschränken oder auch einen größeren Zusammenhang innerhalb des Gesprächs umfassen.
  • Durch die Zuordnungseinheit 3 wird nun eine semantische Analyse der bestimmten Äußerung durchgeführt und es wird eine Funktion der Anwendungseinheit 5 bestimmt. In dem dargestellten Beispiel ist die Anwendungseinheit 5 ein elektronischer Kalender 5 und die bestimmte Funktion ist der Eintrag eines Termins.
  • In weiteren Ausführungsbeispielen sind weitere Anwendungseinheiten 5 vorgesehen und es wird eine Funktion einer der Anwendungseinheiten 5 bestimmt oder es werden mehrere Funktionen für mehrere der Anwendungseinheiten 5 bestimmt.
  • Schließlich wird durch eine Steuereinheit 4 in Abhängigkeit von der bestimmten Funktion ein Steuersignal erzeugt. Dieses wird an die Anwendungseinheit 5 übertragen. Ferner wird in den Ausführungsbeispielen eine Informationsausgabe erzeugt und an die Sichtfeldanzeige 7 übertragen und dort ausgegeben. Die Informationsanzeige umfasst dabei eine Textmeldung, die den Nutzer über die bestimmte Funktion informiert.
  • In einem weiteren Ausführungsbeispiel befinden sich mehrere Personen im Fahrzeug 6, insbesondere ein Fahrer und ein Beifahrer. In einem solchen Ausführungsbeispiel erfasst die Erfassungseinheit 1 fortlaufend Akustiksignale, wobei ein Gespräch zwischen dem Fahrer und dem Beifahrer erfasst wird. Es erfolgt eine Detektion des Beginns eines Gesprächs, wobei der Beginn auch den Anfang eines Teils eines längeren Gesprächs darstellen kann.
  • In einem weiteren Ausführungsbeispiel wird das erfindungsgemäße Verfahren nur dann ausgeführt, wenn eine solche Funktion durch ein Einstellmenü des Fahrzeugs 6 aktiviert wurde. Umgekehrt kann eine Deaktivierung des Systems vorgesehen sein. In weiteren Ausführungsbeispielen können Bedienelemente vorgesehen sein, durch die eine Aktivierung oder Deaktivierung des Verfahrens schnell vorgenommen werden kann.
  • In einem weiteren Ausführungsbeispiel wird das erfindungsgemäße Verfahren nicht in einem Fahrzeug 6 implementiert, sondern in einem Mobiltelefon oder Rechner. Auch hier kann insbesondere vorgesehen sein, dass während eines Gesprächs mittels einer Kommunikationseinrichtung das erfindungsgemäße Verfahren durchgeführt wird und eine Sprachsteuerung anhand der erfassten Akustiksignale vorgenommen wird.
  • Mit Bezug zu den 2A und 2B werden Beispiele von mit dem erfindungsgemäßen Verfahren erzeugten Anzeigen erläutert. Es wird dabei von dem oben mit Bezug zu 1 beschriebenen System ausgegangen.
  • In dem Ausführungsbeispiel führt der Fahrer mit der weiteren Person ein Gespräch der folgenden Art:
    • – „Hallo! Wie war dein Tag? ...“
    • – „... Wollen wir morgen früh um 8 Uhr zum Tegernsee?“
    • – „Das Wetter soll gut werden. Super Idee!“
  • Hierbei verabreden sich also der Fahrer und die weitere Person während des Telefongesprächs für den nächsten Tag um 8 Uhr am Tegernsee. Mittels der semantischen Analyse wird erkannt, dass die relevante Anwendungseinheit 5 der elektronische Kalender 5 ist, in den ein entsprechender Termin aufgenommen werden kann. Ferner ist anhand des Gesprächs bekannt, dass voraussichtlich am nächsten Tag eine Fahrt zum Tegernsee unternommen werden soll. Es können also auch die Voraussetzungen der Fahrt, insbesondere der Ladezustand des Energiespeichers, geprüft werden und/oder es kann eine relevante Wettervorhersage erfasst und ausgegeben werden.
  • Die Steuereinheit 4 erzeugt ein Steuersignal, durch welches der Termin in den elektronischen Kalender 5 als Termineintrag aufgenommen wird. Dies kann automatisch erfolgen oder es kann zunächst eine Anfrage an den Nutzer erfolgen, etwa um sicherzustellen, dass der Termin richtig erkannt wurde. In diesem Fall erfolgt der Eintrag nach einer Bestätigung des Nutzers. Ferner kann vorgesehen sein, dass anhand einer Anfrage von dem Nutzer weitere Informationen erfasst werden, beispielsweise eine genauere Ortsangabe.
  • Die hier beispielhaft dargestellten Anzeigen werden in dem Ausführungsbeispiel in dem Head-up-Display 7 dargestellt. Die Anzeige umfasst eine Geschwindigkeitsanzeige 24, wobei in dem dargestellten Fall die Geschwindigkeit als Zahlenwert ausgegeben wird. Sie umfasst ferner eine Ladezustandsanzeige 23, die einen Energievorrat eines Speichers für elektrische Energie angibt. Alternativ oder zusätzlich kann ein Treibstoffinhalt eines Tanks dargestellt werden. Die Ladezustandsanzeige 23 erfolgt in dem Beispiel auf an sich bekannte Weise anhand einer Balkendarstellung.
  • Ferner wird eine Textmeldung 21 ausgegeben, neben der ein Symbol 22 angezeigt wird. Durch das Symbol 22, in den Beispielen ein Kalendersymbol bzw. ein Ladestationensymbol, wird dem Nutzer signalisiert, welche Funktion die daneben stehende Textmeldung 21 betrifft.
  • In dem in 2A dargestellten Fall wurde anhand des Gesprächs wie oben erläutert ein Kalendereintrag vorgenommen. Die Textmeldung 21 ist in 2A durch einen Platzhalter symbolisiert und lautet in diesem Beispiel: „Ich mache einen Kalendereintrag für 8:00 Uhr zum Tegernsee.“ Der Nutzer kann daraus erkennen, dass das System automatisch einen neuen Kalendereintrag für den nächsten Tag um 8 Uhr mit dem Ziel „Tegernsee“ angelegt hat.
  • In weiteren Ausführungsbeispielen wird der Kalendereintrag nicht automatisch angelegt, sondern es wird eine Anfrage ausgegeben, wobei der Nutzer den Termin zunächst bestätigen muss, bevor dieser in den Kalender eingetragen wird.
  • In dem in 2B dargestellten Fall werden eine Geschwindigkeitsanzeige 24 und eine Ladezustandsanzeige 23 wie oben beschrieben angezeigt. Hier wird allerdings das Symbol 22 als Ladestationensymbol dargestellt, um dem Nutzer zu signalisieren, dass die Textmeldung 21 den Ladezustand des Fahrzeugs 6 beziehungsweise die Möglichkeiten zur Verwaltung des Ladezustands betrifft. Die Textmeldung 21 ist in 2B durch einen Platzhalter symbolisiert und lautet in diesem Fall: „Zu wenige Ladung für den Trip morgen. Am aktuellen Ziel sind zwei Ladestationen.“ Dem Nutzer wird dadurch signalisiert, dass er am Zielort der aktuellen Navigation den Ladezustand des Fahrzeugs 6 erhöhen kann, wobei dies zur Durchführung der für den nächsten Tag geplanten Fahrt notwendig ist.
  • Insbesondere können die Anzeigen der 2A und 2B in kurzem zeitlichen Abstand nacheinander angezeigt werden, wobei zunächst die für den nächsten Tag geplante Fahrt mit dem Termin ausgegeben wird und anschließend das Ergebnis einer Überprüfung des Ladezustands des Fahrzeugs 6 angezeigt wird.
  • In einem weiteren Ausführungsbeispiel kann ferner eine weitere mit dem Gespräch in Verbindung stehende Funktion ausgeführt werden, beispielsweise kann eine Anfrage ausgegeben werden, ob eine Ladestation am Zielort reserviert werden soll.
  • In weiteren Ausführungsbeispielen werden andere Anzeigen des Fahrzeugs 6 zur Ausgabe der Informationsanzeigen genutzt. Dies kann alternativ oder zusätzlich zu dem Head-up-Display 7 erfolgen. Beispielsweise kann die Anzeige durch ein Mittel-Display des Fahrzeugs 6 ausgegeben werden, insbesondere mit einem Touch-Screen, wobei eine Nutzereingabe auf eine Anfrage hin direkt beantwortet werden kann, etwa anhand einer dargestellten Schaltfläche.
  • In einem weiteren Ausführungsbeispiel wird die Funktion ferner anhand von Nutzerdaten und Umgebungsdaten des Fahrzeugs 6 bestimmt. Beispielsweise wird dabei die aktuelle Position des Fahrzeugs 6 bestimmt und es wird ein Nutzerprofil der an dem Gespräch beteiligten Personen verwendet. Beispielsweise können persönliche Daten über den Fahrer und/oder die weitere Person bei dem Telefongespräch bekannt sein, etwa um eine Plausibilitätsprüfung bei der semantischen Analyse der Äußerungen durchführen zu können.
  • In einem weiteren Ausführungsbeispiel ist eine Lernfunktion vorgesehen, bei der die Funktion der Anwendungseinheit 5 ferner anhand vergangener Nutzerinteraktionen bestimmt wird. Beispielsweise wird hierbei berücksichtigt, ob bestimmte Fahrziele regelmäßig angefahren werden. Es können in diesem Fall weitere Empfehlungen anhand der erfassten Äußerungen erzeugt werden.
  • Bezugszeichenliste
  • 1
    Erfassungseinheit
    2
    Spracherkennungseinheit
    3
    Zuordnungseinheit
    4
    Steuereinheit
    5
    Anwendungseinheit; elektronischer Kalender
    6
    Fahrzeug
    7
    Sichtfeldanzeige; Head-up-Display
    21
    Textmeldung
    22
    Symbol
    23
    Ladezustandsanzeige
    24
    Geschwindigkeitsanzeige
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2014/197730 A1 [0004]
    • DE 102012218934 A1 [0005]
    • US 2014/0330769 A1 [0006]

Claims (10)

  1. Verfahren zum Steuern einer Anwendungseinheit (5), wobei Akustiksignale erfasst werden, ein Beginn eines Gesprächs zwischen zwei Personen detektiert wird, anhand der Akustiksignale Gesprächsdaten eines Gesprächs bestimmt werden, wobei anhand der Gesprächsdaten eine Äußerung bestimmt wird, anhand einer semantischen Analyse der Äußerung eine Funktion der Anwendungseinheit bestimmt wird und in Abhängigkeit von der Funktion ein Steuersignal erzeugt und an die Anwendungseinheit übertragen wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Akustiksignale fortlaufend erfasst werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Gesprächsdaten ferner anhand von Daten einer Kommunikationseinrichtung erfasst werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Gesprächsdaten mittels einer Analyse der Akustiksignale bestimmt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von dem Steuersignal eine Anfrage ausgegeben und eine Bedienhandlung erfasst wird und die Funktion in Abhängigkeit von der Bedienhandlung ausgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch die Anwendungseinheit (5) anhand des Steuersignals Nutzerdaten verändert und gespeichert werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Funktion der Anwendungseinheit (5) ferner anhand von Nutzerdaten und/oder Umgebungsdaten bestimmt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ferner Daten über vergangene Nutzerinteraktionen erfasst werden und die Funktion der Anwendungseinheit (5) ferner anhand der vergangenen Nutzerinteraktionen bestimmt wird.
  9. System zum Steuern einer Anwendungseinheit (5), mit einer Erfassungseinheit (1), durch die Akustiksignale erfassbar sind; einer Spracherkennungseinheit (2), durch die ein Beginn eines Gesprächs zwischen zwei Personen detektierbar ist, anhand der Akustiksignale Gesprächsdaten eines Gesprächs bestimmbar sind und anhand der Gesprächsdaten eine Äußerung bestimmbar ist; einer Zuordnungseinheit (3), durch die anhand einer semantischen Analyse der Äußerung eine Funktion der Anwendungseinheit (5) bestimmbar ist; und einer Steuereinheit (4), durch die in Abhängigkeit von der bestimmten Funktion ein Steuersignal erzeugbar und an die Anwendungseinheit (5) übertragbar ist.
  10. System nach Anspruch 9, dadurch gekennzeichnet, dass in Abhängigkeit von dem Steuersignal eine Informationsausgabe erzeugbar ist und die Informationsausgabe anhand einer Sichtfeldanzeige (7) ausgebbar ist.
DE102016205925.4A 2016-04-08 2016-04-08 Verfahren und System zum Steuern einer Anwendungseinheit Pending DE102016205925A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016205925.4A DE102016205925A1 (de) 2016-04-08 2016-04-08 Verfahren und System zum Steuern einer Anwendungseinheit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016205925.4A DE102016205925A1 (de) 2016-04-08 2016-04-08 Verfahren und System zum Steuern einer Anwendungseinheit

Publications (1)

Publication Number Publication Date
DE102016205925A1 true DE102016205925A1 (de) 2017-10-12

Family

ID=59929720

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016205925.4A Pending DE102016205925A1 (de) 2016-04-08 2016-04-08 Verfahren und System zum Steuern einer Anwendungseinheit

Country Status (1)

Country Link
DE (1) DE102016205925A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110035220A1 (en) * 2009-08-05 2011-02-10 Verizon Patent And Licensing Inc. Automated communication integrator
US20130080167A1 (en) * 2011-09-27 2013-03-28 Sensory, Incorporated Background Speech Recognition Assistant Using Speaker Verification
DE102012218934A1 (de) 2011-10-18 2013-04-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Sprachbasierte Nutzerschnittstelle für eine Mobilvorrichtung
US20140330769A1 (en) 2012-05-08 2014-11-06 24/7 Customer, Inc. Predictive 411
WO2014197730A1 (en) 2013-06-08 2014-12-11 Apple Inc. Application gateway for providing different user interfaces for limited distraction and non-limited distraction contexts
US20150179168A1 (en) * 2013-12-20 2015-06-25 Microsoft Corporation Multi-user, Multi-domain Dialog System

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110035220A1 (en) * 2009-08-05 2011-02-10 Verizon Patent And Licensing Inc. Automated communication integrator
US20130080167A1 (en) * 2011-09-27 2013-03-28 Sensory, Incorporated Background Speech Recognition Assistant Using Speaker Verification
DE102012218934A1 (de) 2011-10-18 2013-04-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Sprachbasierte Nutzerschnittstelle für eine Mobilvorrichtung
US20140330769A1 (en) 2012-05-08 2014-11-06 24/7 Customer, Inc. Predictive 411
WO2014197730A1 (en) 2013-06-08 2014-12-11 Apple Inc. Application gateway for providing different user interfaces for limited distraction and non-limited distraction contexts
US20150179168A1 (en) * 2013-12-20 2015-06-25 Microsoft Corporation Multi-user, Multi-domain Dialog System

Similar Documents

Publication Publication Date Title
EP2983937B1 (de) Verfahren und vorrichtung zur proaktiven dialogführung
DE102011078503A1 (de) Fahrzeuggestützte Verfahren und Systeme zum Verwalten von persönlichen Informationen und Ereignissen
DE102019119171A1 (de) Spracherkennung für fahrzeugsprachbefehle
DE102015213722B4 (de) Verfahren zum Betreiben eines Spracherkennungssystems in einem Fahrzeug und Spracherkennungssystem
DE102015211101A1 (de) Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server
EP1121684B1 (de) Verfahren und vorrichtung zur ausgabe von informationen und/oder meldungen per sprache
DE102018215293A1 (de) Multimodale Kommunikation mit einem Fahrzeug
EP3115886B1 (de) Verfahren zum betreiben eines sprachsteuerungssystems und sprachsteuerungssystem
EP3608149B1 (de) Verfahren zum steuern einer vorrichtung zur bereitstellung einer erinnerung in einem fahrzeug sowie vorrichtung zur bereitstellung einer erinnerung in einem fahrzeug
EP1321851B1 (de) Verfahren und System zum Nutzen von vom Nutzer frei zu wählenden Markierungsnamen als Einsprungposition in die Menustruktur eines Sprach-Dialogsystems
WO2018082917A1 (de) Verfahren zum verarbeiten einer benutzereingabe und kraftfahrzeug mit einer datenverarbeitungseinrichtung
DE102020105042A1 (de) Verfahren zum Einstellen einer Bedieneinrichtung
DE102016205925A1 (de) Verfahren und System zum Steuern einer Anwendungseinheit
DE102019212429A1 (de) Verfahren zum Bereitstellen einer individuellen Nutzerführung für zumindest eine Funktionskomponente eines Kraftfahrzeugs für einen Nutzer in dem Kraftfahrzeug, sowie elektronisches Nutzerführungssystem
DE102004043853B3 (de) Modul und Verfahren zur adaptiven Mensch-Maschine-Kommunikation in einem Kraftfahrzeug
DE102018007102B3 (de) Verfahren zur Sprachsteuerung eines Kraftfahrzeugs, Computerprogrammprodukt, Spracheingabesystem sowie Kraftfahrzeug
DE102013001885A1 (de) Systeminitiierte Hilfefunktion pro Fahrt und/oder pro Nutzer für die Bedienung von einer, einem Fahrzeug zugeordneten Vorrichtung
DE102017210884A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102020111983A1 (de) Fahrerassistenzsystem zum Erreichen einer Ladeeinrichtung mit einem elektrisch betriebenen Fahrzeug bei Unterschreiten einer Mindestreichweite
DE102019133133A1 (de) Assistenzsystem, durch welches in einem Raum die Ausgabe von zumindest einem Medieninhalt gesteuert wird, Kraftfahrzeug und Betriebsverfahren für das Assistenzsystem
EP4124211B1 (de) Verfahren und vorrichtung zur erzeugung von sprachausgaben in einem fahrzeug
DE102017207038A1 (de) Spracheingabe bei einem Kraftfahrzeug
WO2023148063A1 (de) Verfahren zur verarbeitung von spracheingaben und bedieneinrichtung zur steuerung von fahrzeugfunktionen
DE102019216775A1 (de) Autonom fahrendes Shuttle
DE102020212794A1 (de) Verfahren zum Verwalten von auf einem Gerät drahtlos eingehenden oder von einer Einheit des Geräts erzeugten Nachrichten sowie Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: REITSTOETTER KINZEBACH, DE

Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE

R016 Response to examination communication
R082 Change of representative

Representative=s name: MEISSNER BOLTE PATENTANWAELTE RECHTSANWAELTE P, DE