DE202017105942U1 - Verarbeiten von Sprachbefehlen basierend auf der Vorrichtungstopologie - Google Patents

Verarbeiten von Sprachbefehlen basierend auf der Vorrichtungstopologie Download PDF

Info

Publication number
DE202017105942U1
DE202017105942U1 DE202017105942.1U DE202017105942U DE202017105942U1 DE 202017105942 U1 DE202017105942 U1 DE 202017105942U1 DE 202017105942 U DE202017105942 U DE 202017105942U DE 202017105942 U1 DE202017105942 U1 DE 202017105942U1
Authority
DE
Germany
Prior art keywords
devices
user
representation
device topology
topology
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202017105942.1U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202017105942U1 publication Critical patent/DE202017105942U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/34Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Computersystem, das umfasst: einen oder mehrere Prozessoren; und eine oder mehrere Speichervorrichtungen, wobei die eine oder die mehreren Speichervorrichtungen computerlesbare Anweisungen speichern, die, wenn sie durch den einen oder die mehreren Prozessoren ausgeführt werden, den einen oder die mehreren Prozessoren veranlassen, Operationen auszuführen, wobei die Operationen umfassen: Empfangen von Daten, die eine Sprachäußerung angeben, wobei die Sprachäußerung durch einen Anwender einer Steuervorrichtung bereitgestellt wird; Zugreifen auf eine Darstellung einer Vorrichtungstopologie, wobei die Darstellung der Vorrichtungstopologie mehrere intelligente Vorrichtungen definiert, die einer oder mehreren Strukturen zugeordnet sind, wobei die Darstellung der Vorrichtungstopologie ferner einen Ort jeder der mehreren Vorrichtungen innerhalb der zugeordneten Strukturen definiert; Bestimmen einer Umschreibung der Sprachäußerung wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie; und Bestimmen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer durch die eine oder die mehreren ausgewählten Vorrichtungen auszuführenden Handlungen wenigstens teilweise basierend auf der bestimmten Umschreibung und der Darstellung der Vorrichtungstopologie.

Description

  • GEBIET
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf das Interpretieren von Sprachäußerungen und spezieller auf das Interpretieren von Sprachäußerungen basierend auf einer Topologie von Vorrichtungen.
  • HINTERGRUND
  • Es gibt die Ausbreitung von intelligenten, mit einem Netz verbundenen Multi-Sensing-Vorrichtungen, wie z. B. Lautsprechern, Hausalarmanlagen, Türverriegelungen, Kameras, Beleuchtungssystemen, Laufbändern, Waagen, intelligenten Betten, Bewässerungssystemen, Garagentüröffnern, Haushaltsgeräten, Babyphonen, Brandmeldern usw. Diese intelligenten Vorrichtungen können sich z. B. innerhalb der Abgrenzungen eines Gebäudes befinden, wobei ein Anwender wünschen kann, mit derartigen intelligenten Vorrichtungen in Wechselwirkung zu treten. Um dies auszuführen, kann der Anwender eine Steuervorrichtung verwenden, um mit den intelligenten Vorrichtungen, z. B. über ein Netz, drahtlos zu kommunizieren.
  • In einigen Fällen kann der Anwender wünschen, mit einer oder mehreren intelligenten Vorrichtungen durch das Bereitstellen eines Sprachbefehls oder einer Sprachäußerung für die Steuervorrichtung zu kommunizieren. Die herkömmlichen Sprachbefehls-Verarbeitungstechniken verwenden verschiedene geeignete Techniken der automatischen Spracherkennung, der Verarbeitung natürlicher Sprache und/oder des Verstehens natürlicher Sprache, um die Sprachäußerung zu verarbeiten und zu interpretieren und um die intelligente(n) Vorrichtung(en) in Übereinstimmung mit der Sprachäußerung zu steuern. Derartige herkömmliche Techniken sind jedoch oft nicht imstande, komplexe Sprachäußerungen zu interpretieren, wobei sie eine Anforderung für mehr Informationen von dem Anwender erfordern können. Insbesondere fehlt derartigen herkömmlichen Techniken oft ein ausreichendes Verständnis der Vorrichtungen innerhalb eines intelligenten Heimnetzes und der Beziehungen zwischen derartigen Vorrichtungen innerhalb des Netzes.
  • ZUSAMMENFASSUNG
  • Die Aspekte und Vorteile der Ausführungsformen der vorliegenden Offenbarung werden teilweise in der folgenden Beschreibung dargelegt oder können aus der Beschreibung erlernt werden oder können durch die Praxis der Ausführungsformen erlernt werden. In Übereinstimmung mit den Anforderungen des Gebrauchsmustergesetzes sind nur Vorrichtungen, wie sie in den beigefügten Ansprüchen definiert sind, aber keine Verfahren dem Schutz unterworfen und der Gegenstand des Gebrauchsmusters. Wo in der Beschreibung im Folgenden auf Verfahren Bezug genommen wird, sollen diese Bezugnahmen lediglich für das bessere Verständnis der Vorrichtung oder der Vorrichtungen, die in den beigefügten Ansprüchen geschützt sind, dienen.
  • Ein beispielhafter Aspekt der vorliegenden Offenbarung ist auf ein computerimplementiertes Verfahren zum Verarbeiten von Sprachäußerungen gerichtet. Das Verfahren enthält das Empfangen durch eine oder mehrere Computervorrichtungen von Daten, die eine Sprachäußerung angeben. Die Sprachäußerung wird durch einen Anwender einer Steuervorrichtung bereitgestellt. Das Verfahren enthält ferner das Zugreifen durch die eine oder die mehreren Computervorrichtungen auf eine Darstellung einer Vorrichtungstopologie. Die Darstellung der Vorrichtungstopologie definiert mehrere intelligente Vorrichtungen, die einer oder mehreren Strukturen zugeordnet sind. Die Darstellung der Vorrichtungstopologie definiert ferner einen Ort jeder der mehreren Vorrichtungen innerhalb der zugeordneten Strukturen. Das Verfahren enthält ferner das Bestimmen durch die eine oder die mehreren Computervorrichtungen einer Umschreibung der Sprachäußerung wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie. Das Verfahren enthält ferner das Bestimmen durch die eine oder die mehreren Computervorrichtungen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer Handlungen, die durch die eine oder die mehreren ausgewählten Vorrichtungen auszuführen sind, wenigstens teilweise basierend auf der bestimmten Umschreibung und der Darstellung der Vorrichtungstopologie.
  • Andere beispielhafte Aspekte der vorliegenden Offenbarung sind auf Systeme, Vorrichtungen, greifbare, nichttransitorische computerlesbare Medien, Anwenderschnittstellen, Speichervorrichtungen und elektronische Vorrichtungen zum Verarbeiten von Sprachbefehlen gerichtet.
  • Diese und andere Merkmale, Aspekte und Vorteile der verschiedenen Ausführungsformen werden unter Bezugnahme auf die folgende Beschreibung und die beigefügten Ansprüche besser verstanden. Die beigefügten Zeichnungen, die in diese Beschreibung aufgenommen sind und einen Teil dieser Beschreibung bilden, veranschaulichen Ausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung dazu, die in Beziehung stehenden Prinzipien zu erklären.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • In der Beschreibung ist eine ausführliche Erörterung der Ausführungsformen, die an einen Durchschnittsfachmann auf dem Gebiet gerichtet ist, dargelegt, die auf die beigefügten Figuren Bezug nimmt, worin:
  • 1 einen Überblick eines beispielhaften Systems zum Verarbeiten von Sprachbefehlen gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt;
  • 2 eine beispielhafte Anwenderschnittstelle zum Implementieren einer Darstellung einer Vorrichtungstopologie gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt;
  • 3 einen Blockschaltplan einer beispielhaften Darstellung einer Vorrichtungstopologie gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt;
  • 4 einen Ablaufplan eines beispielhaften Verfahrens zum Verarbeiten von Sprachbefehlen gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt;
  • 5 einen Ablaufplan eines beispielhaften Verfahrens zum Erzeugen eines personalisierten Sprachmodells gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt;
  • 6 einen Ablaufplan eines beispielhaften Verfahrens zum Bestimmen einer Umschreibung einer Sprachäußerung gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt;
  • 7 einen Ablaufplan eines beispielhaften Verfahrens zum Interpretieren einer Umschreibung einer Sprachäußerung gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt;
  • 8 einen Überblick eines beispielhaften Systems gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Nun wird ausführlich auf die Ausführungsformen Bezug genommen, von denen ein oder mehrere Beispiele in den Zeichnungen veranschaulicht sind. Jedes Beispiel ist zur Erklärung der Ausführungsformen und nicht zur Einschränkung der vorliegenden Offenbarung bereitgestellt. In der Tat wird es für die Fachleute auf dem Gebiet offensichtlich sein, dass verschiedene Modifikationen und Variationen an den Ausführungsformen vorgenommen werden können, ohne vom Schutzumfang oder Erfindungsgedanken der vorliegenden Offenbarung abzuweichen. Die Merkmale, die als Teil einer Ausführungsform veranschaulicht oder beschrieben sind, können z. B. mit einer anderen Ausführungsform verwendet werden, um eine noch weitere Ausführungsform zu liefern. Folglich ist vorgesehen, dass die Aspekte der vorliegenden Offenbarung derartige Modifikationen und Variationen abdecken.
  • Beispielhafte Aspekte der vorliegenden Offenbarung sind auf das Steuern intelligenter Vorrichtungen basierend auf den Sprachbefehlen von einem Anwender gerichtet. Eine Sprachäußerung kann z. B. von einem Anwender einer Steuervorrichtung empfangen werden. Die Sprachäußerung kann ein durch einen Anwender unmittelbar an der Anwendervorrichtung, die konfiguriert ist, um eine oder mehrere intelligente Vorrichtungen zu steuern, gesprochener Befehl sein. Eine intelligente Vorrichtung kann eine intelligente, mit einem Netz verbundene Multi-Sensing-Vorrichtung sein, die konfiguriert ist, um mit einem zentralen Server, einem Cloud-Computersystem und/oder einer oder mehreren zusätzlichen intelligenten Vorrichtungen zu kommunizieren, um irgendwelche von einer Vielfalt nützlicher intelligenter Hausdienste bereitzustellen. Eine intelligente Vorrichtung kann z. B. ein Klimatisierungssystem, eine Beleuchtungsvorrichtung, ein Heimkino- und Unterhaltungssystem, ein Sicherheitssystem, ein automatisches Türverriegelungssystem, eine Thermostatvorrichtung, ein Heimautomatisierungssystem, ein Lautsprecher, eine Kameravorrichtung, ein Laufband, eine Waage, ein intelligentes Bett, ein Bewässerungssystem, ein Garagentüröffner, ein Haushaltsgerät, ein Babyphon, ein Brandmelder und/oder eine andere geeignete Vorrichtung oder ein anderes geeignetes System sein oder anderweitig diesen zugeordnet sein.
  • Ein Anwender, der wünscht, eine oder mehrere intelligente Vorrichtungen zu steuern, kann eine Darstellung einer Vorrichtungstopologie konstruieren. Die Darstellung der Vorrichtungstopologie kann unter Verwendung verschiedener geeigneter Techniken konstruiert werden und kann irgendein geeignetes Format und/oder irgendeine geeignete Struktur sein, das bzw. die die Topologie und die Organisation einer oder mehrerer intelligenter Vorrichtungen innerhalb einer oder mehrerer Strukturen darstellen kann. Die Darstellung der Vorrichtungstopologie kann eine oder mehrere Strukturen, die dem Anwender zugeordnet sind, definieren und/oder organisieren. Eine dem Anwender zugeordnete Struktur kann z. B. ein Haus, ein Unternehmen, ein Fahrzeug, ein Büro und/oder irgendeine andere geeignete Struktur sein, die dem Anwender zugeordnet ist. Der Anwender kann jede Struktur in einen oder mehrere Räume (z. B. Schlafzimmer, Wohnzimmer, Küche) organisieren und kann eine oder mehrere intelligente Vorrichtungen dem einen oder den mehreren Räumen zuordnen. Der Anwender kann z. B. eine oder mehrere intelligente Leuchten einem ersten Raum einer speziellen Struktur zuordnen und ein oder mehrere Türverriegelungssysteme einem zweiten Raum der Struktur zuordnen. Der Anwender kann dann eine oder mehrere verschiedene intelligente Vorrichtungen einem oder mehreren Räumen innerhalb einer zweiten Struktur zuordnen.
  • Der Anwender kann den intelligenten Vorrichtungen innerhalb der Darstellung der Vorrichtungstopologie eine oder mehrere Kennungen zuordnen. Die Kennungen können durch den Anwender gewählt werden und den jeweiligen intelligenten Vorrichtungen innerhalb der Darstellung der Vorrichtungstopologie zugeordnet werden. Die Kennung(en) kann (können) Spitznamen und/oder Pseudonyme enthalten, die durch den Anwender für die intelligenten Vorrichtungen gewählt werden (z. B. Couchleuchte, Vordertürverriegelung, Schlafzimmerlautsprecher usw.). In dieser Weise können die Kennungen Namen oder Pseudonyme der jeweiligen intelligenten Vorrichtungen sein, die der Anwender wahrscheinlich verwendet, wenn er Sprachäußerungen zum Steuern der intelligenten Vorrichtungen bereitstellt.
  • Die Darstellung der Vorrichtungstopologie kann ferner ein oder mehrere Vorrichtungsattribute, die den jeweiligen Vorrichtungen zugeordnet sind, spezifizieren. Die Vorrichtungsattribute können einer oder mehreren Handlungen zugeordnet sein, für die die intelligenten Vorrichtungen konfiguriert sind, um sie auszuführen. Die einer Beleuchtungsvorrichtung zugeordneten Vorrichtungsattribute können z. B. eine Einschaltfähigkeit, eine Ausschaltfähigkeit, eine Dimmfähigkeit und/oder andere geeignete Attribute, die der Beleuchtungsvorrichtung zugeordnet sind, enthalten. Als ein weiteres Beispiel kann eine automatische Türverriegelungsvorrichtung eine Verriegelungsfähigkeit, eine Entriegelungsfähigkeit und/oder eine andere geeignete Fähigkeit enthalten.
  • Der Anwender kann einer Steuervorrichtung eine Sprachäußerung bereitstellen. Die Sprachäußerung kann irgendeine geeignete Sprachäußerung sein, die eine Absicht spezifiziert, eine oder mehrere intelligente Vorrichtungen zu steuern. Ein Anwender kann z. B. eine Sprachäußerung mit der Absicht des Änderns eines Zustands einer intelligenten Vorrichtung (z. B. des Ein- oder Ausschaltens einer intelligenten Vorrichtung, des Vergrößerns der Lautstärke einer intelligenten Vorrichtung usw.) oder mit der Absicht des Empfangens von Informationen, die der intelligenten Vorrichtung zugeordnet sind, (z. B. von Informationen, die einer aktuellen Temperatur zugeordnet sind, usw.) bereitstellen. Eine Steuervorrichtung kann irgendeine geeignete Vorrichtung sein, die eine Sprachäußerung von dem Anwender empfangen und z. B. über ein Netz mit einer oder mehreren intelligenten Vorrichtungen oder einem zentralen Server kommunizieren kann. Die Steuervorrichtung kann eine Vorrichtung sein, zu der der Anwender beim Bereitstellen der Sprachäußerung spricht. In einigen Implementierungen kann die Steuervorrichtung eine Anwendervorrichtung sein, die dem Anwender zugeordnet ist, wie z. B. ein Smartphone, ein Tablet, ein Laptop-Computer, ein Desktop-Computer, eine tragbare Computervorrichtung und/oder eine andere geeignete Anwendervorrichtung. In einigen Implementierungen kann die Steuervorrichtung eine intelligente Vorrichtung sein, die konfiguriert ist, um eine Sprachäußerung zu empfangen. Die Steuervorrichtung kann z. B. eine intelligente Vorrichtung sein, die in der Darstellung der Vorrichtungstopologie spezifiziert ist.
  • Die Sprachäußerung kann interpretiert werden, um einen Steuerbefehl zu bestimmen, der durch den Anwender für eine oder mehrere intelligente Vorrichtungen vorgesehen ist. In dieser Hinsicht kann an der Sprachäußerung wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie eine Spracherkennung ausgeführt werden. Die Daten, die die Sprachäußerung angeben, können z. B. einem oder mehreren Sprachmodellen bereitgestellt werden, um eine Umschreibung der Sprachäußerung zu bestimmen. In einigen Implementierungen kann ein allgemeines Sprachmodell zu der Darstellung der Vorrichtungstopologie beeinflusst werden, um eine Textumschreibung der Sprachäußerung zu bestimmen. Das allgemeine Sprachmodell kann mehrere häufige Redewendungen enthalten und Wahrscheinlichkeitsschätzungen mit jeder Redewendung korrelieren. Jede Redewendung kann eine Folge aus einem oder mehreren Wörtern enthalten. Die Wahrscheinlichkeitsschätzungen können ein vorhergesagtes Auftreten der jeweiligen Redewendungen spezifizieren. Es wird erkannt, dass verschiedene geeignete allgemeine Sprachmodelle verwendet werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen.
  • Das allgemeine Sprachmodell kann zu der Darstellung der Vorrichtungstopologie beeinflusst werden, um ein personalisiertes Sprachmodell zu erzeugen. Insbesondere kann das allgemeine Sprachmodell durch das Vergrößern der Wahrscheinlichkeitsschätzungen, die einem oder mehreren Wörtern oder einer oder mehreren Redewendungen zugeordnet sind, die der Darstellung der Vorrichtungstopologie zugeordnet sind, beeinflusst werden. Das eine oder die mehreren Wörter oder die eine oder die mehreren Redewendungen können z. B. Raumnamen, Strukturnamen, Vorrichtungskennungen, Begriffe, die den Vorrichtungsattributen zugeordnet sind, usw. enthalten, die in der Darstellung der Vorrichtungstopologie spezifiziert sind. In dieser Weise kann das personalisierte Sprachmodell eine höhere Wahrscheinlichkeit des Auftretens der Wörter oder Redewendungen, die in der Darstellung der Vorrichtungstopologie enthalten sind, schätzen.
  • Die Daten, die die Sprachäußerung angeben, können dem personalisierten Sprachmodell bereitgestellt werden, um eine Textumschreibung der Sprachäußerung basierend auf dem personalisierten Sprachmodell zu bestimmen. In einigen Implementierungen können die Daten, die die Sprachäußerung angeben, dem allgemeinen Sprachmodell bereitgestellt werden, um eine erste Umschreibung der Sprachäußerung basierend auf dem allgemeinen Sprachmodell zu bestimmen. Ein erster Vertrauenspunktestand kann für die erste Umschreibung bestimmt werden, der ein Vertrauen in die Genauigkeit der ersten Umschreibung angibt. Die Daten, die die Sprachäußerung angeben, können dann dem personalisierten Sprachmodell bereitgestellt werden, um eine zweite Umschreibung der Sprachäußerung basierend auf dem personalisierten Sprachmodell zu bestimmen. Für die zweite Umschreibung kann ein zweiter Vertrauenspunktestand bestimmt werden, der ein Vertrauen in die Genauigkeit der zweiten Umschreibung angibt. In einigen Implementierungen kann die Umschreibung, die den höheren Vertrauenspunktestand aufweist, verwendet werden. In einigen Implementierungen können die Daten, die die Sprachäußerung angeben, ferner einem oder mehreren zusätzlichen Sprachmodellen, wie z. B. einem oder mehreren spezialisierten Sprachmodellen, die verschiedenen geeigneten Anwendungen zugeordnet sind, bereitgestellt werden. In dieser Weise können eine oder mehrere zusätzliche Umschreibungen unter Verwendung der zusätzlichen Sprachmodelle bestimmt werden, wobei jede Umschreibung einen zugeordneten Vertrauenspunktestand aufweist. Die Umschreibung mit dem höchsten Vertrauenspunktestand kann verwendet werden.
  • Sobald die Umschreibung der Sprachäußerung bestimmt worden ist, können eine oder mehrere zu steuernde Vorrichtungen (z. B. ausgewählte Vorrichtungen) und eine oder mehrere Handlungen, die durch die ausgewählten Vorrichtungen auszuführen sind, bestimmt werden. Es kann z. B. unter Verwendung einer oder mehrerer Techniken der semantischen Interpretation eine semantische Interpretation der Umschreibung bestimmt werden. Die semantische Interpretation kann eine Darstellung der konzeptionellen Bedeutung der Umschreibung bereitstellen. In dieser Weise kann die Interpretation der Umschreibung eine Interpretation der Absicht des Anwenders beim Ausführen der Sprachäußerung bereitstellen. Falls als ein Beispiel einer Umschreibung eine Sprachäußerung von einem Anwender ”schalte die Leuchten ein” aussagt, kann die semantische Interpretation der Umschreibung versuchen, eine auszuführende Handlung (z. B. eine Aktivierung einer oder mehrerer Leuchtenvorrichtungen) und eine oder mehrere ausgewählte Vorrichtungen, um die Handlung auszuführen, (z. B. eine oder mehrere geeignete Beleuchtungsvorrichtungen, die vorgesehen sind, um durch den Anwender gesteuert werden) zu bestimmen.
  • Die Interpretation kann wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie bestimmt werden. Es kann z. B. auf die Darstellung der Vorrichtungstopologie zugegriffen werden, um eine oder mehrere ausgewählte Vorrichtungen und/oder die auszuführende Handlung zu bestimmen. In dieser Weise kann auf die Darstellung der Vorrichtungstopologie zugegriffen werden und sie mit der Umschreibung verglichen werden, um eine Übereinstimmung zwischen einem oder mehreren Begriffen, die der Umschreibung zugeordnet sind, und einem oder mehreren Begriffen, die der Darstellung der Vorrichtungstopologie zugeordnet sind, zu bestimmen. Falls die Umschreibung z. B. ”schalte die Couchleuchte ein” lautet, kann auf die Darstellung der Vorrichtungstopologie zugegriffen werden, um zu bestimmen, ob es eine in der Darstellung der Vorrichtungstopologie spezifizierte Vorrichtung gibt, die eine Vorrichtungskennung ”Couchleuchte” aufweist.
  • Wie angegeben ist, können außerdem eine oder mehrere Handlungen, die durch die ausgewählte(n) Vorrichtung(en) auszuführen sind, bestimmt werden. Die Handlung(en) kann (können) z. B. basierend auf der Interpretation der Umschreibung bestimmt werden. In einigen Implementierungen können die Handlungen wenigstens teilweise basierend auf den Vorrichtungsattributen, die der ausgewählten Vorrichtung (den ausgewählten Vorrichtungen) zugeordnet sind, bestimmt werden, wie in der Darstellung der Vorrichtungstopographie spezifiziert ist. In dieser Weise kann eine identifizierte Handlung eine Handlung sein, die eine ausgewählte Vorrichtung ausführen kann.
  • In einigen Fällen kann eine direkte Übereinstimmung zwischen den in der Vorrichtungstopologie spezifizierten Vorrichtungskennungen und den Begriffen der Umschreibung nicht bestimmt werden. Der Anwender kann z. B. keine Vorrichtungskennung spezifizieren, wenn er die Sprachäußerung ausführt, sondern er kann eine informellere Anweisung geben. Als ein weiteres Beispiel können die in der Darstellung der Vorrichtungstopologie spezifizierten mehreren Strukturen einen oder mehrere Räume und/oder eine oder mehrere Vorrichtungen, die die gleichen oder ähnliche Namen oder Kennungen aufweisen, enthalten. Als ein Beispiel kann eine Umschreibung, die ”schalte die Leuchten im Schlafzimmer ein” lautet, keinen Hinweis auf eine spezifische Vorrichtungskennung enthalten, so dass keine direkte Übereinstimmung bestimmt werden kann. In einem derartigen Fall kann auf die Darstellung der Vorrichtungstopologie zugegriffen werden, um eine oder mehrere ausgewählte Vorrichtungen zu folgern. Es kann z. B. auf die Darstellung der Vorrichtungstopologie zugegriffen werden, um einen als ”Schlafzimmer” bezeichneten Raum in einer in der Darstellung der Vorrichtungstopologie spezifizierten Struktur zu identifizieren. Falls ein derartiges ”Schlafzimmer” identifiziert wird, können eine oder mehrere geeignete Vorrichtungen, die sich innerhalb des Schlafzimmers befinden, identifiziert werden. Falls die Darstellung der Vorrichtungstopologie z. B. eine oder mehrere Beleuchtungsvorrichtungen innerhalb des Schlafzimmers spezifiziert, kann wenigstens eine der einen oder der mehreren Beleuchtungsvorrichtungen als die ausgewählte(n) Vorrichtung(en) gefolgert werden.
  • In den Fällen, in denen in der Umschreibung keine Vorrichtungskennung spezifiziert ist, können die eine oder die mehreren ausgewählten Vorrichtungen und/oder die auszuführende(n) Handlung(en) wenigstens teilweise basierend auf den in der Darstellung der Vorrichtungstopologie spezifizierten Vorrichtungsattributen bestimmt werden. Die in der Darstellung der Vorrichtungstopologie spezifizierten Vorrichtungsattribute können z. B. mit der Umschreibung verglichen werden, um eine oder mehrere Vorrichtungen zu bestimmen, die eine in der Umschreibung spezifizierte Handlung ausführen können. In dieser Weise können die ausgewählten Vorrichtungen wenigstens teilweise basierend auf den jeweiligen Vorrichtungsattributen gefolgert werden.
  • In einigen Implementierungen können die ausgewählten Vorrichtungen und/oder die auszuführenden Handlungen wenigstens teilweise basierend auf den kontextbezogenen Daten, wie z. B. einem Ort des Anwenders, bestimmt werden. In Reaktion auf das Empfangen einer Sprachäußerung von einem Anwender kann z. B. ein Ort des Anwenders bestimmt werden. Der Ort kann unter Verwendung verschiedener geeigneter Ortsbestimmungstechniken bestimmt werden. Die Ortsbestimmungstechnik kann wenigstens teilweise basierend auf der Steuervorrichtung, der der Anwender die Sprachäußerung bereitstellt, bestimmt werden. Die Steuervorrichtung ist z. B. eine intelligente Vorrichtung, die in der Darstellung der Vorrichtungstopologie spezifiziert ist, wobei der Anwenderort auf die Struktur und/oder den Raum abgebildet werden kann, der bzw. dem die Steuervorrichtung in der Darstellung der Vorrichtungstopologie zugeordnet ist. Falls die Steuervorrichtung eine Anwendervorrichtung ist, die in der Darstellung der Vorrichtungstopologie nicht spezifiziert ist, kann der Anwenderort unter Verwendung einer oder mehrerer Ortsbestimmungstechniken, wie z. B. der Techniken unter Verwendung drahtloser Zugangspunkte oder Nahbereichs-Bakenvorrichtungen, die einer oder mehreren intelligenten Vorrichtungen zugeordnet sind, und/oder anderer geeigneter Ortsbestimmungstechniken, bestimmt werden. Der Anwenderort kann dann auf eine oder mehrere Strukturen und/oder einen oder mehrere Räume, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, abgebildet werden.
  • In dieser Weise kann der Anwenderort als die kontextbezogenen Daten beim Bestimmen einer oder mehrerer ausgewählter Vorrichtungen verwendet werden. In Reaktion auf das Empfangen einer Umschreibung, die ”schalte die Leuchten ein” lautet, kann der Anwenderort bestimmt und auf einen oder mehrere Räume und/oder eine oder mehrere Strukturen, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, abgebildet werden, um die Struktur und den Raum, in dem sich der Anwender befindet, zu bestimmen. Innerhalb einer derartigen Struktur und eines derartigen Raums können eine oder mehrere Leuchtenvorrichtungen identifiziert werden, um die ausgewählten Vorrichtungen zu bestimmen, die vorgesehen sind, um durch den Anwender gesteuert zu werden. In dieser Weise kann in einem derartigen Fall gefolgert werden, dass die Leuchten, die der Anwender zu steuern wünscht, die Leuchten in dem Raum sind, in dem sich der Anwender gegenwärtig befindet.
  • Bei einer Bestimmung der einen oder der mehreren ausgewählten Vorrichtungen, die zu steuern sind, und der einen oder der mehreren Handlungen, die durch die ausgewählte(n) Vorrichtung(en) auszuführen sind, können ein oder mehrere Steuerbefehle erzeugt und der ausgewählten Vorrichtung (den ausgewählten Vorrichtungen) jeweils bereitgestellt werden. Der eine oder die mehreren Steuerbefehle können Anweisungen für die ausgewählte(n) Vorrichtung(en) enthalten, um die spezifizierten Handlungen auszuführen. Beim Empfangen der geeigneten Steuerbefehle kann die ausgewählte Vorrichtung (können die ausgewählten Vorrichtungen) die geeigneten Handlungen in Übereinstimmung mit dem empfangenen Steuerbefehl (den empfangenen Steuerbefehlen) ausführen. In einigen Implementierungen kann dem Anwender eine Aufforderung (z. B. innerhalb einer durch die Steuervorrichtung oder eine andere geeignete Vorrichtung angezeigten Anwenderschnittstelle) bereitgestellt werden, die anfordert, dass der Anwender die Sprachäußerung klarstellt und/oder manuell eine oder mehrere durch die eine oder die mehreren intelligenten Vorrichtungen auszuführenden Handlungen auswählt, falls eine oder mehrere ausgewählte Vorrichtungen und/oder auszuführende Handlungen basierend auf der empfangenen Sprachäußerung nicht bestimmt werden können.
  • In dieser Weise können die beispielhaften Aspekte der vorliegenden Offenbarung verwendet werden, um eine Effizienz und eine Genauigkeit der Sprachbefehlsverarbeitung für die Verwendung in einer Umgebung eines intelligenten Hauses und/oder des Internets der Dinge zu verbessern. Insbesondere kann das Organisieren der intelligenten Vorrichtungen bezüglich einer Topologie einer oder mehrerer Strukturen, in denen sich die intelligenten Vorrichtungen befinden, eine robustere Interpretation der Sprachäußerungen erlauben und kann eine natürliche ”gesprächsartige” Kommunikationserfahrung zwischen dem Anwender und der Steuervorrichtung erlauben. Die Berücksichtigung der kontextbezogenen Daten, wie z. B. des Anwenderortes, im Zusammenhang mit der Vorrichtungstopologie kann eine größere Fähigkeit schaffen, um die Bedeutung der durch den Anwender bereitgestellten Sprachäußerungen zu folgern. Zusätzlich können derartige Sprachbefehls-Verarbeitungstechniken durch das Fördern einer Fähigkeit, einen umfassenderen Bereich von Sprachäußerungen genauer und schneller zu interpretieren, weniger Kommunikationsrunden zwischen dem Anwender und dem System ermöglichen. Die Anzahl der durch die intelligente Vorrichtung ausgeführten Operationen als solche kann verringert werden, es kann z. B. das Empfangen und Verarbeiten einer wiederholten Sprachäußerung oder das Ausgeben einer Anforderung für mehr Informationen und das Verarbeiten der Antwort vermieden werden, wobei folglich die Leistungsaufnahme der intelligenten Vorrichtung verringert werden kann. Obwohl die vorliegende Offenbarung auf das Verarbeiten von Sprachbefehlen in einer Umgebung eines intelligenten Hauses und/oder des Internets der Dinge gerichtet ist, wird erkannt, dass die beispielhaften Aspekte der vorliegenden Offenbarung auf verschiedene andere geeignete Anwendungen und Umgebungen ausgedehnt werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Die beispielhaften Aspekte der vorliegenden Offenbarung können z. B. verwendet werden, um Sprachbefehle zu verarbeiten und zu interpretieren, die verwendet werden, um verschiedene andere geeignete Vorrichtungen nicht des Internets der Dinge zu steuern.
  • Nun werden unter Bezugnahme auf die Figuren beispielhafte Aspekte der vorliegenden Offenbarung ausführlicher beschrieben. 1 stellt z. B. einen Überblick über ein beispielhaftes System 100 zum Verarbeiten von Sprachbefehlen gemäß beispielhaften Ausführungsformen der vorliegenden Offenbarung dar. Das System 100 enthält eine Steuervorrichtung 102 und einen Server 104. Die Steuervorrichtung 102 und der Server 104 können z. B. über ein Netz kommunizieren. Die Steuervorrichtung 102 kann irgendeine geeignete Vorrichtung sein, die konfiguriert ist, bezüglich einer Sprachäußerung von einem Anwender zu überwachen und eine Sprachäußerung von einem Anwender zu empfangen. Wie angegeben ist, kann die Sprachäußerung ein Satz oder eine Redewendung, der bzw. die durch den Anwender mit der Absicht des Steuerns einer oder mehrerer intelligenter Vorrichtungen gesprochen wird, sein. Die Steuervorrichtung 102 kann eine dem Anwender zugeordnete Anwendervorrichtung sein. In einigen Implementierungen kann die Steuervorrichtung 102 eine intelligente Vorrichtung sein. Eine intelligente Vorrichtung kann eine mit einem Netz verbundene Vorrichtung sein, die konfiguriert ist, um mit einem zentralen Server, einem Cloud-Computersystem und/oder einer oder mehreren zusätzlichen intelligenten Vorrichtungen zu kommunizieren, um irgendeinen von einer Vielfalt nützlicher Dienste eines intelligenten Hauses und/oder des Internets der Dinge bereitzustellen. Die Steuervorrichtung kann basierend auf der Bereitstellung der Sprachäußerung durch den Anwender dynamisch konfiguriert werden. Die Steuervorrichtung kann z. B. die Vorrichtung (z. B. die Anwendervorrichtung, die intelligente Vorrichtung oder die andere Vorrichtung) sein, die die Sprachäußerung von dem Anwender empfängt.
  • Beim Empfangen der Sprachäußerung von dem Anwender kann die Steuervorrichtung 102 Daten, die die Sprachäußerung angeben, dem Server 104 bereitstellen. Der Server 104 enthält eine Beeinflussungseinrichtung 106, einen Umschreiber 108, einen Interpreter 110 und einen Befehlsgenerator 112. Die Daten, die die Sprachäußerung angeben, können dem Umschreiber 108 bereitgestellt werden. Der Umschreiber 108 kann konfiguriert sein, um eine oder mehrere Textumschreibungen der Sprachäußerung wenigstens teilweise basierend auf den Sprachmodelldaten 114 zu bestimmen. Die Sprachmodelldaten 114 können ein oder mehrere Sprachmodelle zum Umschreiben der Sprachäußerung enthalten. Insbesondere können die Sprachmodelldaten 114 ein allgemeines Sprachmodell enthalten, das die Wahrscheinlichkeitsschätzungen für mehrere häufige Redewendungen spezifiziert. Die Sprachmodelldaten 114 können ferner ein oder mehrere spezialisierte Sprachmodelle, wie z. B. ein personalisiertes Sprachmodell, enthalten. Das personalisierte Sprachmodell kann durch die Beeinflussungseinrichtung 106 erzeugt werden. Insbesondere kann das personalisierte Sprachmodell durch das Beeinflussen des allgemeinen Sprachmodells zu einer Darstellung 116 der Vorrichtungstopologie erzeugt werden.
  • Die Darstellung 116 der Vorrichtungstopologie kann durch den Anwender konstruiert werden, um eine Organisationstopologie einer oder mehrerer intelligenter Vorrichtungen, die dem Anwender zugeordnet sind, zu definieren. 2 stellt z. B. eine beispielhafte Anwenderschnittstelle 120 zum Definieren einer Darstellung einer Vorrichtungstopologie dar. Insbesondere stellt 2 eine Anwendervorrichtung 122 dar, die konfiguriert ist, um die Anwenderschnittstelle 120 anzuzeigen. Es wird erkannt, dass die in 2 dargestellte Anwenderschnittstelle 120 lediglich für Veranschaulichungszwecke vorgesehen ist und dass verschiedene andere geeignete Anwenderschnittstellen verwendet werden können, um eine Darstellung der Vorrichtungstopologie zu implementieren, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Die Anwendervorrichtung 122 kann irgendeine geeignete Anwendervorrichtung, wie z. B. ein Smartphone, ein Tablet, ein Laptop-Computer, ein Desktop-Computer, eine tragbare Computervorrichtung usw., sein. In einigen Implementierungen kann die Anwendervorrichtung 122 eine intelligente Vorrichtung oder eine andere Vorrichtung sein. In einigen Implementierungen kann es sein, dass der Anwender einen Ort darstellen muss, um die Darstellung der Vorrichtungstopologie für diesen Ort zu definieren. In derartigen Implementierungen muss sich z. B. ein Anwender, der wünscht, eine Darstellung einer Vorrichtungstopologie für eine spezielle Struktur zu definieren, an der Struktur befinden, um die Darstellung der Vorrichtungstopologie zu implementieren. In dieser Weise kann ein Ort des Anwenders unter Verwendung verschiedener geeigneter Ortsbestimmungstechniken bestimmt werden und kann es dem Anwender erlaubt werden, eine Darstellung einer Vorrichtungstopologie für eine Struktur, die sich an dem oder in der Nähe des Anwenderorts befindet, zu definieren.
  • Die Anwenderschnittstelle 120 kann ein oder mehrere Anwenderschnittstellenelemente 124 zum Fördern einer Implementierung einer Darstellung 126 einer Vorrichtungstopologie durch einen Anwender enthalten. Die Darstellung 126 der Vorrichtungstopologie kann der in den 1 und 3 dargestellten Darstellung 116 der Vorrichtungstopologie entsprechen. Wie gezeigt ist, enthalten das eine oder die mehreren Anwenderschnittstellenelemente 124 Schnittstellenelemente, die es einem Anwender erlauben, zu der Darstellung 126 der Vorrichtungstopologie eine Struktur hinzuzufügen, einen Raum hinzuzufügen und eine Vorrichtung hinzuzufügen. In dieser Weise kann der Anwender auf Wunsch mit den Anwenderschnittstellenelementen 124 in Wechselwirkung treten, um die Darstellung 126 der Vorrichtungstopologie zu definieren und zu organisieren. Der Anwender kann z. B. das ”Vorrichtung-Hinzufügen”-Schnittstellenelement auswählen, um eine neue intelligente Vorrichtung zu der Darstellung 126 der Vorrichtungstopologie hinzuzufügen. In dieser Weise kann der Anwender imstande sein, eine neue Vorrichtung hinzuzufügen, eine oder mehrere Vorrichtungskennungen, die der Vorrichtung zuzuordnen sind, hinzuzufügen, ein oder mehrere Vorrichtungsattribute, die der Vorrichtung zuzuordnen sind, hinzufügen, usw. Falls der Anwender das ”Raum-Hinzufügen”-Schnittstellenelement auswählen würde, kann der Anwender ähnlich imstande sein, einen neuen Raum zu einer speziellen Struktur hinzuzufügen, eine Raumkennung, die dem Raum zuzuordnen ist, hinzuzufügen, usw.
  • In einigen Implementierungen kann die Darstellung 126 der Vorrichtungstopologie ein interaktives Anwenderschnittstellenelement sein, so dass der Anwender mit der Darstellung 126 der Vorrichtungstopologie in Wechselwirkung treten kann, wie sie innerhalb der Anwenderschnittstelle 120 angezeigt wird. Der Anwender kann z. B. (z. B. durch eine Berührungseingabe oder eine andere geeignete Eingabe) eine spezielle Struktur, einen speziellen Raum oder eine spezielle Vorrichtung der Darstellung 126 der Vorrichtungstopologie auswählen, um eine Darstellung von mehr Informationen, die der ausgewählten Struktur, dem ausgewählten Raum oder der ausgewählten Vorrichtung zugeordnet sind, zu fördern.
  • 3 stellt einen Blockschaltplan einer beispielhaften Darstellung 116 einer Vorrichtungstopologie gemäß beispielhaften Ausführungsformen der vorliegenden Offenbarung dar. Die Darstellung 116 der Vorrichtungstopologie definiert eine Topologie mehrerer intelligenter Vorrichtungen innerhalb mehrerer Strukturen, die dem Anwender zugeordnet sind. Insbesondere enthalten die Strukturen ein Haupthaus 152, ein Strandhaus 154 und ein Büro 156, die dem Anwender zugeordnet sind. Jede Struktur kann in einen oder mehrere Räume innerhalb der Struktur organisiert sein. 3 stellt z. B. ein Wohnzimmer 158, ein Schlafzimmer 160 und ein Gästezimmer 162 dar, die dem Haupthaus 152 zugeordnet sind. Jedem Raum können ein oder mehrere intelligente Vorrichtungen innerhalb eines Netzes eines intelligenten Hauses und/oder des Internets der Dinge, die dem Anwender zugeordnet sind, zugeordnet sein. Insbesondere sind dem Wohnzimmer 158 eine Beleuchtungsvorrichtung, die eine Beleuchtungskennung ”Couchleuchte” aufweist, eine Thermostatvorrichtung, die eine Vorrichtungskennung ”Thermostat im Erdgeschoss” aufweist, und eine Lautsprechervorrichtung, die eine Vorrichtungskennung ”Wohnzimmerlautsprecher” aufweist, zugeordnet. Dem Schlafzimmer 160 ist eine Deckenventilatorvorrichtung, die eine Vorrichtungskennung ”Deckenventilator” aufweist, eine oder mehrere Beleuchtungsvorrichtungen, die die Vorrichtungskennung(en) ”Deckenleuchten” aufweisen, und eine Lautsprechervorrichtung, die eine Vorrichtungskennung ”Lautsprecher” aufweist, zugeordnet. Dem Gästezimmer 162 ist eine Thermostatvorrichtung, die eine Vorrichtungskennung ”Thermostat im Obergeschoss” aufweist, eine Beleuchtungsvorrichtung, die eine Vorrichtungskennung ”Tischleuchte” aufweist, und eine Lautsprechervorrichtung, die eine Vorrichtungskennung ”Lautsprecher” aufweist, zugeordnet. Die spezifizierten Vorrichtungen können eine einzige Vorrichtung oder eine Gruppe von Vorrichtungen sein. Die Vorrichtungskennung ”Deckenleuchten” kann z. B. einer einzigen Beleuchtungsvorrichtung oder einer Gruppe von Beleuchtungsvorrichtungen, die die Deckenleuchten im Schlafzimmer bilden, entsprechen.
  • Wie angegeben ist, kann der Anwender innerhalb der Darstellung der Vorrichtungstopologie eine oder mehrere Strukturen und einen oder mehrere Räume definieren. Der Anwender kann jedem Raum und jeder Struktur Kennungen zuordnen. Der Anwender kann jedem Raum eine oder mehrere intelligente Vorrichtungen zuordnen, um eine Topologie der Vorrichtungen innerhalb der Räume der tatsächlichen Struktur darzustellen. Der Anwender kann ferner jeder der einen oder der mehreren intelligenten Vorrichtungen eine oder mehrere Vorrichtungskennungen zuordnen. In einigen Implementierungen kann, falls der Anwender einer Vorrichtung keine Vorrichtungskennung zuordnet, der Vorrichtung automatisch eine vorgegebene Vorrichtungskennung zugeordnet werden. Die Darstellung 116 der Vorrichtungstopologie kann ferner ein oder mehrere Vorrichtungsattribute für jede Vorrichtung spezifizieren. Die Vorrichtungsattribute können einer oder mehreren Handlungen zugeordnet sein, die die Vorrichtungen ausführen können. Eine Leuchtenvorrichtung kann z. B. ein ”Einschalt”-Attribut, ein ”Ausschalt”-Attribut, ein ”Dimm”-Attribut usw. aufweisen. Eine Deckenventilatorvorrichtung kann ein ”Einschalt”-Attribut, ein ”Ausschalt”-Attribut, ein ”Drehzahlerhöhungs”-Attribut, ein ”Drehzahlverringerungs”-Attribut usw. aufweisen. In einigen Implementierungen können die Vorrichtungsattribute durch den Anwender in die Darstellung 116 der Vorrichtungstopologie eingegeben werden. In einigen Implementierungen können die Vorrichtungsattribute automatisch zu der Darstellung 116 der Vorrichtungstopologie hinzugefügt werden.
  • Die Darstellung der Vorrichtungstopologie kann durch den Anwender aktualisiert oder modifiziert werden, wenn der Anwender wünscht, z. B. eine oder mehrere Änderungen der Vorrichtungstopologie widerzuspiegeln. Der Anwender kann z. B. Vorrichtungen hinzufügen, Vorrichtungen entfernen, Vorrichtungen zwischen Räumen und/oder Strukturen bewegen, Strukturen hinzufügen, Strukturen entfernen, Räume hinzufügen, Räume entfernen usw., wie es der Anwender wünscht. In dieser Weise kann der Anwender die Vorrichtungstopologie organisieren, um eine genaue und dynamische Topologie der Vorrichtungen innerhalb der tatsächlichen Strukturen zu schaffen.
  • Die Darstellung 116 der Vorrichtungstopologie kann verwendet werden, um das allgemeine Sprachmodell zu beeinflussen. Zurück in 1 kann die Beeinflussungseinrichtung 106 konfiguriert sein, um auf die Darstellung 116 der Vorrichtungstopologie und das allgemeine Sprachmodell zuzugreifen, um das allgemeine Sprachmodell zu der Darstellung 116 der Vorrichtungstopologie zu beeinflussen. Die Beeinflussungseinrichtung kann z. B. einen oder mehrere Begriffe oder eine oder mehrere Redewendungen, die in der Darstellung 116 der Vorrichtungstopologie spezifiziert sind, (z. B. Vorrichtungskennungen, Raumnamen, Strukturnamen, Vorrichtungstypen (z. B. Beleuchtungsvorrichtung, Lautsprechervorrichtung), Vorrichtungsattribute usw.) identifizieren. Die Beeinflussungseinrichtung 106 kann eine Wahrscheinlichkeitsschätzung dieser Begriffe, wie sie durch das allgemeine Sprachmodell spezifiziert sind, vergrößern und kann ein personalisiertes Sprachmodell erzeugen, so dass die identifizierten Begriffe oder Redewendungen den vergrößerten Wahrscheinlichkeitsschätzungen zugeordnet sind. In dieser Weise kann das personalisierte Sprachmodell erzeugt werden, um die vergrößerte Wahrscheinlichkeit widerzuspiegeln, dass die durch den Anwender bereitgestellte Sprachäußerung Begriffe oder Redewendungen enthält, die der Darstellung 116 der Vorrichtungstopologie zugeordnet sind.
  • Wie angegeben ist, kann der Umschreiber 108 eine oder mehrere Textumschreibungen der Sprachäußerung wenigstens teilweise basierend auf den Sprachmodelldaten 114 bestimmen. Es wird erkannt, dass der Umschreiber 108 die Textumschreibungen der Sprachäußerung unter Verwendung verschiedener geeigneter Spracherkennungstechniken bestimmen kann. In einigen Implementierungen kann der Umschreiber 108 eine Umschreibung der Sprachäußerung basierend auf dem durch die Beeinflussungseinrichtung 106 erzeugten personalisierten Sprachmodell bestimmen. In einigen Implementierungen kann der Umschreiber 108 eine oder mehrere zusätzliche Umschreibungen der Sprachäußerung unter Verwendung eines oder mehrerer zusätzlicher Sprachmodelle (z. B. des allgemeine Sprachmodells und/oder eines oder mehrerer anderer geeigneter Sprachmodelle, die den Sprachmodelldaten 114 zugeordnet sind) bestimmen. In derartigen Implementierungen kann ein Vertrauenspunktestand für jede Umschreibung bestimmt werden, der ein Vertrauen des Umschreibers 108 spezifiziert, dass die jeweiligen Umschreibungen genaue Umschreibungen der Sprachäußerung sind. Dann kann eine Umschreibung aus den mehreren Umschreibungen wenigstens teilweise basierend auf den Vertrauenspunkteständen ausgewählt werden. In einigen Implementierungen kann die ausgewählte Umschreibung dem Interpreter 110 bereitgestellt werden, falls die ausgewählte Umschreibung die unter Verwendung des personalisierten Sprachmodells bestimmte Umschreibung ist.
  • In einigen Implementierungen kann eine Darstellung einer Vorrichtungstopologie wenigstens teilweise basierend auf einem Ort des Anwenders für die Verwendung ausgewählt werden. Es kann z. B. bestimmt werden, dass sich der Anwender innerhalb einer innerhalb einer Darstellung einer Vorrichtungstopologie spezifizierten speziellen Struktur befindet. Auf die Darstellung der Vorrichtungstopologie, die diese Struktur spezifiziert, kann dann für die Verwendung beim Verarbeiten einer durch den Anwender bereitgestellten Sprachäußerung zugegriffen werden. In derartigen Implementierungen kann dann die Darstellung der Vorrichtungstopologie, auf die zugegriffen worden ist, verwendet werden, um eine Umschreibung einer durch den Anwender bereitgestellten Sprachäußerung zu bestimmen. In dieser Weise kann dann die Umschreibung wenigstens teilweise basierend auf einem Ort des Anwenders bestimmt werden. Bei einer Bestimmung des Ortes des Anwenders kann z. B. auf die entsprechende Darstellung der Vorrichtungstopologie zugegriffen werden und können ein oder mehrere Begriffe, die der Darstellung der Vorrichtungstopologie zugeordnet sind, verwendet werden, um das allgemeine Sprachmodell zu beeinflussen. In einigen Implementierungen kann ein personalisiertes Sprachmodell für die Struktur und/oder die Darstellung der Vorrichtungstopologie vorher erzeugt worden sein, wobei in diesem Fall in Reaktion auf das Bestimmen des Anwenderortes und/oder das Empfangen einer Sprachäußerung von dem Anwender auf das geeignete personalisierte Sprachmodell zugegriffen werden kann und es verwendet werden kann, um die Umschreibung der Sprachäußerung zu bestimmen. Eine derartige Darstellung der Vorrichtungstopologie, die dem Anwenderort entspricht, kann dann gemäß beispielhaften Aspekten der vorliegenden Offenbarung verwendet werden, um die Sprachäußerung zu interpretieren.
  • Die bestimmte Umschreibung kann dem Interpreter 110 bereitgestellt werden. Der Interpreter 110 kann konfiguriert sein, um eine Absicht des Anwenders beim Bereitstellen der Sprachäußerung für die Steuervorrichtung 102 zu bestimmen. Insbesondere kann der Interpreter 110 konfiguriert sein, um eine oder mehrere ausgewählte Vorrichtungen 118 und eine oder mehrere Handlungen, die durch die ausgewählten Vorrichtungen 118 auszuführen sind, wenigstens teilweise basierend auf der Umschreibung zu bestimmen. In einigen Implementierungen kann der Interpreter 110 z. B. Techniken der semantischen Interpretation an der Umschreibung ausführen, um eine logische Darstellung der konzeptionellen Bedeutung der Umschreibung zu bestimmen. In dieser Weise kann der Interpreter 110 durch das Erkennen einer semantischen Beziehung zwischen den Wörtern eine Rolle jedes Wortes in der Umschreibung bestimmen.
  • Der Interpreter 110 kann die eine oder die mehreren ausgewählten Vorrichtungen 118 und/oder die auszuführenden Handlungen wenigstens teilweise basierend auf der Darstellung 116 der Vorrichtungstopologie bestimmen. Der Interpreter 110 kann z. B. die Umschreibung mit der Darstellung 116 der Vorrichtungstopologie vergleichen, um die ausgewählten Vorrichtungen 118 und/oder die auszuführenden Handlungen zu bestimmen. Insbesondere kann der Interpreter 110 die Umschreibung mit den in der Darstellung 116 der Vorrichtungstopologie spezifizierten Vorrichtungskennungen vergleichen, um eine Korrelation zwischen einem oder mehreren Begriffen der Umschreibung und einer oder mehreren Vorrichtungskennungen zu bestimmen. Falls die Umschreibung z. B. ”erhöhe die Lautstärke des Wohnzimmerlautsprechers” lautet, kann der Begriff Wohnzimmerlautsprecher mit der Vorrichtungskennung ”Wohnzimmerlautsprecher” der Darstellung 116 der Vorrichtungstopologie korreliert werden. In dieser Weise kann die Lautsprechervorrichtung, die die Vorrichtungskennung ”Wohnzimmerlautsprecher” aufweist, basierend auf der Korrelation als die ausgewählte Vorrichtung ausgewählt werden.
  • In einigen Implementierungen kann der Interpreter 110 konfiguriert sein, um die eine oder die mehreren ausgewählten Vorrichtungen zu folgern. Falls z. B. keine exakte Übereinstimmung zwischen einer Vorrichtungskennung und der Umschreibung gefunden werden kann, kann der Interpreter konfiguriert sein, um eine oder mehrere ausgewählte Vorrichtungen zu folgern. Falls als ein weiteres Beispiel zwei oder mehr der in der Darstellung der Vorrichtungstopologie spezifizierten Vorrichtungen die gleichen oder ähnliche Vorrichtungskennungen aufweisen, kann der Interpreter 110 nicht imstande sein, um zu bestimmen, welche Vorrichtung der Anwender vorsieht, um gesteuert zu werden. Die Darstellung 116 der Vorrichtungstopologie enthält z. B. sowohl im Schlafzimmer 160 als auch im Gästezimmer 162 Lautsprechervorrichtungen, die die gleiche Vorrichtungskennung ”Lautsprecher” aufweisen. In einem derartigen Fall kann der Interpreter 110 nicht imstande sein, zu unterscheiden, welche Lautsprechervorrichtung der Anwender zu steuern wünscht. Der Interpreter 110 kann dann konfiguriert sein, um die ausgewählte Vorrichtung wenigstens teilweise basierend auf anderen Informationen, die der Darstellung 116 der Vorrichtungstopologie und/oder dem Anwender zugeordnet sind, zu folgern.
  • Als ein Beispiel kann der Interpreter 110 konfiguriert sein, um die ausgewählten Vorrichtungen zu folgern, falls es keine direkte Übereinstimmung zwischen der Umschreibung und den Vorrichtungskennungen gibt, aber die Umschreibung einen oder mehrere Begriffe enthält, die zu einer in der Darstellung 116 der Vorrichtungstopologie spezifizierten Vorrichtungskennung ausreichend ähnlich sind. In einem derartigen Fall kann der Interpreter 110 den ausreichend ähnlichen Begriff (die ausreichend ähnlichen Begriffe) und die Vorrichtungskennung korrelieren, wobei er die ausgewählte Vorrichtung basierend auf der Ähnlichkeit folgern kann. Falls die Umschreibung z. B. ”schalte die Sofaleuchte ein” lautet, kann der Interpreter 110 die Vorrichtungskennung ”Couchleuchte” identifizieren, wobei er bestimmen kann, dass die Redewendung ”Sofaleuchte” zu der Vorrichtungskennung ”Couchleuchte” ausreichend ähnlich ist. Der Interpreter 110 kann dann die Beleuchtungsvorrichtung, die die Kennung ”Couchleuchte” aufweist, als die ausgewählte Vorrichtung auswählen.
  • In einigen Implementierungen kann der Interpreter 110 die ausgewählten Vorrichtungen wenigstens teilweise basierend auf den in der Darstellung 116 der Vorrichtungstopologie spezifizierten Vorrichtungsattributen folgern. Die Vorrichtungsattribute können einen Typ jeder Vorrichtung (z. B. Beleuchtungsvorrichtung, Lautsprechervorrichtung usw.), eine oder mehrere Fähigkeiten jeder Vorrichtung oder der Handlungen, die durch jede Vorrichtung ausgeführt werden können, (z. B. Einschalten, Ausschalten, Lautstärkeerhöhung, Lautstärkeverringerung, Drehzahlvergrößerung, Drehzahlverringerung, usw.), und/oder andere geeignete Attribute oder Merkmale, die der Vorrichtung zugeordnet sind, spezifizieren. In dieser Weise kann die Umschreibung mit den in der Darstellung der Vorrichtungstopologie spezifizierten Vorrichtungsattributen verglichen werden, um die eine oder die mehreren ausgewählten Vorrichtungen zu bestimmen. Der Interpreter 110 kann z. B. einen oder mehrere Begriffe in der Umschreibung mit dem einen oder den mehreren Vorrichtungsattributen für die Vorrichtungen vergleichen, um eine Korrelation zu bestimmen. Falls die Umschreibung z. B. ”erhöhe die Temperatur” lautet, kann der Interpreter 110 versuchen, eine oder mehrere Vorrichtungen zu identifizieren, die geeignete Attribute aufweisen, die einer Handlung des Erhöhens einer Temperatur zugeordnet sind. In dieser Weise kann der Interpreter 110 imstande sein, die geeigneten Vorrichtungen auf ”Thermostat im Obergeschoss” und ”Thermostat im Erdgeschoss” einzuschränken.
  • In einigen Implementierungen kann der Interpreter 110 die eine oder die mehreren ausgewählten Vorrichtungen wenigstens teilweise basierend auf einem Ort des Anwenders bestimmen, wenn der Anwender die Sprachäußerung der Steuervorrichtung 102 bereitstellt. Wie angegeben ist, kann die Steuervorrichtung 102 eine intelligente Vorrichtung oder eine Anwendervorrichtung sein, der die Sprachäußerung bereitgestellt wird. Der Interpreter 110 kann den Ort der Steuervorrichtung 102 bestimmen und den Ort der Steuervorrichtung 102 mit dem Ort des Anwenders korrelieren. In den Fällen, in denen die Steuervorrichtung 102 eine in der Darstellung 116 der Vorrichtungstopologie spezifizierte intelligente Vorrichtung ist, kann der Interpreter 110 auf die Darstellung der Vorrichtungstopologie zugreifen, um den Ort (z. B. die Struktur und den Raum, die in der Darstellung 116 der Vorrichtungstopologie spezifiziert sind) zu bestimmen. Der Interpreter 110 kann dann den Anwenderort mit dem Ort der Steuervorrichtung 102, der der Anwender den Sprachbefehl bereitgestellt hat, korrelieren.
  • In den Fällen, in denen die Steuervorrichtung 102 nicht innerhalb der Darstellung 116 der Vorrichtungstopologie spezifiziert ist (z. B. wenn die Steuervorrichtung 102 eine Anwendervorrichtung oder eine andere geeignete Steuervorrichtung ist), können eine oder mehrere alternative Ortsbestimmungstechniken verwendet werden. In einigen Implementierungen kann die Steuervorrichtung 102 z. B. unter Verwendung eines oder mehrerer drahtloser Zugangspunkte (z. B. Wi-Fi-Zugangspunkte) lokalisiert werden. Ein Ort der Steuervorrichtung 102 kann wenigstens teilweise basierend auf den bekannten Orten des einen oder der mehreren Zugangspunkte und einem oder mehreren zwischen der Steuervorrichtung 102 und dem einen oder den mehreren Zugangspunkten übertragenen Signalen bestimmt werden. Spezieller kann in einigen Implementierungen der Ort der Anwendervorrichtung wenigstens teilweise basierend auf Umlaufzeitberechnungen (RTT-Berechnungen) bestimmt werden, die einem oder mehreren zwischen der Anwendervorrichtung und einem oder mehreren Zugangspunkten übertragenen Signalen zugeordnet sind. Die Anwendervorrichtung kann z. B. durch das Senden eines Signals an mehrere Zugangspunkte einen Ortsfeststellungsprozess einleiten. Die Zugangspunkte können ein oder mehrere Antwortsignale an die Anwendervorrichtung senden. Die Antwortsignale können Daten enthalten, die eine Zeitverzögerung (z. B. eine Verarbeitungsverzögerung) zwischen den Zeitpunkten, zu denen der jeweilige Zugangspunkt das einleitende Signal empfangen hat und die Antwortsignale gesendet hat, angeben. Die Anwendervorrichtung kann dann wenigstens teilweise basierend auf dem Zeitpunkt, zu dem die Anwendervorrichtung die einleitenden Signale gesendet hat, dem Zeitpunkt, zu dem die Anwendervorrichtung die Antwortsignale empfangen hat, und/oder der einem Zugangspunkt zugeordneten Zeitverzögerung die Laufzeiten berechnen, die den einleitenden Signalen und/oder den Antwortsignalen zugeordnet sind. Falls die Anwendervorrichtung Antwortsignale von drei oder mehr Zugangspunkten empfängt, kann die Anwendervorrichtung Trilaterationstechniken auf die bestimmten Abstände und die Orte anwenden, um sich selbst bezüglich der Zugangspunkte zu lokalisieren. Die Anwendervorrichtung kann z. B. bestimmen, dass sie sich an einem speziellen Ort innerhalb eines Bereichs (z. B. innerhalb eines speziellen Raums) befindet.
  • Ähnlich kann in einigen Implementierungen ein Ort der Steuervorrichtung 102 unter Verwendung einer oder mehrerer Bakenvorrichtungen (z. B. Bluetooth-Bakenvorrichtungen) bestimmt werden. Der Ort der Steuervorrichtung kann z. B. wenigstens teilweise basierend auf den bekannten Orten der Bakenvorrichtungen und einem oder mehreren zwischen den Bakenvorrichtungen und der Steuervorrichtung 102 übertragenen Signale bestimmt werden. Es wird erkannt, dass verschiedene andere geeignete Ortsbestimmungstechniken verwendet werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Spezieller kann beim Bestimmen des Orts der Anwendervorrichtung die Anwendervorrichtung ein oder mehrere Signale rundsenden, die durch zwei oder mehr Bakenvorrichtungen empfangen werden können, die sich innerhalb der Struktur befinden, in der sich der Anwender befindet. Die Bakenvorrichtungen können bekannte Orte innerhalb der Struktur aufweisen. In einigen Implementierungen können die Bakenvorrichtungen innerhalb einer oder mehrerer intelligenter Vorrichtungen implementiert sein, die in der Darstellung 116 der Vorrichtungstopologie definiert sind. In Reaktion auf das Empfangen des einen oder der mehreren Signale können die zwei oder mehr Bakenvorrichtungen ein oder mehrere Erkennungssignale rundsenden, die jeweils die Bakenvorrichtungen identifizieren. Die Erkennungssignale können die Orte der jeweiligen Bakenvorrichtungen enthalten. Der Ort der Anwendervorrichtung kann dann wenigstens teilweise basierend auf den innerhalb der empfangenen Erkennungssignale spezifizierten Bakenorten bestimmt werden.
  • Es wird erkannt, dass verschiedene andere Ortsbestimmungstechniken verwendet werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Die Ortsbestimmungstechniken können z. B. unter Verwendung verschiedener geeigneter Kommunikationssignale, wie z. B. Bluetooth, Bluetooth low energy, ZigBee, Nahfeldkommunikation, Wi-Fi-Direkt oder anderer Techniken, implementiert sein. In alternativen Ausführungsformen kann der Ort des Anwenders wenigstens teilweise durch ein Positionierungssystem, das der Anwendervorrichtung zugeordnet ist, (z. B. GPS oder ein anderes Positionierungssystem) und/oder durch eine netzbasierte (z. B. WiFi, ein Zellennetz usw.) Ortsbestimmung bestimmt werden.
  • In einigen Implementierungen kann der Ort der Steuervorrichtung 102 bezüglich der Darstellung 116 der Vorrichtungstopologie bestimmt werden. In den Implementierungen, in denen der Ort der Steuervorrichtung 102 unter Verwendung drahtloser Zugangspunkte und/oder Bakenvorrichtungen bestimmt wird, können die Orte der Zugangspunkte und/oder der Bakenvorrichtungen z. B. auf einen oder mehrere Räume innerhalb der Darstellung 116 der Vorrichtungstopologie abgebildet werden. In dieser Weise kann dann der Ort der Steuervorrichtung 102 bezüglich der Darstellung 116 der Vorrichtungstopologie wenigstens teilweise basierend auf den Orten der Zugangspunkte und/oder der Bakenvorrichtungen innerhalb der Darstellung 116 der Vorrichtungstopologie bestimmt werden.
  • Wie angegeben ist, kann der Interpreter 110 die ausgewählten Vorrichtungen wenigstens teilweise basierend auf dem Ort der Steuervorrichtung zum Zeitpunkt der Bereitstellung der Sprachäußerung durch den Anwender bestimmen. Der Interpreter 110 kann folgern, dass sich die ausgewählten Vorrichtungen in demselben Raum, in dem sich der Anwender befindet, befinden. Falls als ein Beispiel die Umschreibung ”schalte die Leuchten ein” lautet, kann der Interpreter 110 bestimmen, dass sich der Anwender im Schlafzimmer befindet, wobei er folgern kann, dass die Leuchtenvorrichtungen, auf die sich der Anwender bezieht, die Leuchtenvorrichtungen, die dem Schlafzimmer in der Darstellung 116 der Vorrichtungstopologie zugeordnet sind, (z. B. die ”Deckenleuchten”) sind.
  • Eine oder mehrere der oben beschriebenen Interpretationstechniken können durch den Interpreter 110 verwendet werden, um die Umschreibung zu interpretieren. In verschiedenen Fällen kann (können) z. B. die ausgewählte(n) Vorrichtung(en) wenigstens teilweise basierend auf den Vorrichtungskennungen und/oder den Vorrichtungsattributen und/oder dem Anwenderort bestimmt werden.
  • Der Interpreter 110 kann ferner eine oder mehrere auszuführende ausgewählte Handlungen bestimmen. Der Interpreter 110 kann z. B. die Umschreibung analysieren, um die eine oder die mehreren Handlungen zu bestimmen. Der Interpreter 110 kann z. B. eine Umschreibung analysieren, die ”schalte die Leuchten ein” lautet, und kann bestimmen, dass die Redewendung ”schalte ein” einer Handlung des Aktivierens oder Einschaltens einer Vorrichtung entspricht. In einigen Implementierungen kann der Interpreter 110 die auszuführenden Handlungen wenigstens teilweise basierend auf den Vorrichtungsattributen, die in der Darstellung 116 der Vorrichtungstopologie spezifiziert sind, bestimmen. Sobald die ausgewählten Vorrichtungen bestimmt worden sind, kann der Interpreter 110 z. B. die Umschreibungen mit den Vorrichtungsattributen der ausgewählten Vorrichtungen vergleichen, um eine Korrelation zwischen der Umschreibung und den Vorrichtungsattributen zu bestimmen.
  • Sobald die ausgewählte(n) Vorrichtung(en) und die auszuführenden Handlungen bestimmt worden sind, können ein oder mehrere Steuerbefehle bestimmt werden, die die ausgewählte(n) Vorrichtung(en) anweisen, die geeignet(n) Handlung(en) auszuführen. Insbesondere können die Daten, die die ausgewählte(n) Vorrichtung(en) und die auszuführende(n) Handlung(en) angeben, dem Befehlsgenerator 112 bereitgestellt werden. Der Befehlsgenerator 112 kann einen oder mehrere geeignete Steuerbefehle für die ausgewählte(n) Vorrichtung(en) bestimmen. Wie angegeben ist, können die Steuerbefehle irgendein geeigneter Steuerbefehl zum Kommunizieren mit der ausgewählten Vorrichtung (den ausgewählten Vorrichtungen) sein. Insbesondere können die Steuerbefehle wenigstens teilweise basierend auf einem oder mehreren Kommunikationsprotokollen, die der ausgewählten Vorrichtung (den ausgewählten Vorrichtungen) zugeordnet sind, bestimmt werden. In dieser Weise können sich die Steuerbefehle wenigstens teilweise basierend auf den Kommunikationsprotokollen der ausgewählten Vorrichtung(en) in irgendeinem geeigneten Format oder irgendeiner geeigneten Struktur befinden. Der Befehlsgenerator 112 kann die Steuerbefehle der ausgewählten Vorrichtung (den ausgewählten Vorrichtungen) bereitstellen, so dass die ausgewählte(n) Vorrichtung(en) die Steuerbefehle ausführen und die geeignete(n) Handlung(en) ausführen können.
  • Obwohl dargestellt ist, dass das System 100 eine Client-Server-Architektur aufweist, wird erkannt, dass eine oder mehrere der Funktionen des Servers 104 (z. B. eine oder mehrere Funktionen der Beeinflussungseinrichtung 106, des Umschreibers 108, des Interpreters 110 oder des Befehlsgenerators 112) durch eine oder mehrere andere geeignete Vorrichtungen, z. B. die Steuervorrichtung 102, ausgeführt werden können. In dieser Weise wird erkannt, dass die Steuervorrichtung 102 die Beeinflussungseinrichtung 106 und/oder den Umschreiber 108 und/oder den Interpreter 110 und/oder den Befehlsgenerator 112 enthalten kann.
  • 4 stellt einen Ablaufplan eines beispielhaften Verfahrens (200) zum Verarbeiten von Sprachbefehlen gemäß beispielhaften Ausführungsformen der vorliegenden Offenbarung dar. Das Verfahren (200) kann durch eine oder mehrere Computervorrichtungen, wie z. B. eine oder mehrere der in 8 dargestellten Computervorrichtungen, implementiert sein. Zusätzlich stellt 4 die in einer speziellen Reihenfolge ausgeführten Schritte für die Zwecke der Veranschaulichung und Erörterung dar. Die Durchschnittsfachleute auf dem Gebiet werden unter Verwendung der hier bereitgestellten Offenbarungen verstehen, dass die Schritte irgendwelcher der hier erörterten Verfahren in verschiedenen Weisen angepasst, umgeordnet, erweitert, weggelassen oder modifiziert werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen.
  • Bei (202) kann das Verfahren (300) das Empfangen von Daten, die eine Sprachäußerung angeben, von einem Anwender enthalten. Wie angegeben ist, kann der Anwender eine Sprachäußerung einer Steuervorrichtung mit der Absicht des Steuerns einer oder mehrerer intelligenter Vorrichtungen bereitstellen.
  • Bei (204) kann das Verfahren (200) das Zugreifen auf eine dem Anwender zugeordnete Darstellung einer Vorrichtungstopologie enthalten. Wie angegeben ist, kann der Anwender eine Darstellung einer Vorrichtungstopologie, die eine Topologie einer oder mehrerer Strukturen, die dem Anwender zugeordnet sind, definiert, anlegen oder konstruieren. Der Anwender kann z. B. die Struktur(en) in Räumen organisieren und kann die Vorrichtungen den Räumen zuordnen. Der Anwender kann den Vorrichtungen Vorrichtungskennungen zuordnen. Die Darstellung der Vorrichtungstopologie kann ferner ein oder mehrere Vorrichtungsattribute für die Vorrichtungen enthalten. Die Vorrichtungsattribute können die Vorrichtungstypen, die Fähigkeiten usw. spezifizieren. In dieser Weise kann es die Darstellung der Vorrichtungstopologie bereitstellen, es einem Anwender zu ermöglichen, ein Netz eines intelligenten Hauses oder des Internets der Dinge durch den Ort der Vorrichtungen zu organisieren.
  • Bei (206) kann das Verfahren (200) das Bestimmen einer Umschreibung der Sprachäußerung wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie enthalten. Die Umschreibung kann z. B. wenigstens teilweise basierend auf einem oder mehreren Sprachmodellen bestimmt werden. In einigen Implementierungen kann die Umschreibung z. B. durch das Beeinflussen eines allgemeinen Sprachmodells zu einem oder mehreren Begriffen, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, (z. B. Vorrichtungskennungen, Raumnamen, Strukturnamen, Vorrichtungsattributen usw.) bestimmt werden. In dieser Weise kann ein personalisiertes Sprachmodell erzeugt werden, das vergrößerte Wahrscheinlichkeitsschätzungen aufweist, die den Begriffen der Darstellung der Vorrichtungstopologie zugeordnet sind. Die Daten, die die Sprachäußerung angeben, können dem personalisierten Sprachmodell bereitgestellt werden, um eine Umschreibung der Sprachäußerung zu bestimmen. In einigen Implementierungen können die Daten, die die Sprachäußerung angeben, einem oder mehreren zusätzlichen Sprachmodellen bereitgestellt werden, um die Umschreibung zu bestimmen.
  • Bei (208) kann das Verfahren (200) das Bestimmen einer Interpretation der Umschreibung wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie enthalten. Das Bestimmen der Interpretation kann z. B. das Bestimmen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer durch die ausgewählten Vorrichtungen auszuführenden Handlungen wenigstens teilweise basierend auf der Umschreibung und der Darstellung der Vorrichtungstopologie enthalten. Die eine oder die mehreren ausgewählten Vorrichtungen können in der Darstellung der Vorrichtungstopologie spezifizierte Vorrichtungen sein, wobei die eine oder die mehreren auszuführenden Handlungen Handlungen sein können, die einem oder mehreren Vorrichtungsattributen zugeordnet sind, die den ausgewählten Vorrichtungen zugeordnet sind.
  • Bei (210) kann das Verfahren (200) das Erzeugen eines oder mehrerer Steuerbefehle für die eine oder die mehreren ausgewählten Vorrichtungen wenigstens teilweise basierend auf der Interpretation enthalten. Der eine oder die mehreren Steuerbefehle können Anweisungen für die jeweiligen ausgewählten Vorrichtungen enthalten, um die geeigneten Handlungen auszuführen. Die Steuerbefehle können irgendein geeigneter Steuerbefehl sein, der durch die zugeordneten intelligenten Vorrichtungen verstanden werden kann. Bei (212) kann das Verfahren (200) das Bereitstellen des einen oder der mehreren Steuerbefehle für die ausgewählten Vorrichtungen enthalten, so dass die ausgewählten Vorrichtungen die Steuerbefehle ausführen und die geeigneten Handlungen ausführen können.
  • 5 stellt einen Ablaufplan eines beispielhaften Verfahrens (300) zum Erzeugen eines personalisierten Sprachmodells gemäß beispielhaften Ausführungsformen der vorliegenden Offenbarung dar. Das Verfahren (300) kann durch eine oder mehrere Computervorrichtungen, wie z. B. eine oder mehrere der in 8 dargestellten Computervorrichtungen, implementiert sein. In einigen Implementierungen kann das Verfahren (300) durch die in 1 dargestellte Beeinflussungseinrichtung 106 implementiert sein.
  • Bei (302) kann das Verfahren (300) das Zugreifen auf ein allgemeines Sprachmodell enthalten. Wie angegeben ist, kann das allgemeine Sprachmodell mehrere häufige Redewendungen enthalten. Eine Redewendung kann eine Folge aus einem oder mehreren Wörtern sein. Das allgemeine Sprachmodell kann ferner jeder Redewendung zugeordnete Wahrscheinlichkeitsschätzungen enthalten, die eine Schätzung der Wahrscheinlichkeit des Auftretens der zugeordneten Redewendung angeben.
  • Bei (304) kann das Verfahren (300) das Identifizieren eines oder mehrerer Beeinflussungsbegriffe oder einer oder mehrerer Beeinflussungsredewendungen aus der Darstellung der Vorrichtungstopologie enthalten. Der eine oder die mehreren Beeinflussungsbegriffe oder die eine oder die mehreren Beeinflussungsredewendungen können Vorrichtungskennungen, Raumkennungen, Strukturkennungen, Vorrichtungsattribute und/oder andere geeignete Begriffe oder Redewendungen, die der Darstellung der Vorrichtungstopologie zugeordnet sind, enthalten.
  • Bei (306) kann das Verfahren (300) das Beeinflussen des allgemeinen Sprachmodells wenigstens teilweise basierend auf dem einen oder den mehreren Beeinflussungsbegriffen enthalten. Das Beeinflussen des allgemeinen Sprachmodells kann z. B. das Einstellen einer oder mehrerer Wahrscheinlichkeitsschätzungen des allgemeinen Sprachmodells wenigstens teilweise basierend auf den Beeinflussungsbegriffen enthalten. Insbesondere kann das Beeinflussen des allgemeinen Sprachmodells das Vergrößern der Wahrscheinlichkeitsschätzungen der Beeinflussungsbegriffe enthalten, um eine geschätzte Wahrscheinlichkeit des Auftretens der Beeinflussungsbegriffe zu vergrößern. Bei (308) kann das Verfahren (300) das Erzeugen eines personalisierten Sprachmodells wenigstens teilweise basierend auf der Beeinflussung enthalten. Das personalisierte Sprachmodell kann z. B. basierend auf dem allgemeinen Sprachmodell erzeugt werden. Das personalisierte Sprachmodell kann den gleichen Satz von Redewendungen wie das allgemeine Sprachmodell enthalten, wobei es aber die zu den Beeinflussungsbegriffen beeinflussten Wahrscheinlichkeitsschätzungen enthalten kann.
  • 6 stellt einen Ablaufplan eines beispielhaften Verfahrens (400) zum Bestimmen einer Textumschreibung einer Sprachäußerung gemäß den beispielhaften Ausführungsformen der vorliegenden Offenbarung dar. Das Verfahren (400) kann durch eine oder mehrere Computervorrichtungen, wie z. B. eine oder mehrere der in 8 dargestellten Computervorrichtungen, implementiert sein. In einigen Implementierungen kann das Verfahren (300) durch den in 1 dargestellten Umschreiber 108 implementiert sein.
  • Bei (402) kann das Verfahren (400) das Bereitstellen der eine Sprachäußerung angebenden Daten einem allgemeinen Sprachmodell enthalten. Bei (404) kann das Verfahren (400) das Bestimmen einer ersten Umschreibung der Sprachäußerung wenigstens teilweise basierend auf dem allgemeinen Sprachmodell enthalten. Die erste Umschreibung kann unter Verwendung verschiedener geeigneter Spracherkennungstechniken bestimmt werden. Bei (406) kann das Verfahren (400) das Bestimmen eines ersten Vertrauenspunktestandes der ersten Umschreibung enthalten. Der erste Vertrauenspunktestand kann eine Darstellung einer Schätzung der Genauigkeit der ersten Umschreibung der Sprachäußerung sein.
  • Bei (408) kann das Verfahren (400) das Bereitstellen der eine Sprachäußerung angebenden Daten einem personalisierten Sprachmodell enthalten. Das personalisierte Sprachmodell kann wenigstens teilweise basierend auf einer Topologie eines Netzes eines intelligenten Hauses oder des Internets der Dinge (wie sie z. B. in einer Darstellung einer Vorrichtungstopologie spezifiziert ist) bestimmt werden. Das personalisierte Sprachmodell kann z. B. das in 5 beschriebene Sprachmodell sein. Bei (410) kann das Verfahren (400) das Bestimmen einer zweiten Umschreibung der Sprachäußerung wenigstens teilweise basierend auf dem personalisierten Sprachmodell enthalten. Die zweite Umschreibung kann unter Verwendung verschiedener geeigneter Spracherkennungstechniken bestimmt werden. Bei (412) kann das Verfahren (400) das Bestimmen eines zweiten Vertrauenspunktestandes der zweiten Umschreibung enthalten. Der zweite Vertrauenspunktestand kann eine Darstellung einer Schätzung der Genauigkeit der zweiten Umschreibung der Sprachäußerung sein.
  • Bei (414) kann das Verfahren (400) das Auswählen einer zu interpretierenden Umschreibung wenigstens teilweise basierend auf den Vertrauenspunkteständen enthalten. Es kann z. B. bestimmt werden, dass die Umschreibung mit dem höheren Vertrauenspunktestand eine genauere Umschreibung der Sprachäußerung ist, wobei sie als die zu interpretierende Umschreibung ausgewählt werden kann. In einigen Implementierungen können eine oder mehrere zusätzliche Umschreibungen unter Verwendung eines oder mehrerer zusätzlicher Sprachmodelle bestimmt werden. Für die jeweiligen zusätzlichen Umschreibungen können zusätzliche Vertrauenspunktestände bestimmt werden. Die zu interpretierende Umschreibung kann wenigstens teilweise basierend auf jedem Vertrauenspunktestand ausgewählt werden.
  • 7 stellt einen Ablaufplan eines beispielhaften Verfahrens (500) zum Interpretieren einer Umschreibung einer Sprachäußerung gemäß beispielhaften Ausführungsformen der vorliegenden Offenbarung dar. Das Verfahren (500) kann durch eine oder mehrere Computervorrichtungen, wie z. B. eine oder mehrere der in 8 dargestellten Computervorrichtungen, implementiert sein. In einigen Implementierungen kann das Verfahren (300) durch den in 1 dargestellten Interpreter 110 implementiert sein.
  • Bei (502) kann das Verfahren (500) das Vergleichen der Umschreibung mit einer oder mehreren Vorrichtungskennungen, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, enthalten. Bei (504) kann das Verfahren (500) das Bestimmen enthalten, ob die ausgewählten Vorrichtungen wenigstens teilweise basierend auf den Vorrichtungskennungen bestimmt werden können. Die ausgewählten Vorrichtungen können z. B. bestimmt werden, falls eine Korrelation zwischen der Vorrichtungskennung (den Vorrichtungskennungen) und der Umschreibung hergestellt werden kann. Eine Korrelation kann hergestellt werden, falls eine oder mehrere Vorrichtungskennungen mit einem oder mehreren Begriffen in der Umschreibung übereinstimmen und/oder falls eine oder mehrere Vorrichtungskennungen zu einem oder mehreren Begriffen in der Umschreibung ausreichend ähnlich sind. In einigen Implementierungen können die ausgewählten Vorrichtungen nicht bestimmt werden, falls die Korrelationen zwischen mehreren in der Darstellung der Vorrichtungstopologie spezifizierten Vorrichtungen und der Umschreibung hergestellt werden. Falls z. B. mehrere Vorrichtungen die gleiche oder eine ähnliche Vorrichtungskennung aufweisen, können die ausgewählten Vorrichtungen nicht bestimmt werden. Falls die ausgewählte(n) Vorrichtung(en) bestimmt werden können, kann das Verfahren (500) bei (506) das Bestimmen der ausgewählten Vorrichtung(en) und der durch die ausgewählten Vorrichtungen auszuführenden Handlungen enthalten.
  • Falls die ausgewählten Vorrichtungen nicht bestimmt werden können, kann das Verfahren (500) bei (508) das Vergleichen der Umschreibung mit einem oder mehreren Vorrichtungsattributen, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, enthalten. Wie angegeben ist, können die Vorrichtungsattribute die Vorrichtungstypen und/oder eine oder mehrere Fähigkeiten der Vorrichtungen angeben. In dieser Weise können die Vorrichtungsattribute mit einem oder mehreren Begriffen in der Umschreibung verglichen werden, um eine Korrelation zwischen dem einen oder den mehreren Begriffen und den Vorrichtungsattributen zu bestimmen. Eine Korrelation der Umschreibung und eines oder mehrerer Vorrichtungsattribute kann einen Hinweis bezüglich der ausgewählten Vorrichtungen bereitstellen. Falls z. B. eine Korrelation gefunden wird, kann bestimmt werden, dass nur die Vorrichtungen, die das korrelierte Vorrichtungsattribut aufweisen, als die ausgewählte Vorrichtung ausgewählt werden sollten. In dieser Weise kann eine Korrelation es unterstützen, die Vorrichtungen beim Bestimmen der ausgewählten Vorrichtungen einzuschränken.
  • Bei (510) kann das Verfahren (500) das Bestimmen enthalten, ob die ausgewählten Vorrichtungen bestimmt werden können. Insbesondere kann das Bestimmen, ob die ausgewählten Vorrichtungen bestimmt werden können, das Bestimmen enthalten, ob die ausgewählten Vorrichtungen wenigstens teilweise basierend auf dem Vergleich der Umschreibung mit dem einen oder den mehreren Vorrichtungsattributen und/oder der einen oder den mehreren Vorrichtungskennungen bestimmt werden können. Falls die ausgewählten Vorrichtungen bestimmt werden können, kann das Verfahren (500) zu (506) zurückkehren, wobei die eine oder die mehreren auszuführenden Handlungen bestimmt werden können.
  • Falls die ausgewählten Vorrichtungen nicht bestimmt werden können, kann das Verfahren (500) bei (512) das Bestimmen eines Ortes des Anwenders bezüglich der Darstellung der Vorrichtungstopologie enthalten. Wie angegeben ist, kann in den Fällen, in denen die Steuervorrichtung eine innerhalb der Organisationstopologie der Darstellung der Vorrichtungstopologie spezifizierte Vorrichtung ist, der Ort des Anwenders dem Ort der Steuervorrichtung innerhalb der Darstellung der Vorrichtungstopologie entsprechen. In den Fällen, in denen die Steuervorrichtung nicht innerhalb der Darstellung der Vorrichtungstopologie spezifiziert ist, kann der Anwenderort basierend auf verschiedenen geeigneten Ortsbestimmungstechniken, wie z. B. Techniken unter Verwendung drahtloser Zugangspunkte und/oder Bakenvorrichtungen, bestimmt werden. Ein derartiger bestimmter Anwenderort kann dann auf eine Struktur und einen Raum, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, abgebildet werden.
  • Bei (514) kann das Verfahren (500) das Vergleichen des relativen Anwenderorts mit der in der Darstellung der Vorrichtungstopologie spezifizierten Vorrichtungstopologie enthalten. Der Ort des Anwenders innerhalb der Struktur kann z. B. mit den Vorrichtungen, die diesem Ort zugeordnet sind, wie es in der Darstellung der Vorrichtungstopologie spezifiziert ist, verglichen werden. In dieser Weise kann gefolgert werden, dass die ausgewählten Vorrichtungen Vorrichtungen sind, die sich in dem Raum befinden, in dem sich der Anwender befindet. Falls die Umschreibung z. B. ”schalte die Leuchten ein” lautet, können die Vorrichtungen, die sich in dem Raum befinden, in dem sich der Anwender befindet, analysiert werden, um eine oder mehrere Beleuchtungsvorrichtungen zu identifizieren, die diesem Raum zugeordnet sind. In dieser Weise kann gefolgert werden, dass die Vorrichtung, die als die ausgewählten Vorrichtungen ausgewählt werden, Beleuchtungsvorrichtungen sein sollten, die sich in dem Raum befinden, in dem sich der Anwender gegenwärtig befindet.
  • Bei (516) kann das Verfahren (500) das Bestimmen enthalten, ob die ausgewählten Vorrichtungen bestimmt werden können. Insbesondere kann das Bestimmen, ob die ausgewählten Vorrichtungen bestimmt werden können, das Bestimmen enthalten, ob die ausgewählten Vorrichtungen wenigstens teilweise basierend auf dem Vergleich der Umschreibung mit dem einen oder den mehreren Vorrichtungsattributen, der einen oder den mehreren Vorrichtungskennungen und/oder dem relativen Anwenderort bestimmt werden können. Falls die ausgewählten Vorrichtungen bestimmt werden können, kann das Verfahren (500) das Zurückkehren zu (506) enthalten, wobei die auszuführenden Handlungen bestimmt werden können. Falls die ausgewählten Vorrichtungen nicht bestimmt werden können, kann das Verfahren (500) bei (518) das Anfordern weiterer Informationen von dem Anwender enthalten. Dem Anwender kann z. B. in einer Anwenderschnittstelle der Steuervorrichtung oder einer anderen geeigneten Vorrichtung eine Aufforderung dargestellt werden, die den Anwender bezüglich weiterer Informationen hinsichtlich des Sprachbefehls fragt.
  • Es wird erkannt, dass in verschiedenen Fällen die ausgewählten Vorrichtungen und/oder die auszuführenden Handlungen wenigstens teilweise basierend auf den Vorrichtungskennungen und/oder den Vorrichtungsattributen und/oder dem relativen Anwenderort bestimmt werden können. In dieser Weise kann auf verschiedene Daten, die dem Anwender und/oder der Darstellung der Vorrichtungstopologie zugeordnet sind, zugegriffen werden und/oder können verschiedene Daten, die dem Anwender und/oder der Darstellung der Vorrichtungstopologie zugeordnet sind, bestimmt werden, um die eine oder die mehreren ausgewählten Vorrichtungen, die der Sprachäußerung zugeordnet sind, zu bestimmen oder zu folgern. In Abhängigkeit von der Umschreibung und der speziellen Organisation der Darstellung der Vorrichtungstopologie können verschiedene geeignete Kombinationen der Faktoren, auf die oben hingewiesen worden ist, verwendet werden, um die ausgewählten Vorrichtungen und/oder die auszuführenden Handlungen zu bestimmen. In dieser Weise wird erkannt, dass verschiedene Aspekte der Darstellung der Vorrichtungstopologie und/oder des Anwenderortes in verschiedenen Weisen verwendet werden können, um die ausgewählten Vorrichtungen und/oder die auszuführenden Handlungen zu bestimmen.
  • 8 stellt ein beispielhaftes Computersystem 700 dar, das verwendet werden kann, um die Verfahren und Systeme gemäß den beispielhaften Aspekten der vorliegenden Offenbarung zu implementieren. Das System 700 kann unter Verwendung einer Client-Server-Architektur implementiert sein, die einen Server 710 enthält, der über ein Netz 740 mit einer oder mehreren Client-Vorrichtungen 730 kommuniziert. Das System 700 kann unter Verwendung anderer geeigneter Architekturen, wie z. B. einer einzigen Computervorrichtung, implementiert sein.
  • Das System 700 enthält einen Server 710, wie z. B. einen Web-Server. Der Server 710 kann unter Verwendung irgendeiner geeigneten Computervorrichtung (irgendwelcher geeigneter Computervorrichtungen) implementiert sein. Der Server 710 kann einen oder mehrere Prozessoren 712 und eine oder mehrere Speichervorrichtungen 714 aufweisen. Der Server 710 kann außerdem eine Netzschnittstelle enthalten, die verwendet wird, um über das Netz 740 mit einer oder mehreren Client-Vorrichtungen 730 zu kommunizieren. Die Netzschnittstelle kann irgendwelche geeigneten Komponenten enthalten, um mit einem oder mehreren Netzen eine Schnittstelle zu bilden, einschließlich z. B. Sendern, Empfängern, Ports, Controllern, Antennen oder anderen geeigneten Komponenten.
  • Der eine oder die mehreren Prozessoren 712 können irgendeine geeignete Verarbeitungsvorrichtung, wie z. B. einen Mikroprozessor, einen Mikrocontroller, eine integrierte Schaltung, eine Logikvorrichtung oder eine andere geeignete Verarbeitungsvorrichtung, enthalten. Die eine oder die mehreren Speichervorrichtungen 714 können ein oder mehrere computerlesbare Medien, einschließlich nichttransitorischer computerlesbarer Medien, RAM, ROM, Festplattenlaufwerken, Flash-Laufwerken oder anderen Speichervorrichtungen, aber nicht eingeschränkt auf diese, enthalten. Die eine oder die mehreren Speichervorrichtungen 714 können Informationen speichern, die durch den einen oder die mehreren Prozessoren 712 zugänglich sind, einschließlich computerlesbarer Anweisungen 716, die durch den einen oder die mehreren Prozessoren 712 ausgeführt werden können. Die Anweisungen 716 können irgendein Satz von Anweisungen sein, die, wenn sie durch den einen oder die mehreren Prozessoren 712 ausgeführt werden, den einen oder die mehreren Prozessoren 712 veranlassen, Operationen auszuführen. Die Anweisungen 716 können z. B. durch den einen oder die mehreren Prozessoren 712 ausgeführt werden, um die Beeinflussungseinrichtung 106, den Umschreiber 108, den Interpreter 110 oder den Befehlsgenerator 112, die bezüglich 1 beschrieben worden sind, zu implementieren.
  • Wie in 8 gezeigt ist, können die eine oder die mehreren Speichervorrichtungen 714 außerdem Daten 718 speichern, die durch den einen oder die mehreren Prozessoren 712 wiedergewonnen, beeinflusst, erzeugt oder gespeichert werden können. Die Daten 718 können z. B. Sprachmodelldaten, Daten der Darstellung der Vorrichtungstopologie und andere Daten enthalten. Die Daten 718 können in einer oder mehreren Datenbanken gespeichert sein. Die eine oder die mehreren Datenbanken können durch ein LAN oder ein WAN mit hoher Bandbreite mit dem Server 710 verbunden sein oder können außerdem durch das Netz 740 mit dem Server 710 verbunden sein. Die eine oder die mehreren Datenbanken können aufgeteilt sein, so dass sie sich an mehreren Örtlichkeiten befinden.
  • Der Server 710 kann über das Netz 740 Daten mit einer oder mehreren Client-Vorrichtungen 730 austauschen. Über das Netz 740 kann irgendeine Anzahl von Client-Vorrichtungen 730 mit dem Server 710 verbunden sein. Eine oder mehrere der Client-Vorrichtungen 730 können eine intelligente Vorrichtung sein, die konfiguriert ist, um Hausautomatisierungsdienste, intelligente Hausdienste, Dienste des Internets der Dinge und/oder andere geeignete Dienste bereitzustellen. Die intelligenten Vorrichtungen können ein Klimatisierungssystem, eine Beleuchtungsvorrichtung, ein Heimkino- und Unterhaltungssystem, ein Sicherheitssystem, ein automatisches Türverriegelungssystem, eine Thermostatvorrichtung, ein Heimautomatisierungssystem, einen Lautsprecher, eine Kameravorrichtung, ein Laufband, eine Waage, ein intelligentes Bett, ein Bewässerungssystem, einen Garagentüröffner, ein Haushaltsgerät, ein Babyphon, einen Brandmelder und/oder eine andere geeignete Vorrichtung oder ein anderes geeignetes System enthalten oder diesen zugeordnet sein. Eine oder mehrere der Client-Vorrichtungen können außerdem eine Anwender-Computervorrichtung, wie z. B. ein Universalcomputer, ein Spezialcomputer, ein Laptop, ein Desktop, eine Mobilvorrichtung, ein Navigationssystem, ein Smartphone, ein Tablet, eine tragbare Computervorrichtung, eine Anzeige mit einem oder mehreren Prozessoren oder eine andere geeignete Computervorrichtung, sein.
  • Ähnlich zu dem Server 710 kann eine Client-Vorrichtung 730 einen oder mehrere Prozessoren 732 und einen Speicher 734 enthalten. Der eine oder die mehreren Prozessoren 732 können eine oder mehrere Zentraleinheiten (CPUs), Graphikverarbeitungseinheiten (GPUs), die dediziert sind, um Bilder effizient wiederzugeben oder andere spezialisierte Berechnungen auszuführen, und/oder andere Verarbeitungsvorrichtungen enthalten. Der Speicher 734 kann ein oder mehrere computerlesbare Medien enthalten und kann Informationen, die durch den einen oder die mehreren Prozessoren 732 zugänglich sind, einschließlich der Anweisungen 736, die durch den einen oder die mehreren Prozessoren 732 ausgeführt werden können, und der Daten 738 speichern. Der Speicher 734 kann z. B. die Anweisungen 736 zum Implementieren einer Anwenderschnittstelle speichern.
  • Die Client-Vorrichtung 730 nach 8 kann verschiedene Eingabe-/Ausgabevorrichtungen 737 zum Bereitstellen und Empfangen von Informationen von einem Anwender, wie z. B. einen Berührungsschirm, ein Touchpad, Dateneingabetasten, Lautsprecher und/oder ein für die Spracherkennung geeignetes Mikrophon, enthalten. Die Client-Vorrichtung 730 kann z. B. eine Anzeigevorrichtung 735 zum Darstellen einer Anwenderschnittstelle gemäß beispielhaften Aspekten der vorliegenden Offenbarung aufweisen.
  • Die Client-Vorrichtung 730 kann außerdem eine Netzschnittstelle enthalten, die verwendet wird, um über das Netz 740 mit einer oder mehreren entfernten Computervorrichtungen (z. B. dem Server 710) zu kommunizieren. Die Netzschnittstelle kann irgendwelche geeigneten Komponenten enthalten, um mit einem oder mehreren Netzen eine Schnittstelle zu bilden, einschließlich z. B. Sendern, Empfängern, Ports, Controllern, Antennen oder anderen geeigneten Komponenten.
  • Das Netz 740 kann irgendein Typ eines Kommunikationsnetzes, wie z. B. ein lokales Netz (z. B. ein Intranet), ein Weitbereichsnetz (z. B. das Internet), ein Zellennetz oder irgendeine Kombination daraus, sein. Das Netz 740 kann außerdem eine direkte Verbindung zwischen einer Client-Vorrichtung 730 und dem Server 710 enthalten. Im Allgemeinen kann die Kommunikation zwischen dem Server 710 und einer Client-Vorrichtung 730 unter Verwendung irgendeines Typs einer verdrahteten und/oder drahtlosen Verbindung, unter Verwendung verschiedener Kommunikationsprotokolle (z. B. TCP/IP, HTTP, SMTP, FTP), Codierungen oder Formate (z. B. HTML, XML) und/oder Schutzschemata (z. B. VPN, sicheres HTTP, SSL) über eine Netzschnittstelle ausgeführt werden.
  • Ein beispielhafter Aspekt der vorliegenden Offenbarung ist auf ein computerimplementiertes Verfahren zum Verarbeiten von Sprachäußerungen gerichtet. Das Verfahren kann das Empfangen durch eine oder mehrere Computervorrichtungen von Daten, die eine Sprachäußerung angeben, enthalten. Die Sprachäußerung kann durch einen Anwender einer Steuervorrichtung bereitgestellt worden sein. Das Verfahren kann das Zugreifen durch die eine oder die mehreren Computervorrichtungen auf eine Darstellung einer Vorrichtungstopologie enthalten. Die Darstellung der Vorrichtungstopologie kann mehrere intelligente Vorrichtungen, die einer oder mehreren Strukturen zugeordnet sind, definieren. Die Darstellung der Vorrichtungstopologie kann ferner einen Ort jeder der mehreren Vorrichtungen und der Steuervorrichtung innerhalb der zugeordneten Strukturen definieren. Das Verfahren kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer Handlungen, die durch die eine oder die mehreren ausgewählten Vorrichtungen auszuführen sind, wenigstens teilweise basierend auf den Daten, die die Sprachäußerung angeben, und ferner wenigstens teilweise basierend auf dem Ort der Steuervorrichtung innerhalb der zugeordneten Struktur, wie sie durch die Darstellung der Vorrichtungstopologie definiert ist, enthalten.
  • In einigen Implementierungen kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen enthalten: Identifizieren durch die eine oder die mehreren Computervorrichtungen einer Teilmenge der mehreren Vorrichtungen, die den gleichen Ort wie die Steuervorrichtung teilen; und Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen aus der identifizierten Teilmenge der mehreren Vorrichtungen.
  • In einigen Implementierungen kann die Darstellung der Vorrichtungstopologie einen oder mehrere Räume innerhalb jeder der einen oder der mehreren Strukturen definieren. Der Ort jeder der mehreren Vorrichtungen und der Steuervorrichtung, der durch die Darstellung der Vorrichtungstopologie definiert ist, kann jeweils wenigstens einem des einen oder der mehreren Räume entsprechen.
  • In einigen Implementierungen kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen enthalten: Identifizieren durch die eine oder die mehreren Computervorrichtungen einer Teilmenge der mehreren Vorrichtungen, die sich in demselben Raum wie die Steuervorrichtung befinden; und Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen aus der identifizierten Teilmenge der mehreren Vorrichtungen.
  • In einigen Implementierungen kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen aus der identifizierten Teilmenge der mehreren Vorrichtungen enthalten: Identifizieren durch die eine oder die mehreren Computervorrichtungen eines oder mehrerer Vorrichtungsattribute, auf die durch die Sprachäußerung verwiesen wird; und Identifizieren durch die eine oder die mehreren Computervorrichtungen, welche der Teilmengen der mehreren Vorrichtungen das eine oder die mehreren Vorrichtungsattribute aufweist.
  • In einigen Implementierungen ist die Steuervorrichtung eine von mehreren Vorrichtungen.
  • In einigen Implementierungen kann die Darstellung der Vorrichtungstopologie eine oder mehrere Vorrichtungskennungen und ein oder mehrere Vorrichtungsattribute für jede der mehreren Vorrichtungen spezifizieren.
  • In einigen Implementierungen kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen und der einen oder der mehreren Handlungen das Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen und der einen oder der mehreren Handlungen wenigstens teilweise basierend auf einer der einen oder der mehreren Vorrichtungskennungen, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, enthalten.
  • In einigen Implementierungen kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen und der einen oder der mehreren Handlungen das Bestimmen durch die eine oder die mehreren Computervorrichtungen der einen oder der mehreren ausgewählten Vorrichtungen und der einen oder der mehreren Handlungen wenigstens teilweise basierend auf einem des einen oder der mehreren Vorrichtungsattribute, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, enthalten.
  • In einigen Implementierungen kann das Verfahren ferner das Bestimmen durch die eine oder die mehreren Computervorrichtungen eines oder mehrerer Steuerbefehle wenigstens teilweise basierend auf der einen oder den mehreren ausgewählten Vorrichtungen und der einen oder den mehreren ausgewählten Handlungen enthalten, wobei der eine oder die mehreren Steuerbefehle jeweils die eine oder die mehreren ausgewählten Vorrichtungen anweisen, die eine oder die mehreren Handlungen auszuführen. In einigen Implementierungen kann das Verfahren ferner das Bereitstellen durch die eine oder die mehreren Computervorrichtungen des einen oder der mehreren Steuerbefehle für die eine oder die mehreren ausgewählten Vorrichtungen enthalten.
  • In einigen Implementierungen können die eine oder die mehreren Computervorrichtungen, die das Verfahren ausführen, aus der Steuervorrichtung bestehen.
  • Ein weiterer beispielhafter Aspekt der vorliegenden Offenbarung ist auf ein Computersystem gerichtet, das einen oder mehrere Prozessoren und eine oder mehrere Speichervorrichtungen enthält. Die eine oder die mehreren Speichervorrichtungen können computerlesbare Anweisungen speichern, die, wenn sie durch den einen oder die mehreren Prozessoren ausgeführt werden, den einen oder die mehreren Prozessoren veranlassen, Operationen auszuführen. Die Operationen können das Empfangen von Daten, die eine Sprachäußerung angeben, enthalten. Die Sprachäußerung kann durch einen Anwender einer Steuervorrichtung bereitgestellt worden sein. Die Operationen können das Zugreifen auf eine Darstellung einer Vorrichtungstopologie enthalten. Die Darstellung der Vorrichtungstopologie kann mehrere intelligente Vorrichtungen, die einer oder mehreren Strukturen zugeordnet sind, definieren. Die Darstellung der Vorrichtungstopologie kann ferner einen Ort jeder der mehreren Vorrichtungen und der Steuervorrichtung innerhalb der zugeordneten Strukturen definieren. Die Operationen können das Bestimmen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer Handlungen, die durch die eine oder die mehreren ausgewählten Vorrichtungen auszuführen sind, wenigstens teilweise basierend auf den Daten, die die Sprachäußerung angeben, und ferner wenigstens teilweise basierend auf dem Ort der Steuervorrichtung innerhalb der zugeordneten Struktur, wie er durch die Darstellung der Vorrichtungstopologie definiert ist, enthalten.
  • In einigen Implementierungen kann das Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen enthalten: Identifizieren einer Teilmenge der mehreren Vorrichtungen, die den gleichen Ort wie die Steuervorrichtung teilen; und Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen aus der identifizierten Teilmenge der mehreren Vorrichtungen.
  • In einigen Implementierungen kann die Darstellung der Vorrichtungstopologie einen oder mehrere Räume innerhalb jeder der einen oder der mehreren Strukturen definieren. Der Ort jeder der mehreren Vorrichtungen und der Steuervorrichtung, der durch die Darstellung der Vorrichtungstopologie definiert ist, kann jeweils wenigstens einem des einen oder der mehreren Räume entsprechen.
  • In einigen Implementierungen kann das Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen enthalten: Identifizieren einer Teilmenge der mehreren Vorrichtungen, die sich in demselben Raum wie die Steuervorrichtung befinden; und Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen aus der identifizierten Teilmenge der mehreren Vorrichtungen.
  • In einigen Implementierungen kann das Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen aus der identifizierten Teilmenge der mehreren Vorrichtungen enthalten: Identifizieren eines oder mehrerer Vorrichtungsattribute, auf die durch die Sprachäußerung hingewiesen wird; und Identifizieren, welche der Teilmengen der mehreren Vorrichtungen das eine oder die mehreren Vorrichtungsattribute aufweist.
  • In einigen Implementierungen können die Operationen ferner enthalten: Bestimmen eines oder mehrerer Steuerbefehle wenigstens teilweise basierend auf der einen oder den mehreren ausgewählten Vorrichtungen und der einen oder den mehreren Handlungen, wobei der eine oder die mehreren Steuerbefehle jeweils die eine oder die mehreren ausgewählten Vorrichtungen anweisen, die eine oder die mehreren Handlungen auszuführen; und Bereitstellen des einen oder der mehreren Steuerbefehle der einen oder den mehreren ausgewählten Vorrichtungen.
  • In einigen Implementierungen kann das Computersystem die Steuervorrichtung enthalten, wobei die Steuervorrichtung den einen oder die mehreren Prozessoren und die eine oder die mehreren Speichervorrichtungen enthalten kann.
  • Ein weiterer beispielhafter Aspekt der vorliegenden Offenbarung ist auf ein computerimplementiertes Verfahren gerichtet. Das Verfahren kann das Erhalten durch eine oder mehrere Computervorrichtungen einer Darstellung einer Vorrichtungstopologie enthalten, die einen jeweiligen Ort für jede von mehreren Vorrichtungen, die in der Darstellung der Vorrichtungstopologie enthalten sind, beschreibt. Die mehreren Vorrichtungen können eine oder mehrere Steuervorrichtungen enthalten. Das Verfahren kann das Erhalten durch die eine oder die mehreren Computervorrichtungen einer Sprachäußerung enthalten. Das Verfahren kann das Identifizieren durch die eine oder die mehreren Computervorrichtungen einer ersten Steuervorrichtung der einen oder der mehreren Steuervorrichtungen, der die Sprachäußerung durch einen Anwender bereitgestellt wurde, enthalten. Das Verfahren kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen einer Teilmenge der mehreren Vorrichtungen, die durch die Darstellung der Vorrichtungstopologie als den gleichen Ort wie die erste Steuervorrichtung, der die Sprachäußerung bereitgestellt wurde, aufweisend beschrieben werden, enthalten. Das Verfahren kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen einer oder mehrerer ausgewählter Vorrichtungen aus der Teilmenge der mehreren Vorrichtungen wenigstens teilweise basierend auf den Daten, die die Sprachäußerung angeben, enthalten.
  • In einigen Implementierungen kann die Darstellung der Vorrichtungstopologie einen speziellen Raum für jede der mehreren Vorrichtungen spezifizieren. In einigen Implementierungen kann das Bestimmen durch die eine oder die mehreren Computervorrichtungen einer Teilmenge der mehreren Vorrichtungen das Identifizieren durch die eine oder die mehreren Computervorrichtungen der Teilmenge der mehreren Vorrichtungen, für die die Darstellung der Vorrichtungstopologie denselben Raum wie für die erste Steuervorrichtung, der die Sprachäußerung bereitgestellt wurde, spezifiziert, enthalten.
  • In einigen Implementierungen können die eine oder die mehreren Computervorrichtungen aus der ersten Steuervorrichtung bestehen, so dass die erste Steuervorrichtung das computerimplementierte Verfahren ausführt. In einigen Implementierungen können die mehreren Vorrichtungen mehrere Steuervorrichtungen enthalten. In einigen Implementierungen können die mehreren Steuervorrichtungen jeweils mehreren Orten zugeordnet sein. Die mehreren Steuervorrichtungen können z. B. jeweils mehreren Räumen zugeordnet sein.
  • Die hier erörterte Technik nimmt sowohl auf Server, Datenbanken, Software-Anwendungen und andere computerbasierte Systeme als auch auf ausgeführte Handlungen und an derartige Systeme und von derartigen Systemen gesendete Informationen Bezug. Ein Durchschnittsfachmann auf dem Gebiet erkennt, dass die inhärente Flexibilität computerbasierter Systeme eine große Vielfalt möglicher Konfigurationen, Kombinationen und Unterteilungen der Aufgaben und der Funktionalität zwischen und unter den Komponenten ermöglicht. Die hier erörterten Server-Prozesse können z. B. unter Verwendung eines einzigen Servers oder mehrerer Server, die in Kombination arbeiten, implementiert sein. Die Datenbanken und die Anwendungen können in einem einzigen System oder über mehrere Systeme verteilt implementiert sein. Die verteilten Komponenten können sequentiell oder parallel arbeiten.
  • Während der vorliegende Gegenstand bezüglich seiner spezifischen beispielhaften Ausführungsformen ausführlich beschrieben worden ist, wird erkannt, dass die Fachleute auf dem Gebiet beim Erreichen eines Verständnisses des Vorhergehenden leicht Änderungen an den, Variationen der und Äquivalente der derartigen Ausführungsformen erzeugen können. Entsprechend ist der Schutzumfang der vorliegenden Offenbarung beispielhaft anstatt zur Einschränkung, wobei die Offenbarung des Gegenstands die Einbeziehung derartiger Modifikationen, Variationen und/oder Ergänzungen an dem vorliegenden Gegenstand nicht ausschließt, wie durch einen Durchschnittsfachmann auf dem Gebiet leicht erkannt würde.

Claims (10)

  1. Computersystem, das umfasst: einen oder mehrere Prozessoren; und eine oder mehrere Speichervorrichtungen, wobei die eine oder die mehreren Speichervorrichtungen computerlesbare Anweisungen speichern, die, wenn sie durch den einen oder die mehreren Prozessoren ausgeführt werden, den einen oder die mehreren Prozessoren veranlassen, Operationen auszuführen, wobei die Operationen umfassen: Empfangen von Daten, die eine Sprachäußerung angeben, wobei die Sprachäußerung durch einen Anwender einer Steuervorrichtung bereitgestellt wird; Zugreifen auf eine Darstellung einer Vorrichtungstopologie, wobei die Darstellung der Vorrichtungstopologie mehrere intelligente Vorrichtungen definiert, die einer oder mehreren Strukturen zugeordnet sind, wobei die Darstellung der Vorrichtungstopologie ferner einen Ort jeder der mehreren Vorrichtungen innerhalb der zugeordneten Strukturen definiert; Bestimmen einer Umschreibung der Sprachäußerung wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie; und Bestimmen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer durch die eine oder die mehreren ausgewählten Vorrichtungen auszuführenden Handlungen wenigstens teilweise basierend auf der bestimmten Umschreibung und der Darstellung der Vorrichtungstopologie.
  2. Computersystem nach Anspruch 1, wobei das Bestimmen einer Umschreibung der Sprachäußerung das Beeinflussen eines allgemeinen Sprachmodells wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie und das Bestimmen der Umschreibung wenigstens teilweise basierend auf dem Beeinflussen umfasst.
  3. Computersystem nach Anspruch 1 oder Anspruch 2, wobei die Operationen ferner umfassen: Bestimmen eines Orts des Anwenders wenigstens teilweise basierend auf einem Ort der Steuervorrichtung.
  4. Computersystem nach Anspruch 3, wobei der dem Anwender zugeordnete Ort wenigstens teilweise basierend auf einem Ort der Steuervorrichtung, wie er in der Darstellung der Vorrichtungstopologie spezifiziert ist, bestimmt wird.
  5. Computersystem nach Anspruch 3 oder Anspruch 4, wobei das Bestimmen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer Handlungen das Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen und der einen oder der mehreren Handlungen wenigstens teilweise basierend auf dem Ort, der dem Anwender zugeordnet ist, bezüglich der Orte einer oder mehrerer Vorrichtungen, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, umfasst.
  6. Computersystem nach einem der Ansprüche 1 bis 5, wobei die Darstellung der Vorrichtungstopologie einen oder mehrere Räume innerhalb jeder der einen oder der mehreren Strukturen definiert und wobei der Ort jeder der mehreren Vorrichtungen wenigstens einem des einen oder der mehreren Räume entspricht.
  7. Ein oder mehrere greifbare, nichttransitorische computerlesbare Medien, die computerlesbare Anweisungen speichern, die, wenn sie durch einen oder mehrere Prozessoren ausgeführt werden, den einen oder die mehreren Prozessoren veranlassen, Operationen auszuführen, wobei die Operationen umfassen: Empfangen von Daten, die eine Sprachäußerung angeben, wobei die Sprachäußerung durch einen Anwender einer Steuervorrichtung bereitgestellt wird; Zugreifen auf eine Darstellung einer Vorrichtungstopologie, wobei die Darstellung der Vorrichtungstopologie mehrere intelligente Vorrichtungen definiert, die einer oder mehreren Strukturen zugeordnet sind, wobei die Darstellung der Vorrichtungstopologie ferner einen Ort jeder der mehreren Vorrichtungen innerhalb der zugeordneten Strukturen definiert; Bestimmen einer Umschreibung der Sprachäußerung wenigstens teilweise basierend auf der Darstellung der Vorrichtungstopologie; und Bestimmen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer durch die eine oder die mehreren ausgewählten Vorrichtungen auszuführenden Handlungen wenigstens teilweise basierend auf der bestimmten Umschreibung und der Darstellung der Vorrichtungstopologie.
  8. Ein oder mehrere greifbare, nichttransitorische computerlesbare Medien nach Anspruch 7, wobei die Darstellung der Vorrichtungstopologie eine oder mehrere Vorrichtungskennungen und ein oder mehrere Vorrichtungsattribute für jede intelligente Vorrichtung spezifiziert.
  9. Ein oder mehrere greifbare, nichttransitorische computerlesbare Medien nach Anspruch 8, wobei das Bestimmen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer Handlungen das Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen und der einen oder der mehreren Handlungen wenigstens teilweise basierend auf wenigstens einer der einen oder der mehreren Vorrichtungskennungen, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, umfasst.
  10. Ein oder mehrere greifbare, nichttransitorische computerlesbare Medien nach Anspruch 8 oder Anspruch 9, wobei das Bestimmen durch die eine oder die mehreren Computervorrichtungen einer oder mehrerer ausgewählter Vorrichtungen und einer oder mehrerer Handlungen das Bestimmen der einen oder der mehreren ausgewählten Vorrichtungen und der einen oder der mehreren Handlungen wenigstens teilweise basierend auf einem des einen oder der mehreren Vorrichtungsattribute, die in der Darstellung der Vorrichtungstopologie spezifiziert sind, umfasst.
DE202017105942.1U 2016-10-03 2017-09-28 Verarbeiten von Sprachbefehlen basierend auf der Vorrichtungstopologie Active DE202017105942U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662403441P 2016-10-03 2016-10-03
US62/403,441 2016-10-03

Publications (1)

Publication Number Publication Date
DE202017105942U1 true DE202017105942U1 (de) 2018-01-10

Family

ID=60043351

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102017122644.3A Pending DE102017122644A1 (de) 2016-10-03 2017-09-28 Verarbeiten von Sprachbefehlen basierend auf der Vorrichtungstopologie
DE202017105942.1U Active DE202017105942U1 (de) 2016-10-03 2017-09-28 Verarbeiten von Sprachbefehlen basierend auf der Vorrichtungstopologie

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102017122644.3A Pending DE102017122644A1 (de) 2016-10-03 2017-09-28 Verarbeiten von Sprachbefehlen basierend auf der Vorrichtungstopologie

Country Status (8)

Country Link
US (3) US10699707B2 (de)
EP (1) EP3507798A1 (de)
JP (2) JP6683893B2 (de)
KR (2) KR102095514B1 (de)
CN (2) CN113140218A (de)
DE (2) DE102017122644A1 (de)
GB (2) GB2557404B (de)
WO (1) WO2018067350A1 (de)

Families Citing this family (148)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US9811314B2 (en) 2016-02-22 2017-11-07 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US9820039B2 (en) 2016-02-22 2017-11-14 Sonos, Inc. Default playback devices
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US9743204B1 (en) 2016-09-30 2017-08-22 Sonos, Inc. Multi-orientation playback device microphones
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) * 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US10785562B1 (en) * 2017-12-08 2020-09-22 Verily Life Sciences Llc Position-aware recording devices able to provide context to speech
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US10798053B2 (en) * 2017-12-30 2020-10-06 Intel Corporation Alias-based time-limited lease addressing for internet of things devices
US20190235831A1 (en) * 2018-01-31 2019-08-01 Amazon Technologies, Inc. User input processing restriction in a speech processing system
WO2019152722A1 (en) 2018-01-31 2019-08-08 Sonos, Inc. Device designation of playback and network microphone device arrangements
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11145299B2 (en) * 2018-04-19 2021-10-12 X Development Llc Managing voice interface devices
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
CN108646580A (zh) * 2018-05-14 2018-10-12 中兴通讯股份有限公司 控制对象的确定方法及装置、存储介质、电子装置
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10867609B2 (en) * 2018-05-18 2020-12-15 Sorenson Ip Holdings, Llc Transcription generation technique selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US10978046B2 (en) * 2018-10-15 2021-04-13 Midea Group Co., Ltd. System and method for customizing portable natural language processing interface for appliances
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
EP3654249A1 (de) 2018-11-15 2020-05-20 Snips Erweiterte konvolutionen und takt zur effizienten schlüsselwortauffindung
WO2020117302A1 (en) 2018-12-03 2020-06-11 Google Llc Efficient control and/or linking of smart devices
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11176928B2 (en) 2019-10-15 2021-11-16 Google Llc Efficient and low latency automated assistant control of smart devices
WO2021075774A1 (en) * 2019-10-16 2021-04-22 Samsung Electronics Co., Ltd. Method for controlling iot device and electronic device therefor
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US20210158803A1 (en) * 2019-11-21 2021-05-27 Lenovo (Singapore) Pte. Ltd. Determining wake word strength
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11810578B2 (en) 2020-05-11 2023-11-07 Apple Inc. Device arbitration for digital assistant-based intercom systems
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11508380B2 (en) * 2020-05-26 2022-11-22 Apple Inc. Personalized voices for text messaging
US20230261897A1 (en) * 2020-07-14 2023-08-17 Lg Electronics Inc. Display device
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
CN112102826A (zh) * 2020-08-31 2020-12-18 南京创维信息技术研究院有限公司 一种控制语音设备多端唤醒的系统和方法
US20220131718A1 (en) * 2020-10-25 2022-04-28 Dizmo Ag System and method for controlling devices
US11514109B2 (en) 2020-10-29 2022-11-29 Google Llc Inferring semantic label(s) for assistant device(s) based on device-specific signal(s)
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
CN112860827B (zh) * 2021-01-15 2024-04-30 北京小米移动软件有限公司 设备间交互控制方法、设备间交互控制装置及存储介质
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319045A (ja) 2000-05-11 2001-11-16 Matsushita Electric Works Ltd 音声マンマシンインタフェースを用いたホームエージェントシステム、及びプログラム記録媒体
JP4086280B2 (ja) * 2002-01-29 2008-05-14 株式会社東芝 音声入力システム、音声入力方法及び音声入力プログラム
JP4706893B2 (ja) * 2004-01-07 2011-06-22 ソニー株式会社 音声認識装置および方法、並びに、プログラムおよび記録媒体
CN101326571B (zh) * 2005-12-07 2012-05-23 三菱电机株式会社 声音识别装置
JP2009042298A (ja) * 2007-08-06 2009-02-26 Panasonic Electric Works Co Ltd 音声による機器制御装置
JP2010078877A (ja) * 2008-09-25 2010-04-08 Pioneer Electronic Corp 音声認識装置、音声認識方法及び音声認識プログラム
US8537753B2 (en) 2011-03-21 2013-09-17 Broadcom Corporation In-house location based services
US20130073293A1 (en) * 2011-09-20 2013-03-21 Lg Electronics Inc. Electronic device and method for controlling the same
US20130238326A1 (en) 2012-03-08 2013-09-12 Lg Electronics Inc. Apparatus and method for multiple device voice control
US8831957B2 (en) * 2012-08-01 2014-09-09 Google Inc. Speech recognition models based on location indicia
US10593326B2 (en) * 2013-04-25 2020-03-17 Sensory, Incorporated System, method, and apparatus for location-based context driven speech recognition
US10089976B2 (en) * 2013-10-14 2018-10-02 Honeywell International Inc. Building automation systems with voice control
US9930519B2 (en) * 2013-11-21 2018-03-27 Samsung Electronics Co., Ltd. Method and apparatus for controlling home devices on group basis based upon history of the home devices
US9698999B2 (en) 2013-12-02 2017-07-04 Amazon Technologies, Inc. Natural language control of secondary device
US9286892B2 (en) * 2014-04-01 2016-03-15 Google Inc. Language modeling in speech recognition
US9661058B2 (en) * 2014-08-10 2017-05-23 Belkin International Inc. Grouping of network devices
US20160164748A1 (en) * 2014-12-04 2016-06-09 Belkin International, Inc. Identifying and resolving network device rule conflicts and recursive operations at a network device
US9812126B2 (en) * 2014-11-28 2017-11-07 Microsoft Technology Licensing, Llc Device arbitration for listening devices
US10453461B1 (en) * 2015-03-17 2019-10-22 Amazon Technologies, Inc. Remote execution of secondary-device drivers
US20170032783A1 (en) * 2015-04-01 2017-02-02 Elwha Llc Hierarchical Networked Command Recognition
US9691380B2 (en) * 2015-06-15 2017-06-27 Google Inc. Negative n-gram biasing
US9576578B1 (en) * 2015-08-12 2017-02-21 Google Inc. Contextual improvement of voice query recognition
CN105575386B (zh) 2015-12-18 2019-07-30 百度在线网络技术(北京)有限公司 语音识别方法和装置
US9892732B1 (en) * 2016-08-12 2018-02-13 Paypal, Inc. Location based voice recognition system

Also Published As

Publication number Publication date
KR20220074984A (ko) 2022-06-03
GB201715844D0 (en) 2017-11-15
JP6959384B2 (ja) 2021-11-02
KR20190042098A (ko) 2019-04-23
GB202000173D0 (en) 2020-02-19
JP6683893B2 (ja) 2020-04-22
US20200286482A1 (en) 2020-09-10
GB2557404B (en) 2019-01-09
CN107895574B (zh) 2021-04-20
US20180096683A1 (en) 2018-04-05
DE102017122644A1 (de) 2018-04-05
CN113140218A (zh) 2021-07-20
EP3507798A1 (de) 2019-07-10
GB2557404A (en) 2018-06-20
US20230186915A1 (en) 2023-06-15
CN107895574A (zh) 2018-04-10
KR102095514B1 (ko) 2020-03-31
KR20200035476A (ko) 2020-04-03
JP2019536072A (ja) 2019-12-12
JP2020126248A (ja) 2020-08-20
US10699707B2 (en) 2020-06-30
WO2018067350A1 (en) 2018-04-12

Similar Documents

Publication Publication Date Title
DE202017105942U1 (de) Verarbeiten von Sprachbefehlen basierend auf der Vorrichtungstopologie
CN104852975B (zh) 一种家居设备调用方法及装置
US11354089B2 (en) System and method for dialog interaction in distributed automation systems
EP3314876B1 (de) Technologien für konversationsschnittstellen zur systemsteuerung
DE202015010012U1 (de) Aktivierungswort-Ermittlung auf mehreren Vorrichtungen
DE202017105810U1 (de) Identifikation eines virtuellen Assistenten von nahgelegenen Rechenvorrichtungen
DE102014109121A1 (de) Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes
CN110851221B (zh) 一种智慧家居场景配置的方法及装置
DE112017006876T5 (de) Zugriffssteuerung in einer verbundenen umgebung
DE102017111440A1 (de) Universalgateway für automatisiertes lernen
KR20220142401A (ko) 기기 원격 제어 시스템
DE102018126871A1 (de) Erkennung von Wake-up-Wörtern
DE112018000730T5 (de) Steuerungseinrichtung, Anzeigeumschaltsystem und Klimatisierungssystem
DE112019003234T5 (de) Audioverarbeitungsvorrichtung, audioverarbeitungsverfahren und aufzeichnungsmedium
DE112016006547T5 (de) Betreiben von Vorrichtungen des Internets der Dinge unter Verwendung eines LiDAR-Verfahrens und einer LiDAR-Vorrichtung
DE112019003773T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
DE102022101104A1 (de) Gerät und Verfahren zur Steuerung der Kommunikation von Informationen
CN106210002B (zh) 控制方法、装置及电子设备
GB2567067A (en) Processing voice commands based on device topology
DE202014010944U1 (de) Bildbasierte Standortbestimmung
KR102668731B1 (ko) 디바이스 토폴로지에 기초한 음성 명령 프로세싱
DE112020001542T5 (de) Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE202015009152U1 (de) Implementierung von Fremdservices in einer digitalen Serviceplattform
DE112019006677T5 (de) Antwortverarbeitungsvorrichtung und Antwortverarbeitungsverfahren
KR20180136404A (ko) 색상 선택을 돕기 위한 시스템 및 방법

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R207 Utility model specification
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0017200000

Ipc: G06F0040000000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0040000000

Ipc: G06F0040400000

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years