DE102018118349A1 - Verfahren und vorrichtung zum auswählen einer audioausgabeschaltung basierend auf prioritätsattributen - Google Patents

Verfahren und vorrichtung zum auswählen einer audioausgabeschaltung basierend auf prioritätsattributen Download PDF

Info

Publication number
DE102018118349A1
DE102018118349A1 DE102018118349.6A DE102018118349A DE102018118349A1 DE 102018118349 A1 DE102018118349 A1 DE 102018118349A1 DE 102018118349 A DE102018118349 A DE 102018118349A DE 102018118349 A1 DE102018118349 A1 DE 102018118349A1
Authority
DE
Germany
Prior art keywords
priority
audio output
priority attribute
output circuits
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018118349.6A
Other languages
English (en)
Inventor
John Carl Mese
Russell Speight VanBlon
Nathan J. Peterson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102018118349A1 publication Critical patent/DE102018118349A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/285Memory allocation or algorithm optimisation to reduce hardware requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein computerimplementiertes Verfahren, Vorrichtung und Computerprogrammvorrichtung werden bereitgestellt, die unter der Kontrolle von einem oder mehreren Prozessoren sind, die Instruktionen aufweisen. Verfahren, Vorrichtung und System ermitteln Audioinhalt basierend auf einer Benutzeranfrage, identifizieren ein Prioritätsattribut, das der Benutzeranfrage zugeordnet ist, und identifizieren eine Mehrzahl von Audioausgabeschaltungen. Verfahren, Vorrichtung und System wählen zumindest eine von den Audioausgabeschaltungen basierend auf dem Prioritätsattribut aus und kommunizieren den Audioinhalt an die zumindest eine von den ausgewählten Audioausgabeschaltungen.

Description

  • HINTERGRUND
  • Ausführungsformen hierin betreffen im Allgemeinen Verfahren und Vorrichtungen zum Auswählen einer Audioausgabeschaltung basierend auf Prioritätsattributen.
  • Ein digitaler persönlicher Assistent (DPA) ist eine Benutzerschnittstelle für eine elektronische Vorrichtung. Der DPA simuliert menschliche Wesenszüge, die es einem Benutzer ermöglichen, mit der elektronischen Vorrichtung in einer Weise zu interagieren, die ähnlich dazu ist, mit einer anderen Person zu interagieren, statt mit einer Maschine. Zum Beispiel kann der DPA ein Stimmerkennungssystem enthalten, das die Stimmeingabe des Benutzers interpretiert und in Erwiderung dazu Dienste ausführt oder Aufgaben durchführt. Der DPA enthält auch eine Stimmschnittstelle, um in einer natürlichen Sprachform hörbar auf den Benutzer zu erwidern.
  • Im Allgemeinen wird ein DPA auf einer einzelnen Vorrichtung mit dedizierten Komponenten betrieben, um mit dem Benutzer zu interagieren. Zum Beispiel kann ein DPA ein eingebautes Mikrofon zum Empfangen von Benutzeranfragen und einen eingebauten Lautsprecher zum Bereitstellen von Audioinhalten aufweisen. Jedoch sind eingebaute Lautsprecher für DPAs typischerweise klein und von geringer Qualität im Vergleich zu anderen Heimaudiovorrichtungen, so wie Heimstereoanlagen oder größere drahtlose Lautsprecher. Deshalb kann der DPA auch eine Komponentenschnittstelle enthalten, die sich mit einem drahtgebundenen oder drahtlosen externen Lautsprecher verbinden kann, um den eingebauten Lautsprecher als die Standard-Audioausgabe zu ersetzen.
  • Benutzer besitzen häufig mehrere Audiovorrichtungen, die für verschiedene Arten von Audio und/oder an verschiedenen Orten verwendet werden können. Zum Beispiel kann ein Benutzer ein Heimkino-Audiosystem zum Anhören von Fernseh- und Film-Audioinhalt, einen kleineren Tischlautsprecher zum Anhören von Musik und einen Außenbereichslautsprecher zum Anhören von Audioinhalten draußen besitzen. Wenn mehrere Audiovorrichtungen verfügbar sind, kann es gewünscht sein, eine Art von Audioinhalt auf einer Vorrichtung anzuhören aber eine andere Art von Audioinhalt auf einer anderen Vorrichtung anzuhören. Zum Beispiel können, wenn der Benutzer den DPA anfragt, Informationen über die Stimmschnittstelle bereitzustellen, so wie Wetterinformationen, die eingebauten Lautsprecher angemessen sein, um den Audioinhalt bereitzustellen. Jedoch kann, wenn der Benutzer den DPA anfragt eine Aufgabe durchzuführen, die längeren oder komplizierteren Audioinhalt enthält, so wie Abspielen von Musik oder Streamen von Audio, der Benutzer bevorzugen, den Audioinhalt auf einem größeren externen Lautsprecher oder System anzuhören. Zusätzlich kann, wenn der Benutzer mehrere Anfragen stellt, die verschiedene Arten von Audioinhalt enthalten, der Benutzer bevorzugen, dass jede Art von Audioinhalt auf einer bevorzugten Audioausgabeschaltung abgespielt wird, basierend auf verschiedenen Prioritätsattributen.
  • Demgemäß bleibt ein Bedarf für Verfahren, und Vorrichtungen, die eine Audioausgabeschaltung basierend auf Prioritätsattributen auswählt.
  • ZUSAMMENFASSUNG
  • In Übereinstimmung mit Ausführungsformen hierin wird ein Verfahren bereitgestellt. Das Verfahren ist unter Kontrolle von einem oder mehreren Prozessoren, die mit ausführbaren Instruktionen konfiguriert sind zum Ermitteln von Audioinhalt basierend auf einer Benutzeranfrage, Identifizieren eines Prioritätsattributs, das der Benutzeranfrage zugeordnet ist; Identifizieren einer Mehrzahl von Audioausgabeschaltungen, Auswählen von zumindest einer von den Audioausgabeschaltungen basierend auf dem Prioritätsattribut und Kommunizieren des Audioinhalts an die zumindest eine von den ausgewählten Audioausgabeschaltungen.
  • Optional kann das Verfahren das Prioritätsattribut basierend auf einer Ausgabelänge des Audioinhalts bestimmen. Das Verfahren kann das Prioritätsattribut basierend auf einem oder mehreren von einer Benutzerhistorie, einer Zeit oder einem Datum bestimmen. Das Verfahren kann das Prioritätsattribut basierend auf Zustandsbedingungen der Audioausgabeschaltungen bestimmen. Das Verfahren kann eine Prioritätsliste der Audioausgabeschaltungen basierend auf dem Prioritätsattribut bestimmen und eine Prioritäts-Audioausgabeschaltung von der Prioritätsliste basierend auf dem Prioritätsattribut auswählen. Das Verfahren kann das Prioritätsattribut basierend auf einer Präsenz von Nichtbenutzern innerhalb eines vorbestimmten Bereichs einer Basisvorrichtung bestimmen. Das Verfahren die Benutzeranfrage mit einer Stimmerkennungs-Applikation analysieren.
  • In Übereinstimmung mit Ausführungsformen hierin wird eine elektronische Vorrichtung bereitgestellt, umfassend einen Prozessor, eine Benutzerschnittstelle, und eine Datenspeichervorrichtung, die ausführbare Instruktionen aufweist, auf die der Prozessor zugreifen kann. In Erwiderung auf die Ausführung der Instruktionen empfängt der Prozessor eine Benutzeranfrage durch die Benutzerschnittstelle, ermittelt Audioinhalt basierend auf der Benutzeranfrage, identifiziert ein Prioritätsattribut, das der Benutzeranfrage zugeordnet ist, identifiziert eine Mehrzahl von Audioausgabeschaltungen, wählt zumindest eine von den Audioausgabeschaltungen basierend auf dem Prioritätsattribut aus; und kommuniziert den Audioinhalt von der Vorrichtung zu der zumindest einen von den Audioausgabeschaltungen.
  • Optional kann die elektronische Vorrichtung das Prioritätsattribut basierend auf einer Ausgabelänge des Audioinhalts bestimmen. Die elektronische Vorrichtung kann das Prioritätsattribut basierend auf einer Benutzerhistorie bestimmen. Die elektronische Vorrichtung kann das Prioritätsattribut basierend auf einer Zustandsbedingung der Audioausgabeschaltungen bestimmen. Die elektronische Vorrichtung kann eine Prioritätsliste der Audioausgabeschaltungen basierend auf dem Prioritätsattribut bestimmen und eine Prioritäts-Audioausgabeschaltung von der Prioritätsliste basierend auf dem Prioritätsattribut auswählen. Die elektronische Vorrichtung kann das Prioritätsattribut basierend auf einer Präsenz von Nichtbenutzern innerhalb eines vorbestimmten Bereichs der Vorrichtung bestimmen. Die elektronische Vorrichtung kann die Benutzeranfrage mit einer Stimmerkennungs-Applikation analysieren.
  • In Übereinstimmung mit Ausführungsformen hierin umfasst eine lesbare Datenspeichervorrichtung, die kein Signal ist, ausführbaren Code zum Empfangen einer Benutzeranfrage durch eine Benutzerschnittstelle einer Basisvorrichtung, Ermitteln eines Audioinhalts basierend auf der Benutzeranfrage, Identifizieren eines Prioritätsattributs, das der Benutzeranfrage zugeordnet ist, Identifizieren einer Mehrzahl von Audioausgabeschaltungen, Auswählen zumindest einer von den Audioausgabeschaltungen basierend auf dem Prioritätsattribut; und Kommunizieren des Audioinhalts von der Vorrichtung an die zumindest eine von den Audioausgabeschaltungen.
  • Optional kann die lesbare Datenspeichervorrichtung, die kein Signal ist, ausführbaren Code umfassen zum Bestimmen des Prioritätsattributs basierend auf einer Ausgabelänge des Audioinhalts. Die lesbare Datenspeichervorrichtung, die kein Signal ist, kann ausführbaren Code umfassen zum Bestimmen des Prioritätsattributs basierend auf einem oder mehreren von einer Benutzerhistorie, einer Zeit oder einem Datum. Die lesbare Datenspeichervorrichtung, die kein Signal ist, kann ausführbaren Code umfassen zum bestimmen des Prioritätsattributs basierend auf einer Zustandsbedingung der Audioausgabeschaltungen. Die lesbare Datenspeichervorrichtung, die kein Signal ist, kann ausführbaren Code umfassen zum Bestimmen einer Prioritätsliste der Audioausgabeschaltungen basierend auf dem Prioritätsattribut und zum Auswählen einer Prioritäts-Audioausgabeschaltung von der Prioritätsliste basierend auf dem Prioritätsattribut. Die lesbare Datenspeichervorrichtung, die kein Signal ist, kann ausführbaren Code umfassen zum Bestimmen des Prioritätsattributs basierend auf einer Präsenz von Nichtbenutzers innerhalb eines vorbestimmten Bereichs von einer Basisvorrichtung.
  • Figurenliste
    • 1 illustriert ein System zum Auswählen einer Audioausgabeschaltung basierend auf Prioritätsattributen in Übereinstimmung mit Ausführungsformen hierin.
    • 2 illustriert ein vereinfachtes Blockdiagramm einer Basisvorrichtung von 1 in Übereinstimmung mit einer Ausführungsform.
    • 3 illustriert einen Prozess zum Auswählen einer Audioausgabeschaltung basierend auf Prioritätsattributen in Übereinstimmung mit Ausführungsformen hierin.
  • DETAILLIERTE BESCHREIBUNG
  • Es wird leicht verständlich sein, dass die Komponenten der Ausführungsformen, wie im Allgemeinen in den Figuren hierin beschrieben und illustriert, in einer weiten Vielzahl von verschiedenen Konfigurationen angeordnet und ausgebildet sein können, zusätzlich zu den beschriebenen Beispiel-Ausführungsformen. Deshalb beabsichtigt die folgende, detailliertere Beschreibung der Beispiel-Ausführungsformen, wie in den Figuren repräsentiert, nicht, den Umfang der Ausführungsformen wie beansprucht zu beschränken, sondern soll lediglich Beispiel-Ausführungsformen repräsentieren.
  • Ein Bezug auf „die eine Ausführungsform“ oder „eine Ausführungsform“ (oder dergleichen) in dieser Beschreibung meint, dass ein bestimmtes Merkmal, Struktur oder Charakteristik, die in Verbindung mit der Ausführungsform beschrieben ist, in zumindest einer Ausführungsform enthalten ist. Deshalb bezieht sich das Auftreten der Phrasen „in der einen Ausführungsform“ oder „in einer Ausführungsform“ oder dergleichen an verschiedenen Stellen in dieser Beschreibung nicht zwangsläufig auf dieselbe Ausführungsform.
  • Weiter können die beschriebenen Merkmale, Strukturen oder Charakteristiken in jeder passenden Weise in einer oder mehreren Ausführungsformen kombiniert werden. In der folgenden Beschreibung werden zahlreiche spezifische Details bereitgestellt, um ein gründliches Verständnis von Ausführungsformen bereitzustellen. Ein Fachmann wird jedoch erkennen, dass die verschiedenen Ausführungsformen ohne eine oder mehrere der spezifischen Details oder mit anderen Verfahren, Komponenten, Materialien, etc. ausgebildet sein können. In anderen Beispielen sind wohlbekannte Strukturen, Materialien oder Bedienungen nicht im Detail gezeigt oder beschrieben, um Verwirrung zu vermeiden. Die folgende Beschreibung ist nur als Beispiel gedacht und veranschaulicht lediglich bestimmte Beispiel-Ausführungsformen.
  • Der Begriff „digitaler persönlicher Assistent“, „virtueller Assistent“, „intelligenter digitaler Assistent“, wie durchweg verwendet, soll sich im Allgemeinen auf jegliche Benutzerschnittstelle oder Informationsverarbeitungssystem beziehen, das ein Stimmerkennungssystem verwendet, so wie ein natürliches Sprachverständnis (NLU), automatische Spracherkennung (ASR) oder Text-zu-Sprache-Synthese (TTS), um natürliche Spracheingabe in gesprochener Form und/oder textlicher Form zu interpretieren, um die Absicht abzuleiten und Handlungen basierend auf einer abgeleiteten Benutzerabsicht durchzuführen. Zum Beispiel kann ein digitaler persönlicher Assistent eine Benutzeranfrage in Form eines natürlichen Sprachbefehls, Anfrage, Aussage, Erzählung und/oder Nachfrage empfangen. Eine Benutzeranfrage kann entweder eine informationelle Antwort oder eine Durchführung einer Aufgabe durch den persönlichen digitalen Assistenten ersuchen. Demgemäß kann der digitale persönliche Assistent die angefragte Aufgabe durchführen und/oder Erwiderungen in Audio- oder visueller Form bereitstellen, so wie natürliche Sprache, Musik, Video, Text, Animationen, etc.
  • Es sollte klar verstanden werden, dass die verschiedenen Anordnungen und Prozesse, die in Bezug auf die Figuren breit beschrieben und illustriert sind und/oder eine oder mehrere individuelle Komponenten oder Elemente solcher Anordnungen und/oder eine oder mehrere Prozessbetriebe, die solchen Prozessen zugeordnet sind, unabhängig von- oder zusammen mit einem oder mehreren Komponenten, Elementen und/oder Prozessbetrieben, die hierin beschrieben und illustriert sind. eingesetzt werden können. Dementsprechend sollte verstanden werden, dass, während verschiedene Anordnungen und Prozesse hierin breit in Betracht gezogen, beschrieben und illustriert wurden, diese vielmehr in einer illustrativen und nichtbeschränkenden Art bereitgestellt werden und weiter als lediglich Beispiele von möglichen Arbeitsumgebungen gelten können, in denen eine oder mehrere Anordnungen oder Prozesse funktionieren oder betrieben werden können.
  • 1 illustriert ein System 100 zum Auswählen einer Audioausgabeschaltung basierend auf Prioritätsattributen in Übereinstimmung mit Ausführungsformen hierin. Das System 100 enthält eine Basisvorrichtung 102 mit einer Benutzerschnittstelle 104 die eine Eingabeschaltung 105, um Benutzeranfragen unter Verwendung einer Stimmerkennungs-(VR)-Applikation 106 zu stellen, und eine Ausgabe 108, um Audioinhalte in Erwiderung auf Benutzeranfragen auszugeben, für einen Benutzer aufweist. Ein Netzwerk 110 verbindet die Basisvorrichtung 102 betriebsbereit mit einer oder mehreren Audioausgabeschaltungen 112, 114, 116 und Netzwerkressourcen 118. Basierend auf einer Menge von Prioritätsattributen bestimmt die Basisvorrichtung 102 eine Prioritätsliste der Audioausgabeschaltungen 108, 112, 114, 116, wählt eine oder mehrere (priorisierte) Audioausgabeschaltungen von der Liste aus und kommuniziert den Audioinhalt die ausgewählte eine oder mehreren (priorisierten) Audioausgabeschaltung.
  • Beispielhaft kann die Basisvorrichtung 102 ein digitaler persönlicher Assistent sein (z.B. die Amazon Echo-Vorrichtung, Google Home-Vorrichtung, etc.) oder eine andere elektronische Vorrichtung, die eine Stimmerkennungs- Benutzerschnittstelle 104 enthält und konfiguriert ist, auf das Netzwerk 110 über eine drahtgebundene oder drahtlose Verbindung zuzugreifen. Als nicht beschränkende Beispiele kann die Basisvorrichtung 102 auf das Netzwerk 110 durch einen drahtlosen Kommunikationskanal und/oder durch eine Netzwerkverbindung (z.B. das Internet) zugreifen. Zusätzlich oder alternative kann die Basisvorrichtung 102 ein drahtgebundener oder drahtloser Kommunikationsterminal sein, so wie ein Desktop-Computer, Laptop-Computer, netzwerkfähiges Fernsehen, Set-Top-Box, und dergleichen.
  • Jede Audioausgabeschaltung 112, 114, 116 kann dieselbe oder eine verschiedene Art von Vorrichtung wie die Basisvorrichtung 102 repräsentieren, so wie ein Lautsprecher, Stereoanlage, Heimkinosystem, Computer, Mobiltelefon, Fernseher, Audioinhaltsabspielgerät, Smartwatch, und dergleichen. Die Basisvorrichtung kommuniziert Audio an eine oder mehrere ausgesuchte Audioausgabeschaltungen über das Netzwerk 110, und/oder über eine separate drahtgebundene oder drahtlose Verbindung dazwischen. Zum Beispiel kann ein Zusatzausgang verwendet werden, um eine drahtgebundene Verbindung zu bilden. Optional kann eine Bluetooth-Verbindung oder eine andere drahtlose Verbindung eine direkte drahtlose Verbindung bilden.
  • Die Basisvorrichtung 102 ist konfiguriert, durch das Netzwerk 110 auf die Netzwerkressourcen 118 zuzugreifen, inclusive webbasierte oder netzwerkbasierte Daten, Applikationen und Dienste. Das Netzwerk 110 kann eine oder mehrere lokale Netzwerke (LAN), ein Weitverkehrsnetz (WAN), ein Intranet oder anderes privates Netzwerk, auf das nicht von der allgemeinen Öffentlichkeit zugegriffen werden kann, oder ein globales Netzwerk, so wie das Internet oder andere öffentlich zugreifbares Netzwerk repräsentieren. Das Netzwerk 110 stellt Kommunikation zwischen der Basisvorrichtung 102 und einem oder mehreren Netzwerkressourcen 118 bereit. Es wird verstanden werden, dass in einigen Ausführungsformen die Netzwerkressourcen 118 eine einzelne Einheit oder einen oder mehrere physikalische oder virtuelle Server repräsentieren kann, die konfiguriert sein können, Onlineressourcen an die Basisvorrichtung 102 bereitzustellen. Beispiele der Netzwerkressourcen 118 enthalten webbasierte oder netzwerkbasierte Datenspeicherdienste, soziale Netzwerkapplikationen, Einkaufsdienste, Bezahldienste, Multimediainhalt-Lieferdienste, Finanzdienste und dergleichen, sind aber nicht darauf beschränkt. Die Ressourcen 118 können einen Webservice oder einen Netzwerkservice für ein E-Commerce-Geschäft, ein Finanzinstitut oder jede andere betriebliche, nichtbetriebliche, persönliche, gemeinnützige oder andere Einheit repräsentieren.
  • 2 illustriert ein vereinfachtes Blockdiagramm der Basisvorrichtung 102 von 1 in Übereinstimmung mit einer Ausführungsform. Die Basisvorrichtung 102 enthält Komponenten, so wie einen oder mehrere drahtlose Sendeempfänger 202, einen oder mehrere Prozessoren 204 (z.B. einen Mikroprozessor, Mikrocomputer, applikationsspezifische integrierte Schaltung, etc.) ein oder mehrere lokale Speichermedien (auf die auch als Speicherbereich Bezug genommen werden kann) 206, die Benutzerschnittstelle 104, die eine oder mehrere Eingabeschaltungen 105 und eine oder mehrere Ausgabeschaltungen 108 enthält, ein Leistungsmodul 212, eine Komponentenschnittstelle 214, und einen Infrarot-(IR)-Übertrager/Empfänger 218. Alle von diesen Komponenten können betriebsbereit miteinander gekoppelt sein und können in Kommunikation miteinander stehen durch eine oder mehrere interne Kommunikationsverbindungen, so wie einen internen Bus.
  • Die Benutzerschnittstelle 104 erlaubt dem Benutzer die Basisvorrichtung 102 für jeden der vorgesehenen Zwecke zu betreiben, so wie zur Administration der VR-Applikation 106, Betriebssoftwareapplikationen, elektronischen Kommunikation, Zuhörens der Audiomedien und dergleichen. Die Eingabeschaltung 105 kann eine oder mehrere Audioeingabeschaltungen enthalten, so wie ein Mikrofon 209, das ausgebildet ist, Audioeingaben oder Anfragen von dem Benutzer zu empfangen. Die Ausgabeschaltung 210 kann eine oder mehrere Audioausgabeschaltungen, so wie einen Lautsprecher 252 enthalten, die ausgebildet sind, Audioausgabe oder Audioinhalte an den Benutzer zu kommunizieren. Im Zusammenhang mit der VR-Applikation 106 ermöglicht die Benutzerschnittstelle 104 dem Benutzer mit der Basisvorrichtung 102 zu kommunizieren durch Empfang von Audioeingabe in der Form von natürlicher Sprache. Die VR-Applikation 106 interpretiert die Audioeingabe, die von der Eingabeschaltung 105 empfangen wird und erzeugt einen Audioinhalt, so wie eine Stimmschnittstelle, um hörbar auf den Benutzer in einer natürlichen Sprachform zu erwidern.
  • Optional können die Eingabe- und Ausgabeschaltungen 105, 108 jeweils eine Vielzahl von visuellen, Audio- und/oder mechanischen Vorrichtungen enthalten. Zum Beispiel kann die Eingabeschaltung 105 eine mechanische Eingabeschaltung, so wie eine Tastatur, Nummernblock, physische und/oder Soft-Auswahlknöpfe, Schalter, Touchpad, Touchscreen, Symbole, eine berührungsempfindliche Fläche auf einem berührungsempfindlichen Bildschirm und/oder jede Kombination davon enthalten. In ähnlicher Weise kann die Ausgabeschaltung 108 eine visuelle Ausgabeschaltung enthalten, so wie einen Flüssigkristallbildschirm, berührungsempfindlichen Bildschirm, einen nicht-berührungsempfindlichen Bildschirm, eine Nur-Text-Anzeige, eine Smartphone-Anzeige, einen Audioausgang (z.B. ein Lautsprecher oder eine Kopfhörerbuchse) und/oder jede Kombination davon und/oder eine oder mehrere Leuchtdioden-Anzeigen. Die Ausgabeschaltung 108 ist integral mit (d.h. innerhalb eines gemeinsamen Gehäuses) der Basisvorrichtung 102.
  • Der Speicher 206 kann eine oder mehrere Speichervorrichtungen in jeder Vielfalt von Formen (z.B. Nur-Lese-Speicher, wahlfreier Zugriffspeicher, statischer wahlfreier Zugriffspeicher, dynamischer wahlfreier Zugriffspeicher, etc.) umfassen und kann von dem Prozessor 204 verwendet werden, um Daten zu speichern und abzurufen. Die Daten, die von dem Speicher 206 gespeichert werden, können Betriebssysteme, Applikationen, durch den Benutzer gesammelten Inhalt und informationelle Daten enthalten, sind jedoch nicht darauf beschränkt. Jedes Betriebssystem enthält ausführbaren Code, der Basisfunktionen der Vorrichtung kontrolliert, so wie Interaktion zwischen den verschiedenen Komponenten, Kommunikation mit externen Vorrichtungen über die drahtlosen Sendeempfänger 202, die Komponentenschnittstelle 214 und/oder der IR Übertrager/Empfänger 218 und Speichern und Abrufen von Applikationen und Daten in und aus dem Speicher 206. Jede Applikation enthält ausführbaren Code, der ein Betriebssystem verwendet, um eine spezifischere Funktionalität für die Kommunikationsvorrichtungen bereitzustellen, so wie einen Dateisystemdienst und die Behandlung von geschützten und ungeschützten Daten, die in dem Speicher 206 gespeichert sind.
  • Der Speicher 206 speichert verschiedene Inhalte, inclusive der VR-Applikation 106 und Prioritätsattribute, ist aber nicht darauf beschränkt. Die VR-Applikation 106 verwaltet eine oder mehrere Bedienungen der Basisvorrichtung 102. Die VR-Applikation 106 enthält Instruktionen, auf die der eine oder mehrere Prozessoren 204 zugreifen können, um den Prozessor 204 anzuweisen, die Verfahren, Prozesse und Bedienungen, die hierin beschrieben sind, zu implementieren, inklusive den Verfahren, Prozessen und Bedienungen, die in den Figuren illustriert und in Verbindung mit den Figuren beschrieben sind, sind jedoch nicht darauf beschränkt. In einer alternativen Ausführungsform kann die VR-Applikation 106 von einem oder mehreren Speichermedien (auf die auch als Cloudspeicher Bezug genommen werden kann) aus betrieben werden.
  • Unter anderem verwaltet die VR-Applikation 106 die Bedienung des Prozessors 204 im Zusammenhang mit dem Empfang von Benutzeranfragen und der Ausgabe von Audioinhalten an die Audioausgabeschaltungen 108, 112, 114, 116. In Übereinstimmung mit der Ausführungsform von 2 weist der Prozessor 204 die Eingabeschaltung 105 der Benutzerschnittstelle 104 an, eine Benutzeranfrage zu empfangen. Der Prozessor 204 analysiert die Benutzeranfrage und erzeugt einen Audioinhalt. Optional weist der Prozessor 204 den Sendeempfänger 202 an, auf die Netzwerkressourcen 118 durch das Netzwerk 110 in Verbindung mit der Erzeugung des Audioinhalts zuzugreifen. Der Prozessor 204 identifiziert Prioritätsattribute, die der Benutzeranfrage zugeordnet sind, inklusive die Länge des Audioinhalts, eine Benutzerhistorie einer Verwendung der Vorrichtung, ein Zustand der Audioausgabeschaltungen, einer Zeit und/oder Datums und einer Präsenz von Nichtbenutzern in einem vorbestimmten Bereich, ist jedoch nicht darauf beschränkt. Der Prozessor 204 identifiziert Audioausgabeschaltungen 108, 112, 114, 116, die betriebsbereit mit der Basisvorrichtung 102 verbunden sind. Basierend auf der Identifizierung von Prioritätsattributen bestimmt der Prozessor 204 eine Prioritätsliste der Audioausgabeschaltungen 108, 112, 114, 116, um den Audioinhalt zu kommunizieren.
  • 3 illustriert einen Prozess 300 zum Auswählen einer Audioausgabeschaltung basierend auf Prioritätsattributen in Übereinstimmung mit Ausführungsformen hierin. Die Bedienungen von 3 werden von dem einen oder mehreren Prozessoren 204 der Basisvorrichtung 102 in Erwiderung auf die Ausführung von Instruktionen ausgeführt, so wie in der VR-Applikation 106 und/oder anderen Applikationen, die in dem Speicher 206 gespeichert sind.
  • Bei 302 empfängt die Basisvorrichtung 102 eine Benutzeranfrage durch die Eingabeschaltung 105 der Benutzerschnittstelle 104. Die Benutzeranfrage kann in Form von natürlicher Sprache, Anfrage, Aussage, Erzählung und/oder Nachfrage sein. Die Benutzeranfrage kann eine informationelle Antwort oder die Durchführung einer Aufgabe ersuchen. Zum Beispiel kann der Benutzer eine Benutzeranfrage nach Information stellen durch Fragen der Frage: „Wie ist das Wetter heute?“. Der Benutzer kann auch eine Benutzeranfrage zur Durchführung einer Aufgabe stellen, zum Beispiel durch Sagen „Spiel mein Lieblingslied“.
  • Bei 304, erzeugt der Prozessor 204 einen Audioinhalt basierend auf der Benutzeranfrage. Basierend auf in dem Speicher 206 verfügbaren Informationen und/oder durch das Netzwerk 110 von den Netzwerkressourcen 118 kann der Prozessor 304 eine informationelle Antwort in der Form von Audioinhalt in natürlicher Sprache ausgeben oder durch Durchführung einer Aufgabe. Zum Beispiel kann der Prozessor 204 einen Audioinhalt erzeugen, der gegenwärtige Wetterbedingungen basierend auf einer Benutzeranfrage wiedergibt. Der Prozessor 204 kann auch einen Audioinhalt erzeugen, der ein angefragtes Lied basierend auf einer Benutzeranfrage abspielt.
  • Bei 306 identifiziert der Prozessor 204 Prioritätsattribute, die der Benutzeranfrage zugeordnet sind. Die Prioritätsattribute können jeden Parameter enthalten, um die Prioritätsreihenfolge der Audioausgabeschaltungen 108, 112, 114, 116 zu bestimmen, um den Audioinhalt an den Benutzer zu kommunizieren. Zum Beispiel kann das Prioritätsattribut die Länge des Audioinhalts sein. Das Prioritätsattribut kann auch eine Benutzerhistorie von Verwendungsmustern für einen zugeordneten Benutzer sein. Zum Beispiel kann die Benutzerhistorie darauf hinweisen, dass der Zugeordnete Benutzer in erster Linie Benutzeranfragen für Musik tätigt. Der Prozessor 204 kann die Benutzerhistorie auf einer periodischen Basis aktualisieren, so wie nach jeder Benutzeranfrage. Optional kann die Benutzerhistorie Benutzervorrichtungs-Verwendungsmuster für mehrere zugeordnete Benutzer beibehalten, so wie einen Elternteil und ein Kind. Zusätzlich oder alternativ kann das Prioritätsattribut eine Zustandsbedingung von jeder Audioausgabeschaltung 108, 112, 114, 116 enthalten. Zum Beispiel kann der Prozessor 204 den Sendeempfänger 202 anweisen, eine Zustandsbedingungsanfrage zu übertragen und auf Erwiderungen von Audioausgabeschaltungen 108, 112, 114, 116 zu hören. Der Prozessor 204 kann Erwiderungs-Zustandsbedingungsdaten analysieren und Informationen ermitteln, die auf den Zustand von jeder Audioausgabeschaltung hinweisen, so wie an, aus, überhitzt oder in Stand-by. Optional kann der Prozessor 204 ein Signal an eine der Audioausgabeschaltungen 108, 112, 114, 116 senden, um den Zustand zu ändern. In einem anderen Beispiel kann das Prioritätsattribut eine Zeit oder Datum enthalten. In noch einem anderen Beispiel kann das Prioritätsattribut die Präsenz von Nichtbenutzern innerhalb eines vorbestimmten Bereichs enthalten. Zum Beispiel kann die Basisvorrichtung 102 visuelle Vorrichtungs-Bewegungssensoren, drahtlose Verfolgungsvorrichtungen und dergleichen verwenden, um zu bestimmen, dass Nichtbenutzer innerhalb desselben Raums wie der Benutzer zugegen sind. Audioinhalt kann auf verschiedene Audioausgabeschaltungen gerichtet sein, wenn Nichtbenutzer zugegen oder nicht anwesend sind. In einer illustrativen Ausführungsform kann der Benutzer ein Elternteil sein, der die Basisvorrichtung 102 anfragt, Audio abzuspielen, das Erwachseneninhalt enthält. Der Nichtbenutzer kann ein Kind sein, vom dem bestimmt wurde, dass es in demselben Raum zugegen ist wie der Elternteil. Demgemäß kann der Audioinhalt an eine Audiovorrichtung gerichtet sein, auf die nur von dem Elternteil zugegriffen werden kann, so wie Kopfhörer, um zu vermeiden, dass das Kind den Audioinhalt für Erwachsene hört.
  • Bei 308 identifiziert der Prozessor 204 die Verfügbarkeit von Audioausgabeschaltungen 108, 112, 114, 116. Zum Beispiel kann der Prozessor 204 den Sendeempfänger 202 anweisen, eine Verfügbarkeitsanfrage zu übertragen und auf Erwiderungen von den Audioausgabeschaltungen 108, 112, 114, 116 zu hören. Der Prozessor 204 analysiert die Verfügbarkeitsdaten von den Erwiderungen, um Informationen zu ermitteln, die auf die Verfügbarkeit von jeder Audioausgabeschaltung hinweisen. Optional analysiert der Prozessor 204 Daten von den Erwiderungen, um zusätzliche Informationen über jede Audiovorrichtung zu ermitteln, so wie den Hersteller, Marke, Modell, Version der Vorrichtung.
  • Bei 310 bestimmt der Prozessor 204 eine Prioritätsliste der Audioausgabeschaltungen 108, 112, 114, 116 basierend auf zumindest einem der Prioritätsattribute. Zum Beispiel kann ein Prioritätsattribut, das darauf hinweist, dass der Audioinhalt kurz ist, so wie eine Aussage der Tageszeit, die Priorität des Lautsprechers 252 der Basisvorrichtung 102 erhöhen. Im Gegensatz dazu kann, wenn das Prioritätsattribut darauf hinweist, dass der Audioinhalt lang ist, so wie ein Lied, die Priorität von einer der Audioausgabeschaltungen, so wie die Heimstereoanlage 112, steigen. In einem anderen Beispiel kann ein Prioritätsattribut, das darauf hinweist, dass der Benutzer eine Historie aufweist, dass er Benutzeranfragen stellt, dass Audioinhalt auf einer spezifischen Audioausgabeschaltung abgespielt werden soll, so wie auf der Heimstereoanlage 112, dann kann die Priorität der Heimstereoanlage 112 erhöht werden. Wenn das Prioritätsattribut darauf hinweist, dass eine oder mehre von den Audioausgabeschaltungen 108, 112, 114, 116 einen Aus-Zustand aufweisen, kann die Priorität dieser Vorrichtungen verringert werden. Wenn das Prioritätsattribut darauf hinweist, dass Nichtbenutzer an einem bestimmten Ort zugegen sind, so wie in demselben Raum wie der Benutzer, kann die Priorität der Vorrichtungen erhöht oder verringert werden. Zum Beispiel kann die Priorität einer Heimstereoanlage verringert werden und die Priorität einer Kopfhörervorrichtung kann erhöht werden. Wenn das Prioritätsattribut auf eine Zeit oder Datum hinweist, kann die Priorität der Vorrichtung erhöht oder verringert werden. Zum Beispiel kann, wenn das Prioritätsattribut auf eine Zeit von 7 Uhr nachmittags auf einen Samstag im Juli hinweist, kann die Priorität von Vorrichtungen in der Nähe des Außenschwimmbads erhöht werden und die Priorität von anderen Vorrichtungen verringert.
  • Bei 312 wählt der Prozessor 204 die priorisierte Audioausgabeschaltung von der Prioritätsliste aus. Zum Beispiel kann der Prozessor 204 die Audioausgabeschaltung 108, 112, 114, 116, auswählen, von der bestimmt wurde, dass sie die höchste Priorität auf der Prioritätsliste aufweist. Alternativ kann der Prozessor die Audioausgabeschaltung 108, 112, 114, 116 auswählen, von der bestimmt wurde, dass sie eine andere Priorität auf der Prioritätsliste aufweist, so wie die zweithöchste Priorität. Zum Beispiel kann die Prioritätsliste darauf hinweisen, dass das Heimstereosystem die Audioausgabeschaltung mit der höchsten Priorität ist, jedoch aufgrund von Erwachseneninhalten, der sich in dem Audioinhalt befindet, eine niedrigere Priorität auf der Liste ausgewählt wird, so wie Kopfhörer.
  • Bei 314 kommuniziert die Basisvorrichtung 102 den Audioinhalt an die ausgewählte Audioausgabeschaltung über ein oder mehrere drahtgebundene oder drahtlose Medien, so wie den Sendeempfänger 202 und/oder über den IR-Übertrager/Empfänger 218. Der Inhalt und Gegenstand des Audioinhalts kann basierend auf verschiedenen Faktoren variieren. Zum Beispiel können die Anfragen, Erwiderungen und Audioinhalt in Übereinstimmung mit einem Bluetooth-Protokoll übermittelt werden. Optional können die Erwiderungen und Audioinhalt in Übereinstimmung mit verschiedenen drahtlosen Protokollen, so wie 802.11, drahtloses lokales Netzwerk (WLAN), Wi-Fi-Geschützter Zugang (WPA), drahtgebundene Äquivalenzprivatsphäre (WEP), Wi-Fi, drahtloses Breitband und dergleichen aübermittelt werden. Als andere Beispiele können die Erwiderungen in Übereinstimmung mit verschiedenen Kommunikationsprotokollen, so wie einem Hypertext-Transferprotokoll (HTTP), Internet-Relay-Chat (IRC) und dergleichen übermittelt werden.
  • Wie von dem Fachmann anerkannt werden wird, können verschiedenen Aspekte in einem System, Verfahren oder Computer-(Vorrichtungs-)Programmprodukt ausgeführt sein. Demgemäß können Aspekte die Form einer vollständig Hardware-Ausführungsform oder einer Ausführungsform, die Hardware und Software enthält, annehmen, auf die im Allgemeinen hierin als „Schaltung“, „Modul“ oder „System“ Bezug genommen werden kann. Weiter können Aspekte die Form eines Computer-(Vorrichtungs-)Programmprodukts annehmen, das in einer oder mehreren computer-(vorrichtungs-)lesbaren Speichermedien ausgeführt ist, die den computer-(vorrichtungs-)lesbaren Programmcode darauf ausgeführt aufweisen.
  • Jede Kombination von einem oder mehreren Computer-(Vorrichtung)-lesbaren Medien, die kein Signal sind, können verwendet werden. Das Nichtsignalmedium kann ein Speichermedium sein. Ein Speichermedium kann zum Beispiel ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, -Gerät oder -Vorrichtung oder jede passende Kombination der vorgenannten sein. Spezifischere Beispiele eines Speichermediums enthalten die Folgenden: eine tragbare Computerdiskette, eine Festplatte, einen wahlfreien Zugriffsspeicher (RAM), einen dynamischen wahlfreien Zugriffsspeicher (DRAM), einen Nur-Lese-Speicher (ROM), einen elektrisch löschbaren Nur-Lese-Speicher (EEPROM oder Flash-Speicher), ein tragbarer Kompaktdisk-Nur-Lese-Speicher (CD-ROM), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder jede passende Kombination der Vorgenannten.
  • Programmcode zum Durchführen der Bedienungen kann in jeder Kombination von einer oder mehrerer Programmiersprachen geschrieben sein. Der Programmcode kann vollständig auf einer einzelnen Vorrichtung, teilweise auf einer einzelnen Vorrichtung, als alleinstehendes Softwarepaket, teilweise auf einer einzelnen Vorrichtung und teilweise auf einer anderen Vorrichtung oder vollständig auf der anderen Vorrichtung ausgeführt werden. In einigen Fällen können die Vorrichtungen durch jede Art von Netzwerk verbunden sein, inklusive einem lokalen Netzwerk (LAN) oder einem Weitverkehrsnetz (WAN), oder die Verbindung kann durch andere Vorrichtungen erzeugt werden (zum Beispiel durch das Internet unter Verwendung eines Internetdienstanbieters) oder durch eine hartverdrahtete Verbindung, so wie über eine USB-Verbindung. Zum Beispiel kann ein Server, der einen ersten Prozessor, eine Netzwerkschnittstelle und eine Speichervorrichtung zum Speichern von Code aufweist, den Programmcode zum durchführen der Bedienung speichern und diesen Code durch dessen Netzwerkschnittstelle über ein Netzwerk an eine zweite Vorrichtung, die einen zweiten Prozessor zum Ausführen des Codes auf der zweiten Vorrichtung aufweist, bereitstellen.
  • Aspekte sind hierin mit Bezug auf die Figuren beschrieben, die Beispiel-Verfahren, -Vorrichtungen und -Programmprodukte gemäß verschiedenen Beispiel-Ausführungsformen illustrieren. Diese Programminstruktionen können an einen Prozessor eines Allzweckcomputers, Sonderzweckcomputers oder andere programmierbare Datenverarbeitungsvorrichtung oder Informationsverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine herzustellen, sodass die Instruktionen, die durch einen Prozessor ausgeführt werden, die Funktionen/Handlungen wie spezifiziert implementieren. Die Programminstruktionen können auch in einem vorrichtungslesbaren Medium gespeichert werden, das eine Vorrichtung anweisen kann, in einer bestimmten Weise zu funktionieren, sodass die Instruktionen, die in dem vorrichtungslesbaren Medium gespeichert sind, eine Herstellungsartikel produzieren, inklusive Instruktionen, die die Funktionen/Handlungen wie spezifiziert implementieren. Die Instruktionen können auch auf eine Vorrichtung geladen werden, um eine Reihe von Betriebsschritten zu bewirken, die auf der Vorrichtung durchgeführt werden, um einen vorrichtungsimplementierten Prozess zu produzieren, sodass die Instruktionen, die auf der Vorrichtung ausgeführt werden, Prozesse für die Implementierung der spezifizierten Funktionen/Handlungen bereitstellen.
  • Die Einheiten/Module/Applikationen hierin können jedes prozessorbasierte oder mikroprozessorbasierte System enthalten, inklusive System, die Mikrokontroller, einen Computer mit reduziertem Befehlssatz (RISC), applikationsspezifische integrierte Schaltungen (ASICs), feldprogrammierbare Gatteranordnungen (FPGAs), logische Schaltungen und jede andere Schaltung oder Prozessor, der ausgebildet ist, die hierin beschriebenen Funktionen auszuführen. Zusätzlich oder alternativ können die Einheiten/Module/Applikationen Schaltungsmodule repräsentieren, die als Hardware mit zugeordneten Instruktionen implementiert sein können (zum Beispiel Software, die auf einem greifbaren und nicht transienten, computerlesbaren Speichermedium gespeichert ist, so wie eine Computerfestplatte, ROM, RAM oder dergleichen), die die hierin beschriebenen Bedienungen durchführen. Die oben genannten Beispiele sind nur beispielhaft und deshalb nicht beabsichtigt, in jeglicher Weise die Definition und/oder Bedeutung des Begriffs „Steuerung“ einzuschränken. Die Einheiten/Module/Applikationen hierin können eine Menge von Instruktionen ausführen, die in einem oder mehrere Speicherelementen gespeichert sind, um Daten zu verarbeiten. Die Speicherelemente können auch Daten oder andere Informationen wie gewünscht oder benötigt speichern. Das Speicherelement kann in der Form einer Informationsquelle oder ein physikalisches Speicherelement innerhalb der Module/Steuerungen hierin sein. Die Menge von Instruktionen kann verschiedene Befehle enthalten, die die Einheiten/Module/Applikationen hierin instruieren, spezifische Bedienungen durchzuführen, so wie die Verfahren und Prozesse der verschiedenen Ausführungsformen der hierin beschriebenen Gegenstände. Die Menge von Instruktionen kann in der Form eines Softwareprogramms sein. Die Software kann in verschiedenen Formen sein, so wie Systemsoftware oder Applikationssoftware. Weiter kann die Software in der Form einer Sammlung von separaten Programmen oder Modulen, ein Programmmodul innerhalb eines größeren Programms oder ein Teil eines Programmmoduls sein. Die Software kann auch modulare Programmierung in der Form von objektorientierter Programmierung enthalten. Das Verarbeiten von Eingabedaten durch die Verarbeitungsmaschine kann in Erwiderung auf Benutzerbefehle oder in Erwiderung auf Ergebnisse von vorheriger Verarbeitung oder in Erwiderung auf einer Anfrage, die von einer anderen Verarbeitungsmaschine angefragt wurde, erfolgen.
  • Es muss verstanden werden, dass der hierin beschriebene Gegenstand in seiner Anwendung nicht auf die konstruktiven Details und die Anordnung von Komponenten, wie in der Beschreibung hierin ausgeführt oder in den Zeichnungen davon illustriert ist, beschränkt ist. Der hierin beschriebene Gegenstand ist für andere Ausführungsformen ausgebildet und dazu, auf verschiedene Arten praktiziert oder ausgeführt zu werden. Es muss auch verstanden werden, dass die hierin verwendete Phraseologie und Terminologie zum Zweck der Beschreibung dient und nicht als einschränkend angesehen werden sollte. Die Verwendung von „enthaltend“, „umfassend“ oder „aufweisend“ und Variationen davon, meinen hierin die aufgelisteten Gegenstände und deren Äquivalente sowie zusätzliche Gegenstände zu umspannen.
  • Es muss verstanden werden, dass die obige Beschreibung illustrativ und nicht beschränkend gemeint sein soll. Zum Beispiel können die oben beschriebenen Ausführungsformen (und/oder Aspekte davon) in Kombination miteinander verwendet werden. Zusätzlich können viele Modifikationen vorgenommen werden, um eine bestimmte Situation oder Material an die Lehren hierin anzupassen, ohne von deren Umfang abzuweichen. Während die hierin beschriebenen Dimensionen, Materialarten und Beschichtungen verschiedene Parameter definieren sollen, sind diese in keiner Weise einschränkend gemeint und illustrativer Natur. Viele andere Ausführungsformen werden sich nach Durchsicht der obigen Beschreibung ergeben. Der Umfang der Ausführungsformen sollte deshalb in Bezug auf die beigefügten Ansprüche, zusammen mit dem vollen Umfang an Äquivalenten, auf die diese Ansprüche Anspruch haben, bestimmt werden. In den beigefügten Ansprüchen werden die Begriffe „enthaltend“ und „in denen“ wie deren entsprechenden Äquivalente von den jeweiligen Begriffen „umfassend“ und „wobei“ in einfachem Englisch verwendet. Weiter werden die Begriffe „erster“, „zweiter“ und „dritter“, etc., nur als Bezeichnungen verwendet und sollen nicht dazu dienen, numerische Anforderungen an ihre Objekte oder die Reihenfolge der Ausführungen ihrer Handlungen zu stellen.

Claims (20)

  1. Verfahren, umfassend: - unter der Kontrolle von einem oder mehrerer Prozessoren, die mit ausführbaren Instruktionen konfiguriert sind; - Ermitteln von Audioinhalt basierend auf einer Benutzeranfrage; - Identifizieren eines Prioritätsattributs, das der Benutzeranfrage zugeordnet ist; - Identifizieren einer Mehrzahl von Audioausgabeschaltungen; - Auswählen von zumindest einer der Audioausgabeschaltungen basierend auf dem Prioritätsattribut und - Kommunizieren des Audioinhalts an die zumindest eine von den ausgewählten Audioausgabeschaltungen.
  2. Verfahren nach Anspruch 1, weiter umfassend Bestimmen des Prioritätsattributs basierend auf einer Ausgabelänge des Audioinhalts.
  3. Verfahren nach Anspruch 1, weiter umfassend Bestimmen des Prioritätsattributs basierend auf einem oder mehreren von einer Benutzerhistorie, einer Zeit oder einem Datum.
  4. Verfahren nach Anspruch 1, weiter umfassend Bestimmen des Prioritätsattributs basierend auf Zustandsbedingungen der Audioausgabeschaltung.
  5. Verfahren nach Anspruch 1, weiter umfassend Bestimmen einer Prioritätsliste der Audioausgabeschaltungen basierend auf dem Prioritätsattribut und Auswählen einer Prioritäts-Audioausgabeschaltung von der Prioritätsliste basierend auf dem Prioritätsattribut.
  6. Verfahren nach Anspruch 1, weiter umfassend Bestimmen des Prioritätsattributs basierend auf einer Präsenz von Nichtbenutzern innerhalb eines vorbestimmten Bereichs einer Basisvorrichtung.
  7. Verfahren nach Anspruch 1, weiter umfassend Analysieren der Benutzeranfrage mit einer Stimmerkennungsapplikation.
  8. Elektronische Vorrichtung, umfassend: - einen Prozessor; - eine Benutzerschnittstelle; - eine Datenspeichervorrichtung, die ausführbare Instruktionen aufweist, auf die der Prozessor zugreifen kann; - wobei der Prozessor in Erwiderung auf die Ausführung der Instruktionen: - eine Benutzeranfrage durch die Benutzerschnittstelle empfängt; - Audioinhalte basierend auf der Benutzeranfrage ermittelt; - ein Prioritätsattribut, das der Benutzeranfrage zugeordnet ist, identifiziert; - eine Mehrzahl von Audioausgabeschaltungen identifiziert; - zumindest eine von den Audioausgabeschaltungen basierend auf dem Prioritätsattribut auswählt; und - den Audioinhalt von der Vorrichtung zu der zumindest einen von den Audioausgabeschaltungen kommuniziert.
  9. Vorrichtung nach Anspruch 8, wobei die ausführbaren Instruktionen von dem Prozessor ausführbar sind, um das Prioritätsattribut basierend auf einer Ausgabelänge des Audioinhalts zu bestimmen.
  10. Vorrichtung nach Anspruch 8, wobei die ausführbaren Instruktionen von dem Prozessor ausführbar sind, um das Prioritätsattribut basierend auf einer Benutzerhistorie zu bestimmen.
  11. Vorrichtung nach Anspruch 8, wobei die ausführbaren Instruktionen von dem Prozessor ausführbar sind, um das Prioritätsattribut basierend auf einer Zustandsbedingung der Audioausgabeschaltungen zu bestimmen.
  12. Vorrichtung nach Anspruch 8, wobei die ausführbaren Instruktionen von dem Prozessor ausführbar sind, um eine Prioritätsliste der Audioausgabeschaltungen basierend auf dem Prioritätsattribut zu bestimmen und einen Prioritäts-Audioausgabeschaltung von der Prioritätsliste basierend auf dem Prioritätsattribut auszuwählen.
  13. Vorrichtung nach Anspruch 8, wobei die ausführbaren Instruktionen von dem Prozessor ausführbar sind, um das Prioritätsattribut basierend auf einer Präsenz von Nichtbenutzern innerhalb eines vorbestimmten Bereichs der Vorrichtung zu bestimmen.
  14. Vorrichtung nach Anspruch 8, wobei die ausführbaren Instruktionen von dem Prozessor ausführbar sind, um die Benutzeranfrage mit einer Stimmerkennungsapplikation zu analysieren.
  15. Lesbare Datenspeichervorrichtung, die kein Signal ist, die ausführbaren Code umfasst zum: - Empfangen einer Benutzeranfrage durch eine Benutzerschnittstelle einer Basisvorrichtung; - Ermitteln von Audioinhalten basierend auf der Benutzeranfrage; - Identifizieren eines Prioritätsattributs, das der Benutzeranfrage zugeordnet ist; - Identifizieren einer Mehrzahl von Audioausgabeschaltungen; - Auswählen von zumindest einer der Audioausgabeschaltungen basierend auf dem Prioritätsattribut; und - Kommunizieren des Audioinhalts von der Vorrichtung an die zumindest eine von den ausgewählten Audioausgabeschaltungen.
  16. Computerprogrammprodukt nach Anspruch 15, weiter umfassend ausführbaren Code zum Bestimmen des Prioritätsattributs basierend auf einer Ausgabelänge des Audioinhalts.
  17. Computerprogrammprodukt nach Anspruch 15, weiter umfassend ausführbaren Code zum Bestimmen des Prioritätsattributs basierend auf einem oder mehreren von einer Benutzerhistorie, einer Zeit oder einem Datum.
  18. Computerprogrammprodukt nach Anspruch 15, weiter umfassend ausführbaren Code zum Bestimmen des Prioritätsattributs basierend auf Zustandsbedingungen der Audioausgabeschaltung.
  19. Computerprogrammprodukt nach Anspruch 15, weiter umfassend ausführbaren Code zum Bestimmen einer Prioritätsliste der Audioausgabeschaltungen basierend auf dem Prioritätsattribut und zum Auswählen einer Prioritäts-Audioausgabeschaltung von der Prioritätsliste basierend auf dem Prioritätsattribut.
  20. Computerprogrammprodukt nach Anspruch 15, weiter umfassend ausführbaren Code zum Bestimmen des Prioritätsattributs basierend auf einer Präsenz von Nichtbenutzern innerhalb eines vorbestimmten Bereichs einer Basisvorrichtung.
DE102018118349.6A 2017-08-01 2018-07-30 Verfahren und vorrichtung zum auswählen einer audioausgabeschaltung basierend auf prioritätsattributen Pending DE102018118349A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/665,786 2017-08-01
US15/665,786 US10147426B1 (en) 2017-08-01 2017-08-01 Method and device to select an audio output circuit based on priority attributes

Publications (1)

Publication Number Publication Date
DE102018118349A1 true DE102018118349A1 (de) 2019-02-07

Family

ID=64452139

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018118349.6A Pending DE102018118349A1 (de) 2017-08-01 2018-07-30 Verfahren und vorrichtung zum auswählen einer audioausgabeschaltung basierend auf prioritätsattributen

Country Status (2)

Country Link
US (1) US10147426B1 (de)
DE (1) DE102018118349A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182122B2 (en) * 2017-12-08 2021-11-23 Amazon Technologies, Inc. Voice control of computing devices
US10503468B2 (en) 2017-12-08 2019-12-10 Amazon Technologies, Inc. Voice enabling applications
CN111653269A (zh) * 2020-08-05 2020-09-11 江苏清微智能科技有限公司 一种语音识别的测试环境控制系统和方法
US11789691B2 (en) 2021-06-16 2023-10-17 Kyndryl, Inc. Audio management for a priority computing device application
CN113535113A (zh) * 2021-07-19 2021-10-22 上海月猫科技有限公司 一种音频共享方法、系统及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7698228B2 (en) * 2001-04-27 2010-04-13 Accenture Llp Tracking purchases in a location-based services system
US8660488B2 (en) * 2009-01-30 2014-02-25 Kabushiki Kaisha Toshiba Communication device
KR20120020532A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 오디오 신호 처리 방법 및 장치
US9633186B2 (en) * 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
US9244743B1 (en) 2012-08-01 2016-01-26 Amazon Technologies, Inc. Remotely interacting with a virtualized machine instance
WO2014189486A1 (en) 2013-05-20 2014-11-27 Intel Corporation Natural human-computer interaction for virtual personal assistant systems
US9479931B2 (en) 2013-12-16 2016-10-25 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
EP2919482B1 (de) * 2014-03-13 2019-11-06 LG Electronics Inc. Drahtloser Ohrhörer
WO2016037155A1 (en) * 2014-09-04 2016-03-10 PWV Inc Speaker discovery and assignment
KR102289474B1 (ko) * 2015-02-27 2021-08-13 삼성전자주식회사 오디오를 출력하는 방법 및 이를 위한 전자 장치
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback

Also Published As

Publication number Publication date
US10147426B1 (en) 2018-12-04

Similar Documents

Publication Publication Date Title
DE102018118349A1 (de) Verfahren und vorrichtung zum auswählen einer audioausgabeschaltung basierend auf prioritätsattributen
DE102017121758A1 (de) Intelligente Assistenz für wiederholte Aktionen
DE112016004863T5 (de) Parametersammlung und automatische Dialogerzeugung in Dialogsystemen
DE102017106423A1 (de) Kontexabhängige Task-Shortcuts
DE202017105819U1 (de) Mehrfachanwenderpersonalisierung bei einer Sprachschnittstellenvorrichtung
CN108919669A (zh) 一种智能家居动态决策方法、装置和服务终端
DE202017104895U1 (de) Hotword-Detektion bei mehreren Vorrichtungen
DE102011107992A1 (de) System und Verfahren zum Anmelden zu Ereignissen auf der Grundlage von Schlagwörtern
DE202017106514U1 (de) Proaktive Aufnahme von nicht angefordertem Inhalt in Mensch-Computer-Dialoge
DE112016002381T5 (de) Verbessern von Funktionalitäten von virtuellen Assistenten und Dialogsystemen über einen Plug-In-Marktplatz
DE112015003521T5 (de) Konversationsagenten
DE112016001594T5 (de) Verfahren, systeme und medien zum aggregieren und präsentieren von relevantem inhalt für ein bestimmtes videospiel
Casey The museum effect: gazing from object to performance in the contemporary cultural-history museum
DE202017104849U1 (de) Systeme und Medien zum Darstellen einer Benutzerschnittstelle, die für eine vorhergesagte Benutzeraktivität kundenspezifisch ist
DE112016005733T5 (de) Personalisierung grafischer Benutzeroberflächen zur Automatisierung komplexer Vorgänge
CN109948151A (zh) 构建语音助手的方法
DE102016125804A1 (de) Das Einbeziehen auswählbarer Anwendungslinks in Konversationen mit persönlichen Assistenz-Modulen
DE112017000177T5 (de) Authentifizierung von paketierten Audiosignalen
DE202016008225U1 (de) Unterstützung bei der semantischen Offline-Bearbeitung durch ein Gerät mit begrenzten Möglichkeiten
DE202013012491U1 (de) Quer-Erweiterungsnachrichtenübermittlung unter Verwendung eines Browsers als Intermediär
DE102022119403A1 (de) Verfahren und vorrichtungen, um private verbale nebengespräche bei virtuellen sitzungen zu ermöglichen
DE102018114453A1 (de) Interaktive Sessions
DE102018007493A1 (de) Verfügbares Tonumstellen für Clientvorrichtungen auf einer Onlinekonferenz
US20240097924A1 (en) Executing Scripting for Events of an Online Conferencing Service
CN111142833A (zh) 基于情景模式开发语音交互产品的方法及系统

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE