DE102018116315A1 - Systeme und Verfahren zum Erhöhen der Lautstärke einer Audio-Ausgabe durch ein Gerät - Google Patents

Systeme und Verfahren zum Erhöhen der Lautstärke einer Audio-Ausgabe durch ein Gerät Download PDF

Info

Publication number
DE102018116315A1
DE102018116315A1 DE102018116315.0A DE102018116315A DE102018116315A1 DE 102018116315 A1 DE102018116315 A1 DE 102018116315A1 DE 102018116315 A DE102018116315 A DE 102018116315A DE 102018116315 A1 DE102018116315 A1 DE 102018116315A1
Authority
DE
Germany
Prior art keywords
audio output
volume
sound
processor
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018116315.0A
Other languages
English (en)
Inventor
Nathan J. Peterson
Gary David Cudak
Jennifer Lee-Baron
Amy Leigh Rose
John Scott Crowe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102018116315A1 publication Critical patent/DE102018116315A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers without distortion of the input signal
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/32Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Abstract

In einem Aspekt umfasst ein erstes Gerät wenigstens einen Prozessor, ein Mikrofon, auf das der wenigstens eine Prozessor zugreifen kann, und einen Speicher, auf den der wenigstens einen Prozessor zugreifen kann. Der Speicher trägt Instruktionen, die durch den wenigstens einen Prozessor ausführbar sind, um eine Eingabe von dem Mikrofon zu empfangen und, basierend auf der Eingabe von dem Mikrofon, zu bestimmen, ob ein Sound von einem zweiten Gerät ein Soundkriterium erfüllt. Die Instruktionen sind auch ausführbar durch den wenigstens einen Prozessor, um, in Reaktion auf die Bestimmung, eine Anweisung auszugeben, die Lautstärke der Audioausgabe durch ein drittes Gerät zu erhöhen.

Description

  • HINTERGRUND
  • Wenn ein Nutzer einer Audioausgabe wie einem Lied oder einer Audioausgabe von einer Fernsehshow zuhört, möchte der Nutzer natürlich die Audioausgabe, die präsentiert wird, deutlich hören. Wie hierin ersichtlich, kann sich ein Nutzer jedoch entweder zu einem relativ zu dem Gerät, welches die Audioausgabe präsentiert, weiter entfernteren Ort bewegen, aber an dem weiter entfernteren Ort immer noch die Audioausgabe hören wollen, oder kann die Fähigkeit des Nutzers, die Audioausgabe zu hören, durch Geräusche, die durch ein anderes Gerät erzeugt werden, behindert werden. Es gibt gegenwärtig keine adäquate Lösung zu dem vorhergehenden computerbezogenen technologischen Problem.
  • ZUSAMMENFASSUNG
  • Dementsprechend umfasst in einem Aspekt ein erstes Gerät wenigstens einen Prozessor, ein Mikrofon, auf das der wenigstens eine Prozessor zugreifen kann, und einen Speicher, auf den der wenigstens einen Prozessor zugreifen kann. Der Speicher trägt Instruktionen, die durch den wenigstens einen Prozessor ausführbar sind, um eine Eingabe von dem Mikrofon zu empfangen und, basierend auf der Eingabe von dem Mikrofon, zu bestimmen, ob Sound von einem zweiten Gerät ein Soundkriterium erfüllt. Die Instruktionen sind auch durch wenigstens einen Prozessor ausführbar, um, in Reaktion auf die Bestimmung, eine Anweisung auszugeben, die Lautstärke einer Audioausgabe eines dritten Geräts zu erhöhen.
  • In einem anderen Aspekt umfasst ein Verfahren ein Empfangen einer Eingabe von einem Mikrofon an einem ersten Gerät. Das Verfahren umfasst auch ein Bestimmen, basierend auf der Eingabe von dem Mikrofon, ob Sound von einem zweiten Gerät ein Soundkriterium erfüllt. Noch weiterhin umfasst das Verfahren in Reaktion auf das Bestimmen ein Übertragen einer Anweisung an ein drittes Gerät, die Lautstärke einer Audioausgabe des dritten Geräts zu erhöhen.
  • In noch einem anderen Aspekt umfasst eine Vorrichtung einen ersten Prozessor, einen Netzwerkadapter, und einen Speicher, der Instruktionen trägt. Die Instruktionen sind durch einen zweiten Prozessor eines ersten Gerätes ausführbar zum Empfangen einer Eingabe von einem Mikrofon, auf das der wenigstens eine zweite Prozessor zugreifen kann, und zum Bestimmen, basierend auf der Eingabe vom Mikrofon, ob Sound von einem zweiten Gerät ein Soundkriterium erfüllt. Die Instruktionen sind auch durch den zweiten Prozessor ausführbar zum Bereitstellen, in Reaktion auf das Bestimmen, einer Anweisung, die Lautstärke einer Audioausgabe eines dritten Geräts zu erhöhen. Der erste Prozessor überträgt die Instruktionen zu dem ersten Gerät über ein Netzwerk mittels des Netzwerkadapters.
  • In noch einem anderen Aspekt umfasst ein erstes Gerät wenigstens einen Prozessor, ein Mikrofon, auf das der wenigstens eine Prozessor zugreifen kann, und einen Speicher, auf den der wenigstens eine Prozessor zugreifen kann. Der Speicher trägt Instruktionen, die durch den wenigstens einen Prozessor ausführbar sind, um eine Eingabe von dem Mikrofon zu empfangen und basierend auf der Eingabe von dem Mikrofon zu bestimmen, ob Sound von einem zweiten Gerät ein Soundkriterium erfüllt. Die Instruktionen sind auch durch den wenigstens einen Prozessor ausführbar, um, in Reaktion auf die Bestimmung, eine Anweisung auszugeben, die Lautstärke einer Audioausgabe eines dritten Geräts zu ändern.
  • Die Details der vorliegenden Prinzipien, sowohl in Bezug auf ihre Struktur als auch auf den Betrieb, kann am besten mit Bezug auf die begleitenden Zeichnungen verstanden werden, in denen sich ähnliche Bezugszeichen auf ähnliche Teile beziehen, und in denen:
  • Figurenliste
    • 1 ein Blockdiagramm eines Beispielsystems gemäß den vorliegenden Prinzipien ist;
    • 2 ein Blockdiagramm eines Beispielnetzwerks von Geräten gemäß den vorliegenden Prinzipien ist;
    • 3-5 Beispielsdarstellungen gemäß den vorliegenden Prinzipien zeigen;
    • 6 ein Flussdiagramm eines Beispielalgorithmus gemäß den vorliegenden Prinzipien ist; und
    • 7-9 Beispiele von Nutzerschnittstellen (UIs) gemäß den vorliegenden Prinzipien sind.
  • DETAILLIERTE BESCHREIBUNG
  • Gemäß den vorliegenden Prinzipien kann ein persönliches Gerät wie ein tragbares Gerät oder ein Smartphone eines Nutzers helfen, die Soundausgabe über mehrere andere Geräte zu koordinieren. Wenn ein Nutzer zum Beispiel einer Audioausgabe von einem ersten Gerät zuhört, während er eine Smartuhr, welche ihr eigenes Mikrofon aufweist, trägt, kann der Nutzer eine optimale Lautstärke für die Audioausgabe des ersten Geräts einstellen. Wenn sich der Nutzer dann umher bewegt, kann die Lautstärke der Audioausgabe des ersten Geräts erhöht oder verringert werden, basierend auf der sich ändernden Entfernung des Nutzers (die durch das tragbare Gerät bestimmt wird), so dass die Lautstärke dem Nutzer an unterschiedlichen Orten, zu denen sich der Nutzer bewegt, als ein optimaler Lautstärkepegel erscheint.
  • Wenn Sound von mehreren Geräten durch das tragbare Gerät des Nutzers gehört werden kann, kann das tragbare Gerät entscheiden oder kann der Nutzer diesem sagen, auf welches Gerät der Nutzer fokussiert ist. Darauf basierend, kann das tragbare Gerät die Lautstärke von einem Gerät, auf das fokussiert wird, erhöhen und/oder die Lautstärke des anderen Gerätes herunterfahren.
  • Wenn mehrere Personen ihre entsprechenden persönlichen Geräte verwenden, um innerhalb der gleichen Umgebung zu der gleichen Zeit unterschiedliche Audioausgaben zu hören, kann eine Quittierungsüberwachung oder ein Präzedenzfall/eine Priorität für welches Audio die Lautstärke zu erhöhen ist und für welches Audio die Lautstärke zu vermindern ist, eingerichtet werden.
  • Wenn beispielsweise ein Nutzer ein Audiogerät in der Küche des Nutzers zurücklässt und zu dem Wohnzimmer des Nutzers hinübergeht und den Fernseher in dem Wohnzimmer einschaltet, kann das tragbare Gerät wenn sich der Nutzer in dem Wohnzimmer hinsetzt, automatisch die Lautstärke des Küchengerätes vermindern und/oder die Lautstärke des Fernsehers erhöhen.
  • Wenn in noch einem anderen Beispiel ein Vater oder eine Mutter TV sehen und das separate Gerät ihres Kindes auch eine Audioausgabe ausgibt, kann das tragbare Gerät des Vaters/der Mutter die Lautstärke der Audioausgabe durch das Gerät der Kinder reduzieren, basierend darauf, dass der Vater/die Mutter eine höher eingeordnete Nutzerpriorität haben.
  • In noch einem anderen Beispiel kann ein lautes Gerät pausieren, wenn ein Nutzer einer Musik zuhört oder TV schaut. Oder kann, wenn das TV bereits eingeschaltet ist und jemand anders einen lauten Geschirrspüler-Zyklus startet, ein Gerät gemäß den vorliegenden Prinzipien den Geschirrspüler anweisen, den Start des Zyklus zu verzögern, bis das TV ausgeschaltet ist.
  • Mit Bezug auf irgendeines der hierin besprochenen Computersysteme kann ein System Server- und Clientkomponenten umfassen, die über ein Netzwerk verbunden sind, sodass Daten zwischen den Client- und Serverkomponenten ausgetauscht werden können. Die Clientkomponenten können ein oder mehrere Computergeräte umfassen, darunter Fernseher (z.B. Smart-TVs, internetfähige TVs), Computer wie Desktopcomputer, Laptops, Tabletcomputer, sogenannte konvertierbare Geräte (welche z.B. eine Tablet-Konfiguration und Laptopkonfiguration aufweisen) und andere Mobilgeräte, einschließlich Smartphones. Diese Clientgeräte können, als nichteinschränkende Beispiele, Betriebssysteme von Apple, Google oder Microsoft anwenden. Es kann Unix oder ein ähnliches Betriebssystem wie ein Linux verwendet werden. Diese Betriebssysteme können einen oder mehrere Browser verwenden, darunter einen Browser von Microsoft oder Google oder Mozilla oder ein anderes Browserprogramm, das auf Webseiten und Webanwendungen zugreifen kann, die durch Internetserver über ein Netzwerk wie das Internet, einem lokalen Intranet oder einem virtuellen privaten Netzwerk gehostet werden.
  • Wie hierin verwendet, beziehen sich Anweisungen auf computerimplementierte Schritte für die Verarbeitung von Informationen im System. Anweisungen können als Software, Firmware oder Hardware oder Kombinationen davon implementiert werden, und schließen jede Art von programmierten Schritten ein, die durch Komponenten des Systems ausgeführt werden, weswegen erläuternde Komponenten, Blöcke, Module, Schaltkreise und Schritte manchmal in Bezug auf ihre Funktionalität dargelegt werden.
  • Ein Prozessor kann ein beliebiger herkömmlicher Allzweckprozessor mit einem oder mehreren Chips sein, der mit Hilfe von verschiedenen Leitungen wie Adressleitungen, Datenleitungen und Steuerleitungen und Registern und Schieberegistern eine Logik ausführen kann. Darüber hinaus können beliebige hierin beschriebene logische Blöcke, Module und Schaltkreise, zusätzlich zu einem Allzweckprozessor, in oder durch einen Digitalsignalprozessor (DSP), einen Field Programmable Gate-Array (FPGA) oder ein sonstiges programmierbares logisches Gerät wie einem anwendungsspezifischen integrierten Schaltkreis (ASIC), diskreter Gate- oder Transistorlogik, diskreter Hardwarekomponenten oder einer Kombination davon, die ausgebildet ist um die hierin beschriebenen Funktionen auszuführen, verwendet oder ausgeführt werden. Ein Prozessor kann durch eine Steuerung oder Zustandsmaschine oder einer Kombination von Computergeräten implementiert werden.
  • Softwaremodule und/oder Applikationen, die mittels Flussdiagrammen und/oder Nutzerschnittstellen beschrieben werden können verschiedene Unterroutinen, Verfahren usw. umfassen. Ohne die Offenbarung zu begrenzen kann eine festgestellte Logik durch ein besonders Modul ausgeführt werden, das auf andere Softwaremodule verteilt sein kann und/oder in einem einzigen Modul kombiniert sein kann und/oder in einer mitbenutzbaren Bibliothek verfügbar sein kann.
  • Eine Logik kann, wenn sie Software verwendet, in einer geeigneten Sprache geschrieben werden, darunter C# oder C++, und kann auf ein computerlesbares Speichermedium (das z.B. kein flüchtiges, sich ausbreitendes Signal an sich sein kann) wie einen Direktzugriffsspeicher (RAM), Festwertspeicher (ROM), elektrisch löschbaren, programmierbaren Festwertspeicher (EEPROM), Compact Disc- Festwertspeicher (CD-ROM) oder einen weiterer optischen Plattenspeicher wie die Digital Versatile Disk (DVD), Plattenspeicher oder sonstige Magnetspeichergeräte, darunter entfernbare USB-Speichersticks usw., gespeichert und übertragen werden.
  • In einem Beispiel kann ein Prozessor über seine Eingangsleitungen auf Informationen von einem Datenspeicher, wie dem computerlesbaren Speichermedium, zugreifen, und/oder kann der Prozessor drahtlos auf Informationen von einem Internetserver zugreifen, um Daten zu senden und zu empfangen. Die Daten werden, wenn sie empfangen werden, üblicherweise durch einen Schaltkreis zwischen der Antenne und den Registern des Prozessors von Analogsignalen zu Digitalsignalen umgewandelt, und wenn sie gesendet werden, von digital zu analog umgewandelt. Der Prozessor verarbeitet dann die Daten durch seine Schieberegister, um berechnete Daten auf Ausgangsleitungen für die Darstellung der berechneten Daten auf dem Gerät auszugeben.
  • Die in einer Ausführungsform einbezogenen Komponenten können bei anderen Ausführungsformen in einer geeigneten Kombination verwendet werden. Es können zum Beispiel verschiedene der hierin beschriebenen und/oder in den Figuren dargestellten Komponenten kombiniert, ausgetauscht oder bei anderen Ausführungsformen weggelassen werden.
  • „Ein System, das wenigstens eines von A, B, und C aufweist“ (ähnlich wie “ Ein System, das wenigstens eines von A, B, oder C aufweist “ und “ ein System, das wenigstens eines von A, B, C aufweist “) umfasst Systeme, die A alleine, B alleine, C alleine, A und B zusammen, A und C zusammen, B und C zusammen und/oder A, B, und C zusammen, usw. aufweisen.
  • Der Begriff „Schaltkreis“ oder „Schaltung“ kann in der Zusammenfassung, Beschreibung und/oder den Ansprüchen verwendet werden. Wie in der Fachwelt gut bekannt umfasst der Begriff „Schaltung“ alle Ebenen der Integration, d. h. von diskreten logischen Schaltkreisen zur höchsten Ebene der Schaltkreisintegration wie VLSI, und umfasst programmierbare logische Komponenten programmiert zur Ausführung der Funktionen einer Ausführungsform sowie Allzweckprozessoren oder Prozessoren für einen speziellen Zweck programmiert mit Anweisungen, um solche Funktionen auszuführen.
  • Nun speziell mit Bezug auf 1 wird ein Beispiel eines Blockdiagrams eines Informationshandhabungssystems oder eines Computersystems 100 gezeigt, von dem bekannt ist, ein Gehäuse für die unten beschriebenen Komponenten aufzuweisen. Man beachte, dass in manchen Ausführungsformen das System 100 z. B. ein Desktopcomputersystem wie die ThinkCentre® oder ThinkPad® Reihe von Personal-Computern vertrieben von Lenovo (US) Inc. aus Morrisville, NC oder ein Arbeitsplatzrechner, wie die ThinkStation®, vertrieben von Lenovo (US) Inc. of Morrisville, NC, sein kann; wie jedoch aus der Beschreibung hierin ersichtlich, kann ein Clientgerät, ein Server oder eine sonstige Maschine entsprechend den vorliegenden Prinzipien andere Merkmale oder nur manche der Merkmale des Systems 100 umfassen. Auch kann das System 100 eine Spielekonsole wie eine XBOX® sein, und/oder kann das System 100 ein drahtloses Telefon, einen Notebookcomputer, und/oder ein anderes computerisiertes Gerät einschließen.
  • Wie in 1 gezeigt, kann das System 100 einen so genannte Chipsatz 110 umfassen. Ein Chipsatz bezieht sich auf eine Gruppe von integrierten Schaltkreisen oder Chips, die darauf ausgerichtet sind, zusammenzuarbeiten. Chipsätze werden normalerweise als Einzelprodukte angeboten (man betrachte z.B. Chipsätze vermarktet durch INTEL®, AMD®, usw.).
  • In dem Beispiel der 1 weist der Chipsatz 110 eine spezielle Architektur auf, die je nach Marke oder Hersteller in gewissem Maße unterschiedlich sein kann. Die Architektur des Chipsatzes 110 umfasst eine Kern- und Speichersteuergruppe 120 und einen E/A-Steuerknoten 150, die Informationen (z. B. Daten, Signale, Befehle usw.) austauschen, z. B. durch eine Direct Management Interface oder eine Direct Media Interface (DMI) 142 oder eine Verbindungssteuerung 144. Im Beispiel von 1 ist die DMI 142 eine Chip-zu-Chip-Schnittstelle (manchmal als Verbindung zwischen einer „Northbridge“ und einer „Southbridge“ bezeichnet).
  • Die Kern- und Speichersteuergruppe 120 umfasst einen oder mehrere Prozessoren 122 (z. B. Einzelkern oder Mehrkern usw.) und einen Speichersteuerknoten 126, die Informationen über einen Front Side Bus (FSB) 124 austauschen. Wie hierin beschrieben können unterschiedliche Komponenten der Kern- und Speichersteuergruppe 120 in einem einzigen Prozessorwürfel integriert werden, z.B. um einen Chip zu erstellen, der die herkömmliche „Northbridge“-Architektur ersetzt.
  • Der Speichersteuerknoten 126 ist an dem Speicher 140 angeschlossen. Der Speichersteuerknoten 126 kann zum Beispiel Unterstützung für DDR SDRAM Speicher (z.B. DDR, DDR2, DDR3 usw.) bereitstellen. Im Allgemeinen ist der Speicher 140 eine Art von Direktzugriffspeicher. Dieser wird oft „Systemspeicher“ genannt.
  • Der Speichersteuerknoten 126 kann weiterhin eine Niederspannungs-Differentialsignalisierungsschnittstelle (LVDS) 132 umfassen. Die LVDS 132 kann eine so genannte LVDS-Anzeigeschnittstelle (LDI) für die Unterstützung eines Anzeigegerätes 192 (z. B. einen CRT, einen Flachbildschirm, einen Projektor, eine berührungsempfindliche Anzeige usw.) sein. Ein Block 138 umfasst einige Beispiele von Technologien, die über die LVDS-Schnittstelle 132 unterstützt werden können (z. B. serielles digitales Video, HDMI/DVI, Displayport). Der Speichersteuerknoten 126 umfasst ebenfalls eine oder mehrere PCI-Express-Schnittstellen (PCI-E) 134, z. B. zur Unterstützung von diskreten Grafiken 136. Diskrete Grafiken mithilfe einer PCI-E-Schnittstelle haben sich zu einem alternativen Ansatz zu einem Accelerated Graphics Port (AGP) verwandelt. Zum Beispiel kann der Speichersteuerknoten 126 einen 16-Lanes (x16) PCI-E-Port für eine externe PCI-E-basierte Grafikkarte (mit z. B. einer oder mehreren GPUs) umfassen. Ein Beispielsystem kann AGP oder PCI-E als Grafiksupport umfassen.
  • In Beispielen, in denen er verwendet wird, kann der E/A-Steuerknoten 150 eine Vielzahl von Schnittstellen umfassen. Das Beispiel von 1 umfasst eine SATA-Schnittstelle 151, eine oder mehrere PCI-E-Schnittstellen 152 (wahlweise eine oder mehrere Legacy PCI-Schnittstellen), eine oder mehrere USB-Schnittstellen 153, eine LAN-Schnittstelle 154 (üblicherweise eher eine Netzwerkschnittstelle für die Kommunikation über mindestens ein Netzwerk wie das Internet, einem WAN, einem LAN usw. unter der Leitung der Prozessoren 122), eine Allzweck-E/A-Schnittstelle (GPIO) 155, eine Schnittstelle mit niedriger Pinzahl (LPC) 170, eine Energieverwaltungsschnittstelle 161, eine Taktgeneratorschnittstelle 162, eine Audioschnittstelle 163 (z. B. für Lautsprecher 194 für die Ausgabe von Audio), eine Gesamtbetriebskosten- (TCO) Schnittstelle 164, eine Systemverwaltungs-Busschnittstelle (z. B. eine serielle Multi-Master- Computer-Busschnittstelle) 165 und eine serielle periphere Flash-Speicher/Steuerschnittstelle (SPI-Flash) 166, welche bei dem Beispiel von 1 BIOS 168 und Bootcode 190 umfasst. In Bezug auf die Netzwerkverbindungen kann der E/A-Steuerknoten 150 integrierte Gigabit-Ethernet-Steuerleitungen multiplexed mit einem PCI-E-Schnittstellenport umfassen. Andere Netzwerkfunktionen können unabhängig von der PCI-E-Schnittstelle betrieben werden.
  • Die Schnittstellen des E/A-Steuerknotens 150 können eine Kommunikation mit verschiedenen Geräten, Netzwerken usw. bereitstellen. Zum Beispiel bietet die SATA-Schnittstelle 151 wo sie verwendet wird, ein Lesen, ein Schreiben oder ein Lesen und ein Schreiben von Informationen auf einem oder mehreren Laufwerken 180, wie HDDs, SDDs oder auf einer Kombination davon, aber in jedem Fall werden die Laufwerke 180 als konkrete computerlesbare Speichermedien verstanden, die keine flüchtigen Signale sind. Der E/A-Steuerungsknoten 150 kann ebenfalls eine Advanced Hots Controller Interface (AHCI) umfassen, um ein oder mehrere Laufwerke 180 zu unterstützen. Die PCI-E-Schnittstelle 152 ermöglicht drahtlose Verbindungen 182 mit Geräten, Netzwerken usw. Die USB-Schnittstelle 153 ermöglicht den Anschluss von Eingabegeräten 184, wie Keyboards (KB), Mäusen und verschiedenen anderen Geräten (z. B. Kameras, einschließlich sowohl Kameras für ein sichtbares Spektrum als auch Kameras wie vorwärts schauende Infrarot-Kameras, Telefone, Speicher, Mediaplayer usw.).
  • In dem Beispiel der 1 ermöglicht die LPC-Schnittstelle 170 den Anschluss von einem oder mehreren ASICs 171, einem Trusted Platform Module (TPM) 172, einem Super-E/A 173, einem Firmwareknoten 174, BIOS-Unterstützung 175 sowie unterschiedlichen Arten von Speichern 176 wie ROM 177, Flash 178 und nichtflüchtigen RAM (NVRAM) 179. Was das TPM 172 betrifft, kann dieses Modul in Form eines Chips vorliegen, der zur Authentifizierung von Software und Hardwaregeräten verwendet werden kann. Zum Beispiel kann ein TPM in der Lage sein, eine Plattformauthentifizierung durchzuführen, und kann zur Überprüfung, dass ein zugriffsuchendes System das erwartete System ist, verwendet werden.
  • Das System 100 kann nach einem Einschalten konfiguriert sein, um einen Bootcode 190 für das BIOS 168 auszuführen, wie innerhalb des SPI Flash 166 gespeichert, und verarbeitet danach Daten unter der Steuerung von einem oder mehreren Betriebssystemen und Anwendungssoftware (wie z. B. im Systemspeicher 140 gespeichert). Ein Betriebssystem kann an einer Vielzahl von Orten gespeichert und z. B. gemäß den Instruktionen des BIOS 168 darauf zugegriffen werden.
  • Zusätzlich kann das System 100 einen Audioempfänger/ein Mikrofon 191 aufweisen, das dem Prozessor 122 eine Eingabe von dem Mikrofon bereitstellt, basierend auf einer Audio-/Sound-Ausgabe, die gemäß den vorliegenden Prinzipien erfasst wird. In einigen Ausführungsformen kann das Mikrofon 191 tatsächlich eine Anordnung einer Mehrzahl von Mikrofonen sein. Die Mikrofone in der Anordnung können z.B. faseroptische Mikrofone, Druckgradienten-Mikrofone, unidirektionale Mikrofone, Kardioidmikrofone und/oder sogenannte „shotgun“ Mikrofone usw. sein.
  • Das System 100 kann auch eine Kamera 193 umfassen, die ein oder mehrere Bilder aufnimmt und eine Eingabe, die darauf bezogen ist, an den Prozessor 122 bereitstellt. Die Kamera kann eine Thermobildkamera, eine Digitalkamera wie eine Webcam, eine dreidimensionale (3D) Kamera und/oder eine Kamera sein, die in irgendeiner anderen Weise in das System 100 integriert ist und durch den Prozessor 122 steuerbar ist, um Abbildungen/Bilder und/oder Videos aufzunehmen. Noch weiterhin kann das System 100 einen GPS-Transceiver 195 einschließen, der konfiguriert ist, um mit wenigstens einem Satelliten zu kommunizieren, um eine geografische Positionsinformation zu empfangen/zu identifizieren und dem Prozessor 122 die geografische Positionsinformation bereitzustellen.
  • Es ist jedoch verständlich, dass gemäß den vorliegenden Prinzipien ein anderer geeigneter Positionsempfänger als ein GPS-Empfänger verwendet werden kann, um den Ort des Systems 100 zu bestimmen.
  • Obwohl der Klarheit wegen nicht gezeigt, kann das System 100 in einigen Ausführungsformen auch ein Gyroskop, das die Orientierung des Systems 100 wahrnimmt und/oder misst, und eine Eingabe, die sich darauf bezieht, an den Prozessor 122 bereitstellt, sowie einen Beschleunigungsmesser umfassen, der eine Beschleunigung und/oder Bewegung des Systems 100 wahrnimmt und eine Eingabe, die sich darauf bezieht, an den Prozessor 122 bereitstellt.
  • Es ist verständlich, dass ein beispielhaftes Client-Gerät oder eine andere Maschine/ein anderer Computer weniger oder mehr Merkmale umfassen kann, als das dargestellte System 100 der 1. In jedem Fall ist es wenigstens basierend auf dem Vorhergehenden verständlich, dass das System 100 konfiguriert ist, um die gegenwärtigen Prinzipien auszuführen.
  • Nun 2 zugewendet, werden beispielhafte Geräte gezeigt, die über ein Netzwerk 200 wie das Internet oder ein Bluetooth-Netzwerk in Übereinstimmung mit den vorliegenden Prinzipien kommunizieren. In einigen Ausführungsformen kann das Netzwerk 200 spezifischer Weise ein Internet of Things Netzwerk sein. Es ist verständlich, dass jedes der Geräte, die in Bezug auf 2 beschrieben werden, wenigstens einige der Merkmale, Komponenten und/oder Elemente des oben beschriebenen Systems 100aufweisen kann. Tatsächlich kann irgendeines der Geräte, die hierin offenbart werden, wenigstens einige der Merkmale, Komponenten und/oder Elemente des oben beschriebenen Systems 100 aufweisen.
  • 2 zeigt einen Notebookcomputer und/oder einen konvertierbaren Computer 202, einen Desktopcomputer 204, ein tragbares Gerät 206 wie eine Smartwatch, einen Smart-Fernseher (TV) 208, ein Smartphone 210, einen Tabletcomputer 212, ein Smartgerät 216 und einen Server 214 wie einen Internetserver, der einen Cloudspeicher bereitstellen kann, auf den die Geräte 202-212, 216 zugreifen können. Unter Beschreiben des Smartgerätes 216 in größerem Detail, kann dieses ein Smartofen/Herd, ein Smartgeschirrspüler, eine Smartmikrowelle, ein Smartgebläse, ein Smart-mixgerät usw. sein. Es ist verständlich, dass die Geräte 202-216 konfiguriert sind, um miteinander über das Netzwerk 200 zu kommunizieren, um die gegenwärtigen Prinzipien auszuführen.
  • Nun die 3 und 4 beschreibend, zeigen diese entsprechende beispielhafte Darstellungen 300, 400 in Übereinstimmung mit den vorliegenden Prinzipien. In beiden Darstellungen 300, 400 wird ein Nutzer 302 gezeigt. In der Darstellung 300 wird der Nutzer 302 auf einer Couch 304 in einem Wohnzimmer 306 eines privaten Heims, während des Beobachtens eines Audiovideoinhalts, der über einen Smartfernseher 308 präsentiert wird, gezeigt. In der Darstellung 400, hat sich der Nutzer 302 von dem Wohnzimmer 306 in eine benachbarte Küche 310 (nahe zu einem Tisch 312) begeben, wobei verstanden wird, dass der Nutzer 302 in der Küche 310 weiter von dem TV 308 entfernt ist, als wenn er auf der Couch 304 sitzt.
  • In beiden 3 und 4 wird verstanden, dass der Nutzer 302 eine Smartwatch 314 trägt, obwohl dies nur in 4 gezeigt wird. In Übereinstimmung mit den vorliegenden Prinzipien kann ein Mikrofon auf der Smartwatch 314 eine Audioausgabe durch den TV 308 über den Lautsprecher des TV als Teil des Audiovideoinhalts, der von dem TV 308 präsentiert wird, wahrnehmen. Wenn der Nutzer 302 auf der Couch 304 in Front des TV 308, wie es in 3 gezeigt wird, ist, kann die Smartwatch 314 den Lautstärkepegel des Audiogerätes an dem Ort der Smartwatch 314 und folglich an dem Ort des Nutzers 302 wahrnehmen. Die Smartwatch 314 kann dann mit dem TV 308 kommunizieren, um eine Anweisung an das TV 308 bereitzustellen (z.B. über das Internet, ein Bluetooth-Netzwerk oder ein lokales Bereichsnetzwerk (LAN)), um die Lautstärkeausgabe durch das TV 308 anzupassen, so dass, an dem Ort des Nutzers 302 auf der Couch 304, das Audiosignal auf einem vordefinierten Lautstärkepegel (z.B. in Dezibel) liegt.
  • Dann, wenn sich der Nutzer 302 in der relativ zu dem TV 308 weiter entfernten Küche 310, wie in 4 gezeigt, befindet, kann die Smartwatch 314 wiederum den Lautstärkepegel des Audiosignals an dem Ort der Smartwatch 314 und folglich an dem Ort des Nutzers 302 wahrnehmen (in diesem Fall ist der Ort des Nutzers 302, wenn er/sie in der Küche 310 steht) und kann mit dem TV 308 kommunizieren, um eine Anweisung, die Lautstärkeausgabe durch das TV 308 zu erhöhen, bereitzustellen, so dass die Audioausgabe an dem Ort des Nutzers 302 in der Küche 310 auf demselben vordefinierten Lautstärkepegel bleibt. Somit kann, wenn sich der Nutzer von dem Wohnzimmer 306 zu der Küche und zu anderen Plätzen innerhalb seines Wohnortes vor und zurück bewegt, die Lautstärke der Audioausgabe, die von dem TV 308 ausgegeben wird, proportional dazu, wie die Entfernung von dem TV 308 (der Quelle der Audioausgabe) zu dem Nutzer zunimmt, erhöht werden und kann proportional dazu, wie die ,Entfernung von dem TV 308 zu dem Nutzer 302 abnimmt, vermindert werden. Dementsprechend kann die Audioausgabe, die durch das TV 308 ausgegeben wird, dem Nutzer 302 gleich erscheinen, obwohl sich der Nutzer 302 näher zu oder weiter weg von dem TV 308 bewegt.
  • 5 zeigt eine andere Darstellung 500 gemäß den vorliegenden Prinzipien. Der Nutzer 302 wird wieder auf der Couch 304 in dem Wohnzimmer 306 sitzend gezeigt, während er einen Audiovideoinhalt, der auf dem TV 308 präsentiert wird, beobachtet. In der Darstellung 500 ist jedoch auch ein zweiter Nutzer 502 innerhalb des Wohnortes und sgenauer gesagt in der Küche 310 anwesend. Der zweite Nutzer 502 arbeitet mit einem Tablet-Computer 504 und sitzt an der Spitze des Tisches 312. Es wird auch verstanden, dass der Tablet-Computer 504 einen Audiovideoinhalt über seine eigenen Lautsprecher und seine Anzeige präsentiert.
  • Dieser unterschiedliche Audiovideoinhalt, wie er über den Tablet-Computer 504 präsentiert wird, interferiert nun mit der Fähigkeit des Nutzers 302 die Audioausgabe, die von dem TV 308 ausgegeben wird, deutlich zu hören und zu genießen, da der Nutzer 302 nun auch die Audioausgabe von dem Tablet-Computer 504 in der benachbarten Küche 310 hören kann. Das Mikrofon auf der Smartwatch 314, die noch immer von dem Nutzer getragen wird (die jedoch in 5 der Einfachheit halber nicht gezeigt wird), kann die Audioausgabe von dem Tablet-Computer 504 wahrnehmen und kann die Smartwatch 314 basierend darauf eine entsprechende Aktion ausführen.
  • Zum Beispiel kann die Smartwatch 314 eine Anweisung an den Tablet-Computer 504 senden, um die Lautstärke der Audioausgabe durch den Tablet-Computer 504 zu vermindern. Zusätzlich oder alternativ kann die Smartwatch 314 eine Anweisung an das TV 308 senden, um die Lautstärke der Audioausgabe durch den TV 308 zu erhöhen, so dass der Nutzer die Audioausgabe durch den TV 308 stärker als die Audioausgabe, die durch den Tablet-Computer 504 ausgegeben wird, hören kann. Die Smartwatch 314 kann ein oder beide dieser Dinge ausführen, basierend darauf, dass die Audioausgabe von dem TV 308, aufgrund der zusätzlichen Audioausgaben an dem Wohnort von dem Tablet-Computer 504, nicht länger für die Smartwatch 314 verständlich ist. Die Smartwatch 314 kann auch ein oder beide dieser Dinge ausführen, basierend darauf, dass die Audioausgabe von dem Tablet-Computer 504, wie sie durch die Smartwatch 314 an dem Ort des Nutzers 302 wahrgenommen wird, an dem Ort des Nutzers 302 über einem Schwellwert-Dezibel-Pegel liegt.
  • Sobald dann der TV 308 ein Präsentieren des Audiovideoinhaltes, den dieses dargestellt hat, beendet, beispielsweise wenn das Gerät stummgeschalten oder ausgeschaltet wird, kann die Smartwatch 314 eine andere Anweisung an den Tablet-Computer 504 senden. Diese andere Anweisung kann eine Anweisung für den Tablet-Computer 504 sein, um ein Ausgeben einer Audioausgabe auf dem gleichen Pegel fortzusetzen, auf dem dieser vorhergehend seine Audioausgabe ausgegeben hat, bevor die Smartwatch 314 diesen angewiesen hat, den Pegel der Audioausgabe zu verringern.
  • Nun mit Bezug auf 6, wird eine beispielhafte Logik gezeigt, die durch ein Gerät wie das System 100, die Smartwatch 314 oder ein anderes Gerät in Übereinstimmung mit den vorliegenden Prinzipien ausgeführt werden kann. Das Gerät, das die Logik der 6 ausführt, wird unten als das „erste Gerät“ bezeichnet.
  • Beginnend beim Block 600, kann das erste Gerät ein anderes Gerät und/oder einen besonderen Inhalt bestimmen, welcher durch einen Nutzer beobachtet/fokussiert wird. Das kann zum Beispiel durch Empfangen von Bildern von einer Kamera innerhalb einer Umgebung, in der der Nutzer angeordnet ist (wie einer Kamera auf einem TV, das der Nutzer betrachtet), ausgeführt werden und durch Ausführen einer Eye Tracking Software, um, unter Verwenden der Bilder, ein besonderes Gerät, auf das der Nutzer blickt, zu identifizieren. Das kann auch durch Verfolgen eines Nutzerortes und/oder eines Ortes des persönlichen Gerätes des Nutzers (wie seiner Smartwatch oder seinem Smartphone, oder in dem vorliegenden Beispiel dem ersten Gerät der 6) ausgeführt werden und durch Bestimmen eines relativ zu dem Ort des Nutzers/Gerätes nächstgelegenen Gerätes, das gegenwärtig Inhalt darstellt. Sprach- und andere Nutzereingaben (z.B. Berührungseingabe auf einer Anzeige) können auch verwendet werden, wie wenn ein Nutzer das erste Gerät anweist zu „fokussieren auf“ ein anderes Gerät, das gegenwärtig den Audiovideoinhalt präsentiert, so dass die Lautstärke des anderen Gerätes/Inhalts so angepasst werden kann, dass ein Nutzer fortsetzen kann, die Audioausgabe zu hören, wie es weiter unten dargelegt wird.
  • Zusätzlich kann auch eine nutzerdefinierte Priorität, auf welches Gerät zu fokussieren ist, verwendet werden, um zu bestimmen, welches Gerät/welcher Inhalt durch einen Nutzer beobachtet wird. Zum Beispiel kann ein Gerät eine Priorität für alle Geräte einstellen, welche gegenwärtig eine Audioausgabe präsentieren, so dass zuerst ein höher eingeordnetes Gerät vor einem niedriger eingeordneten Gerät ausgewählt wird, so dass Lautstärkeanpassungen derart ausgeführt werden können, dass der Nutzer die Audioausgabe von dem höher eingeordneten Gerät gegenüber dem Sound von dem niedriger eingeordneten Gerät hören kann. Der Nutzer kann diese Priorität durch Bereitstellen einer Eingabe an eine Nutzerschnittstelle (UI), die auf einer Anzeige zum Einrichten der Priorität dargestellt wird, bestimmen.
  • Vom Block 600 kann sich die Logik der 6 dann zum Block 602 bewegen. Beim Block 602 kann das erste Gerät eine Eingabe von einem Mikrofon auf dem ersten Gerät empfangen, die einen Sound anzeigt. Die Logik kann dann zu einer Entscheidungsraute 604 fortgesetzt werden, wo das erste Gerät bestimmen kann, ob der Sound, der in der Eingabe von dem Mikrofon angezeigt wird, von oder in anderer Weise mit dem Inhalt/Gerät assoziiert ist, von dem bestimmt wurde, von dem Nutzer beobachtet zu werden. Die Bestimmung bei der Raute 604 kann zum Beispiel ausgeführt werden, wenn es erscheint, dass nur Sound von einem Gerät in der Eingabe angezeigt zu sein scheint, wobei keine anderen Geräten gegenwärtig Sound ausgeben, was basierend auf der Eingabe von dem Mikrofon und/oder der Kommunikation mit anderen Geräten bestimmt werden kann, die über das gleiche Netzwerk kommunizieren wie das erste Gerät, um zu identifizieren, welche anderen Geräte gegenwärtig eine Audioausgabe ausgeben.
  • Eine Akustikquellenlokalisierung kann auch verwendet werden, um die Bestimmung bei der Raute 604 auszuführen. Zum Beispiel kann eine Eingabe von einer Mikrofonanordnung (wie eine der Anordnungen, die oben in Bezug auf das Mikrofon 191 erörtert wurden) auf dem ersten Gerät verwendet werden, um eine Berechnung einer Differenz der Ankunftszeit auszuführen, um eine Richtung, aus der der Sound kam, zu bestimmen. Dann kann, basierend auf bekannten Orten von anderen Geräten innerhalb der Umgebung, in der das erste Gerät angeordnet ist, und einer Identifikation des gegenwärtigen Ortes des ersten Gerätes (wie er basierend auf der Eingabe von dem GPS-Transceiver des ersten Gerätes identifiziert wurde), das erste Gerät bestimmen, welches andere Gerät sich relativ zu dem gegenwärtigen Ort des ersten Gerätes in der Richtung des Sounds befindet, um dadurch zu bestimmen, welches der anderen Geräte die Quelle des Sounds ist. Von dort aus kann das erste Gerät bestimmen, ob das andere Gerät, das die Quelle des Sounds ist, auch das Gerät ist, das durch den Nutzer betrachtet wird.
  • Eine bestätigende Bestimmung kann die Logik dazu veranlassen, weiter zu der Entscheidungsraute 606 fortzuschreiten. Bei der Raute 606 kann das erste Gerät bestimmen, ob die Audioausgabe von dem beobachteten Gerät/Inhalt - der Sound, der durch die Mikrofoneingabe angezeigt wird - ein erstes Soundkriterium, erfüllt, beispielsweise das dieser für das erste Gerät verständlich ist. Ob die Audioausgabe verständlich ist, kann darauf basieren, ob das erste Gerät Worte in der Audio- zu Textausgabe unter Verwenden einer Sprache-zu-Text-Software konvertieren kann. Wenn Worte der Audioausgabe in Text konvertiert werden können, kann bestimmt werden, dass die Audioausgabe verständlich ist, wobei, wenn die Worte nicht in Text konvertiert werden können, bestimmt werden kann, dass die Audioausgabe nicht verständlich ist.
  • Ob die Audioausgabe verständlich ist, kann auch darauf basieren, ob das erste Gerät ein Lied oder einen anderen Sound aus der Audioausgabe identifizieren kann. In Bezug auf Lieder, kann das Lied basierend auf der Eingabe von dem Mikrofon unter Verwenden einer Musik- und/oder Sound-Identifikationssoftware, wie die Google-Applikation oder Shazam-Applikation identifiziert werden. Auf ähnliche Weise kann die Audioausgabe selbst identifiziert werden, als sei sie mit einem besonderen Inhalt assoziiert, und kann das erste Gerät dann bestimmen, ob der besondere Inhalt (z.B. ein Film oder eine Fernsehshow) der gleiche Inhalt ist, der auf dem Gerät präsentiert wird, das durch den Nutzer betrachtet wird. Andere Sound-Identifikationssoftware kann auch verwendet werden, um zu bestimmen, ob die Audioausgabe verständlich ist, wie eine Software zum Identifizieren besonderer Sounds innerhalb der Audioausgaben, wie Vogelzwitschern, auf die Erde fallender Regen oder andere nicht verbale Sounds, die identifizierbar sein können. Wenn etwas von der Audioausgabe oder die Audioausgabe selbst unter Verwenden einer dieser Methoden identifiziert werden kann, kann die Audioausgabe als verständlich bestimmt werden. Wenn nicht, kann die Audioausgabe als nicht verständlich bestimmt werden.
  • Eine negative Bestimmung bei der Raute 606 kann die Logik dazu veranlassen, weiter zum Block 610 zu gehen, was in Kürze beschrieben wird. Jedoch ist zuerst anzumerken, dass eine bestätigende Bestimmung bei der Raute 606 die Logik dazu veranlassen kann, zu der Entscheidungsraute 608 fortzusetzen. Bei der Raute 608 kann das erste Gerät bestimmen, ob die Audioausgabe, die von der Mikrofoneingabe angezeigt wurde, ein zweites Soundkriterium erfüllt, nämlich über einem Schwellwert-Lautstärkepegel zu liegen (z.B. einem Dezibel-Pegel-Schwellwert und/oder einem vom Nutzer definierten optimalen Lautstärkepegel). Eine Dezibel-Messapplikation und/oder Soundmessapplikation, die auf dem ersten Gerät ausgeführt wird, kann verwendet werden, um die Bestimmung bei der Raute 606, basierend auf der Eingabe von dem Mikrofon auszuführen. Das zweite Soundkriterium selbst kann durch einen Hersteller des ersten Gerätes eingerichtet sein und/oder durch einen Nutzer, basierend auf einer Nutzereingabe, wie es weiter unten erörtert wird.
  • Eine negative Bestimmung bei der Raute 608 kann die Logik dazu veranlassen, zum Block 610 fortzuschreiten. Beim Block 610 kann das erste Gerät eine Anweisung an ein anderes Gerät, das die betrachtete Audioausgabe ausgibt, bereitstellen, um die Lautstärke der betrachteten Audioausgabe, welche durch das andere Gerät ausgegeben wird, zu erhöhen. Die Anweisung kann eine Anweisung für die Audioausgabe sein, schrittweise von einem ersten Inkrement zu einem nächsthöheren Inkrement die Lautstärke zu erhöhen, in welchem Fall die Logik zu dem Block 612 weitergehen kann, wo die Logik zu dem Block 600 oder 602 zurückkehren kann und von dort aus fortsetzen kann, um dann zu bestimmen, ob die Lautstärkeerhöhungsergebnisse für das zweite Soundkriterium erfüllt sind, wie ein Erhöhen der Lautstärke der Audioausgaben auf oder über den ersten Schwellwert-Lautstärkepegel hinaus, oder ob die Lautstärke um ein weiteres Inkrement erhöht werden sollte.
  • Die Anweisung kann auch eine Anweisung sein die Audioausgabe um einen bestimmten Betrag (z.B. mehr als ein Inkrement) zu erhöhen, basierend darauf, dass eine durch das erste Gerät bestimmte Lautstärkeerhöhung darin resultiert, dass das zweite Soundkriterium erfüllt wird, beispielsweise ein Erhöhen der Lautstärke der beobachteten Audioausgaben, wie sie an dem Ort des ersten Gerätes wahrgenommen wurde, auf den ersten Schwellwertpegel. Wenn das erste Gerät zum Beispiel bestimmt, dass der gegenwärtige Lautstärkepegel an dem Ort des ersten Gerätes die Hälfte des ersten Schwellwert-Lautstärkepegels ist, kann die Anweisung eine Anweisung sein, die Lautstärke der betrachteten Audioausgaben zu verdoppeln, wie sie durch das andere Gerät ausgegeben wird. Unter diesem Beispiel kann die Logik auch von dem Block 610 zu dem Block 612 fortsetzen, um davon weiterzugehen.
  • Zurückkehrend zu der Entscheidungsraute 608, beachte man, dass eine zustimmende Bestimmung bei der Raute 608 die Logik dazu veranlassen kann, eher zu dem Block 614 als zu dem Block 610 fortzuschreiten. Bei dem Block 614 kann das erste Gerät eine Audioausgabe durch das andere Gerät einstellen/anweisen, um sich auf einem nutzerdefinierten optimalen Lautstärkepegel zu befinden (welcher in einigen Beispielen derselbe Pegel wie der erste Schwellwert-Lautstärkepegel sein kann). Dies kann durch das erste Gerät durch Bestimmen eines Lautstärkepegels der betrachteten Audioausgaben an dem Ort des ersten Gerätes ausgeführt werden und dann durch ein Bestimmen, um wie viele Lautstärkeinkremente die beobachtete Audioausgabe erhöht oder vermindert werden kann, um den nutzerdefinierten optimalen Pegel an dem Ort des ersten Gerätes zu erreichen. Vom Block 614 kann die Logik zu dem Block 612 weitergehen und dann von dort aus fortsetzen.
  • Noch auf 6 Bezug nehmend, aber rückbezogen auf die Entscheidungsraute 604, kann die Logik, wenn eine negative Bestimmung anstelle einer Zustimmenden festgestellt wird, von der Raute 604 zu der Entscheidungsraute 616 fortschreiten. Bei der Raute 616 kann das erste Gerät bestimmen, ob die Audioausgabe von dem betrachteten Gerät/Inhalt ein drittes Soundkriterium erfüllt, so dass diese verständlich ist, obwohl anderer Sound als die Audioausgabe vorhanden ist, wie es basierend auf der Mikrofoneingabe bestimmt wird. Ob die Audioausgabe zum Beispiel verständlich ist kann auf einem oder mehreren Verfahren, die oben in Bezug auf die Raute 606 offenbart wurden, basiert werden.
  • Eine negative Bestimmung bei der Raute 616 kann die Logik dazu veranlassen, zu dem Block 620 fortzusetzen, was in Kürze beschrieben wird. Zuerst beachte man jedoch, dass eine zustimmende Bestimmung bei der Raute 616 die Logik dazu veranlasst, zu der Entscheidungsraute 618 fortzuschreiten. Bei der Raute 618 kann das erste Gerät bestimmen, ob der andere Sound als die Audioausgabe von dem betrachteten Inhalt/Gerät ein viertes Soundkriterium erfüllt, beispielsweise dieser über einem zweiten Schwellwert-Lautstärkepegel liegt (z.B. einem Schwellwert-Dezibelpegel und/oder einem nutzerdefinierter Maximum-Soundlautstärkepegel). Eine Dezibel-Messapplikation und/oder Soundmessapplikation, die auf dem ersten Gerät ausgeführt wird, kann verwendet werden, um die Bestimmung bei der Raute 618 basierend auf der Eingabe von dem Mikrofon auszuführen. Das zweite vierte Soundkriterium selber kann durch einen Hersteller des ersten Gerätes eingerichtet sein und/oder durch einen Nutzer basierend auf einer Nutzereingabe, die einen nutzerdefinierten Maximum-Soundpegel für den Sound von den anderen Geräten als dem Gerät, das betrachtet wird, spezifiziert.
  • Eine negative Bestimmung bei der Raute 618 kann die Logik dazu veranlassen, zum Block 612 fortzuschreiten, wo die Logik zu dem Block 600 oder 602 zurückkehren kann und von dort aus fortfährt. Eine zustimmende Bestimmung bei der Raute 618 kann jedoch die Logik stattdessen dazu veranlassen, zum Block 620 fortzuschreiten. Beim Block 620 kann das erste Gerät eine Anweisung für das andere Gerät bereitstellen, das die betrachtete Audioausgabe präsentiert, um die Lautstärke der betrachtete Audioausgabe zu erhöhen. Die Anweisung kann eine Anweisung, die Audioausgabe schrittweise von einem ersten Inkrement zu dem nächst höheren Inkrement zu erhöhen, eine Anweisung, die Audioausgabe um eine andere vordefinierte Größe zu erhöhen, eine Anweisung, die Audioausgabe auf einen nutzerdefinierten optimalen Pegel zu erhöhen, und/oder eine Anweisung, die Audioausgabe auf oder über den ersten Schwellwertlautstärkepegel zu erhöhen sein, wie oben beschrieben.
  • Auch kann beim Block 612, zusätzlich oder anstelle von dem Erhöhen der Lautstärke der betrachteten Audiolautstärke beim Block 620, das erste Gerät eine Anweisung bereitstellen, die den Sound von dem Gerät vermindert, welches den anderen Sound als das betrachtete Audio erzeugt. Wenn das Gerät, das den Sound erzeugt, ein Gerät wie ein Smartofen/Herd, ein Smartgeschirrspüler, eine Smartmikrowelle, ein Smartgebläse oder ein Smart-Mixgerät ist, kann die Anweisung, die den Sound vermindert, eine Anweisung zum Ausschalten des Gerätes, eine Anweisung zum Ändern des Betriebs des Gerätes in einen anderen Zustand, der weniger Sound erzeugt, oder eine Anweisung für das Gerät zum Pausieren seines Betriebs sein. Wenn das Gerät zum Beispiel ein Smartgeschirrspüler ist, kann die Anweisung für den Geschirrspüler zum Waschen des Geschirrs ein Verwenden eines „sanften Zyklus“ anstelle eines „normalen Zyklus“, der vergleichsweise mehr Sound produziert, sein. Wenn das Gerät, das den Sound erzeugt, ein Computer oder ein anderes Gerät ist, das seine eigene Audioausgabe ausgibt (die z.B. unterschiedlich zu der betrachteten Audioausgabe ist), kann die Anweisung, die den Sound vermindert, eine Anweisung sein, die Funktion, welche den Sound erzeugt, abzuschalten, die Audioausgabe stummzuschalten, die Audioausgabe zu pausieren, das andere Gerät auszuschalten oder die Lautstärke des Sound, der ausgegeben wird, zu vermindern.
  • Vom Block 620 kann die Logik der 6 dann zum Block 622 fortsetzen. Beim Block 622 kann das erste Gerät, wenn die Audioausgabe, die vom Nutzer betrachtet wird, aufgehört hat, präsentiert zu werden, eine Anweisung bereitstellen, welche den Sound von dem anderen Sound erzeugenden Gerät auf seinen vorhergehenden Pegel erhöht. Wenn das Gerät, das den Sound erzeugt, zum Beispiel ein Haushaltsgerät ist, kann die Anweisung, welche den Sound auf seinem vorhergehenden Pegel erhöht, eine Anweisung, ein Gerät einzuschalten, eine Anweisung für das Gerät, seinen Betrieb in den vorhergehenden Zustand zurückzuversetzen, welcher beim Block 620 geändert worden sein könnte, oder eine Anweisung für das Gerät, zu seinem Betrieb zurückzukehren sein. Wenn das Gerät, das den Sound erzeugt, ein Computer oder ein anderes Gerät ist, das seine eigene Audioausgabe (die z.B. unterschiedlich zu der betrachteten Audioausgabe ist) ausgibt, ist, kann die Anweisung, welche den Sound zurück zu seinem vorhergehenden Pegel erhöht, eine Anweisung sein, die Funktion, die den Sound erzeugt, einzuschalten, eine Audioausgabe nicht stummzuschalten, nicht zu pausieren/zurückzukehren zum Präsentieren der Audioausgabe, das andere Gerät anzuschalten oder die Lautstärke des Sounds, der ausgegeben wird, zurück auf einen Pegel vor dem Vermindern der Lautstärke, was basierend auf einer Anweisung, die beim Block 620 bereitgestellt wurde, erfolgt sein kann, zu erhöhen. Vom Block 622 kann die Logik dann zum Block 612 fortsetzen und von dort aus weitergehen.
  • Unter Fortsetzen der detaillierten Beschreibung mit Bezug auf 7, zeigt diese eine beispielhafte Nutzerschnittstelle (UI) 700, die auf einer Anzeige des persönlichen Gerätes des Nutzers und/oder auf einer Anzeige auf oder auf andere Weise zugreifbar von einem Gerät, das eine Audioausgabe ausgibt, welches von einem Nutzer gemäß den vorliegenden Prinzipien betrachtet wird, präsentiert sein kann. Die UI 700 kann einen Videoinhalt 702 einschließen, der mit einem Audioinhalt assoziiert ist, der präsentiert wird, wie ein Videoinhalt einer Fernsehshow oder eines Films, der auch einen Audioinhalt aufweist.
  • Die UI 700 kann auch einen Hinweis 704 darauf, dass ein anderes Gerät begonnen hat, einen Sound zu erzeugen, einschließen, wie es durch ein separates tragbares Gerät des Nutzers, während es von dem Nutzer getragen wird, oder durch ein separates Smartphone des Nutzers, während es an oder nahe bei dem Nutzer ist, erfasst werden kann. In diesem Beispiel wird ein Tablet-Computer, der mit einer anderen Person, die Sophie genannt wird, assoziiert ist, als ein Videospiel präsentierend gezeigt. Dies kann durch das Gerät, das den betrachteten Inhalt darstellt, und/oder durch das separate persönliche Gerät des Nutzers bestimmt werden, basierend auf Netzwerkkommunikation mit Sophies Tablet-Computer und/oder basierend auf einer Identifizierung das der Sound von Sophies Tablet-Computer mit einem Videospiel assoziiert ist.
  • Der Hinweis 704 kann auch eine Anweisung oder eine Aktion anzeigen, die durch das Gerät, welches den betrachteten Inhalt präsentiert, oder durch das separate persönliche Gerät des Nutzers ausgeführt wird, wie eine Anweisung, die wie oben beschrieben beim Block 620 bereitgestellt werden kann, anzeigen. In diesem Beispiel ist die Anweisung, die angezeigt wird, dass die Lautstärke auf Sophies Tablet-Computer vermindert wird.
  • Die UI 700 kann auch einen oder mehrere Selektoren 706, 708, 710 umfassen, die entsprechend durch einen Nutzer auswählbar sind. Beispielsweise kann jeder Selektor ausgewählt werden durch Bereitstellen einer Spracheingabe, die den entsprechenden Selektor auswählt, durch Manipulieren einer Maus- oder einer anderen Cursorgerätebewegung, um den entsprechenden Selektor auszuwählen, und/oder durch Bereitstellen einer Berührungseingabe auf einem Teil der Anzeige, die den entsprechenden Selektor darstellt. Der Selektor 706 kann auswählbar sein, um das separate persönliche Gerät des Nutzers anzuweisen (z.B. das Gerät, das die Logik der 6 ausführt, das tragbare Gerät des Nutzers, das getragen wird, und/oder das Smartphone des Nutzers), sich eher auf die Audioausgabe von Sophies Computer zu „fokussieren“ als auf die Audioausgabe, die mit dem Videoinhalt 702 assoziiert ist. Auf diese Weise kann die Audioausgabe für Sophies Computer auf einen vom Nutzer definierten optimalen Pegel und/oder auf einen Schwellwert-Lautstärkepegel erhöht werden, während die Lautstärke der Audioausgabe, die mit dem Videoinhalt 792 assoziiert ist, vermindert werden kann.
  • Der Selektor 708 kann ausgewählt werden, um eine Anweisung bereitzustellen, dass die Audioausgabe von Sophies Tablet-Computer nicht erhöht oder vermindert wird und/oder dass Sophies Tablet-Computer seinen gegenwärtigen Betrieb ohne Änderung fortsetzt. Der Selektor 710 kann ausgewählt werden, um die Audioausgabe, die von Sophies Tablet-Computer kommt, stummzuschalten.
  • 8 zeigt eine andere beispielhafte UI 800, die auf einer Anzeige des persönlichen Gerätes des Nutzers und/oder auf einer Anzeige auf oder in anderer Weise zugreifbar von einem Gerät dargestellt sein kann, welches die Audioausgabe, die von einem Nutzer betrachtet wird, ausgibt, in Übereinstimmung mit den gegenwärtigen Prinzipien. Die UI 800 kann einen Videoinhalt 802 umfassen, der mit dem Audioinhalt, welcher dargestellt wird, assoziiert ist, wie ein Videoinhalt einer Fernsehshow oder eines Films, der auch einen Audioinhalt aufweist.
  • Die UI 800 kann auch einen Hinweis 804 darauf einschließen, dass ein Haushaltsgerät begonnen hat Sound zu erzeugen, was durch das separate tragbare Gerät des Nutzers, während es von den Nutzer getragen wird, oder durch das separate Smartphone des Nutzers, während es an oder nahe bei dem Nutzer ist, erfasst werden kann. In diesem Beispiel wird ein Geschirrspüler als eingeschaltet gezeigt. Dies kann durch das Gerät, das den Inhalt präsentiert, und/oder durch das separate persönliche Gerät des Nutzers bestimmt worden sein, basierend auf einer Netzwerkkommunikation mit dem Geschirrspüler und/oder basierend auf einer Identifikation des Sounds von dem Geschirrspüler, der als assoziiert mit dem Betrieb des Geschirrspülers identifiziert wird.
  • Der Hinweis 804 kann auch eine Anweisung oder eine Aktion anzeigen, die durch das Gerät, das den Inhalt präsentiert, oder durch das separate persönliche Gerät des Nutzers ausgeführt wird, wie eine Anweisung die wie oben beschrieben beim Block 620 bereitgestellt werden kann. In diesem Beispiel ist die Anweisung, die angezeigt wird, dass der Betrieb des Geschirrspülers geändert wird, um den Sound, der von dem Geschirrspüler kommt, zu reduzieren.
  • Die UI 800 kann auch einen oder mehrere Selektoren 806, 808 aufweisen, die entsprechend durch einen Nutzer auswählbar sind. Der Selektor 806 kann auswählbar sein, um das separate persönliche Gerät des Nutzers (z.B. das Gerät, das die Logik der 6 ausführt, das tragbare Gerät des Nutzers, das getragen wird, und/oder das Smartphone des Nutzers) anzuweisen, eine Anweisung, den Betrieb des Geschirrspülers zu ändern, nicht bereitzustellen. Der Selektor 808 kann auswählbar sein, um eine Anweisung bereitzustellen, dass der Geschirrspüler seinen Betrieb verzögern soll, und/oder um eine Anweisung bereitzustellen, dass der Geschirrspüler in einen Ausschaltzustand zu versetzen ist.
  • Nun 9 beschreibend, zeigt diese ein Beispiel einer UI 900, die auf einer Anzeige dargestellt werden kann, auf die von einem Gerät, das die vorliegenden Prinzipien ausführt, zugegriffen werden kann, wie die Anzeige eines Gerätes, das die Logik der 6 ausführt. Die UI 900 kann zum Konfigurieren der Einstellungen des Gerätes gemäß den vorliegenden Prinzipien vorhanden sein. Jede Option, die unten zu beschreiben ist, kann durch eine gerichtete Eingabe (z.B. Berührungseingabe) zu der entsprechenden Checkbox, die benachbart zu der Option gezeigt wird, ausgewählt werden.
  • Die UI 900 kann eine erste Option 902 einschließen, die auswählbar ist, um das Gerät einzuschalten, um die vorliegenden Prinzipien auszuführen. Zum Beispiel kann eine Option 902 ausgewählt werden, um das Gerät zu konfigurieren, ein oder mehrere und in einigen Fällen alle Teile der Logik der 6 auszuführen. Die UI 900 kann auch eine zweite Option 904 einschließen, die auswählbar ist, um das Gerät zu konfigurieren, nicht nur die Lautstärke der Audioausgabe, die von dem Nutzer betrachtet wird, zu erhöhen, sondern auch die Lautstärke des Sounds, der durch andere Geräte erzeugt wird, die von dem Nutzer nicht betrachtet werden, zu vermindern, gemäß den vorliegenden Prinzipien. Noch weiter kann die UI 900 eine Option 906 einschließen, die auswählbar ist, um das Gerät zu konfigurieren, die Lautstärke des Sounds, der durch andere Geräte ausgegeben wird, die nicht von dem Nutzer betrachtet werden, nach dem Vermindern, zu erhöhen, gemäß den vorliegenden Prinzipien. Zum Beispiel kann eine Option 906 auswählbar sein, um das Gerät einzuschalten, um den Block 622 der 6 auszuführen.
  • Die UI 900 kann auch eine Einstellung 908 umfassen, bei der ein Nutzer eine Maximum-Lautstärke einrichten kann, auf die eine Audioausgabe des Inhalts, der betrachtet wird, erhöht werden kann. Die Maximum-Lautstärke kann durch den Nutzer durch Bereitstellen einer Eingabe in eine Eingabebox 910 spezifiziert werden oder durch Auswählen eines Selektors 912, um einen Test zu initiieren, in welchem Sounds von erhöhter Lautstärke dargestellt werden, bis ein Nutzer eine dieser Lautstärken als die eine, die als Maximum-Audiolautstärke zu verwenden ist, auswählt. Auf diese Weise wird die Lautstärke der Audioausgabe, die durch den Nutzer betrachtet wird, nicht über die maximal erwünschte Lautstärke des Nutzers erhöht werden, selbst wenn sich der Nutzer weiter und weiter weg von dem Gerät, das die Audioausgabe präsentiert, bewegt. Die maximal gewünschte Lautstärke kann sich auf die Lautstärke, wie sie an dem Ort des Nutzers wahrgenommen wird, oder auf die aktuelle Lautstärkeausgabe des betrachteten Geräts selbst beziehen.
  • Die UI 900 kann auch eine Einstellung 914 einschließen, bei welcher ein Nutzer eine Maximum-Lautstärke für alle Sounds aller Geräte innerhalb einer gegebenen Umgebung (wie dem Wohnort des Nutzers oder ein besonderer Raum innerhalb des Wohnorts) einrichten kann. Somit kann diese Maxium-Lautstärkeeinstellung nicht nur eine Audioausgabe betreffen, die von dem Nutzer betrachtet wird, sondern alle Sounds, die durch Geräte innerhalb der Umgebung zusammen erzeugt werden. Eine Eingabe, die die Maximum-Lautstärke für diese Einstellung spezifiziert, kann in der Eingabebox 916 bereitgestellt sein.
  • Zusätzlich kann die Option 918 auf der UI 900 dargestellt werden. Die Option 918 kann ausgewählt werden, um das Gerät zu konfigurieren, um die Lautstärkemaxima für eine oder beide der Einstellungen 908 und 914 basierend auf einer Anzahl von Menschen, die in der Umgebung anwesend sind, zu überschreiten, so dass der Sound/die Audioausgabe über die Lautstärkemaxima hinaus erhöht werden kann, wenn die Anzahl der Menschen eine bestimmte Größe erreicht. Eine Eingabe, die die Anzahl der Menschen zum Gebrauch spezifiziert, kann auf die Eingabebox 920 gerichtet werden und die Menschen selbst können durch das Gerät, basierend auf Bildern von einer in Kommunikation mit dem Gerät stehenden Kamera, bestimmt werden, wobei das Gerät verwendet wird, um die Anzahl der Menschen unter Verwenden einer Objekterkennung zu identifizieren.
  • Weiterhin Bezug nehmend auf 9, kann die UI 900 auch eine Einstellung 922 umfassen, bei welcher ein Nutzer einen gewünschten optimalen Lautstärkepegel für die Audioausgabe durch ein betrachtetes Gerät anzeigt, so dass die Lautstärke der Audioausgabe an den optimalen Pegel am Ort des Nutzers angepasst werden kann, selbst wenn sich der Nutzer näher zu oder weiter weg von dem betrachteten Gerät befindet. Eine Eingabe, die den optimalen Pegel spezifiziert, kann durch die Eingabebox 924 bereitgestellt werden oder durch einen Prozess, ähnlich dem der oben mit Bezug auf den Selektor 912 beschrieben wurde. Darüber hinaus kann der Nutzer, als eine Alternative zum Verwenden der optimalen Lautstärkeeinstellung, die Option 926 auswählen, um das Gerät zu konfigurieren, die Lautstärke für die Audioausgabe basierend darauf, dass die Audioausgabe für das Gerät verständlich ist, anzupassen, wie es hierin offenbart wird.
  • Die UI 900 kann auch eine oder mehrere Einstellungen umfassen, die nutzerdefinierten Prioritäten entsprechen. Zum Beispiel kann eine Einstellung 928 betreffen, auf welches Gerät gegenüber anderen zu fokussieren ist, um es einem Nutzer zu ermöglichen, eine Audioausgabe von dem zu fokussierenden Gerät zu hören (z.B. auf dem optimalen Lautstärkepegel des Nutzers). Eine Option 930 kann ausgewählt werden, um das Gerät zu konfigurieren, Prioritäten zu erlernen und über eine Zeit, in der der Nutzer Anweisungen bereitstellt, welche ein Gerät oder ein anderes Gerät als das Gerät auswählen, auf das der Nutzer wünscht zu fokussieren/betrachten, einzustellen. Ein Selektor 932 kann auch dargestellt werden, wobei eine Auswahl des Selektors 932 das Gerät dazu veranlassen kann, eine andere Nutzerschnittstelle zu präsentieren, bei welcher ein Nutzer verschiedene Geräte, die über das gleiche Netzwerk verbunden sind, in einer Rangordnung von einer höchsten zu einer niedrigsten einzustellenden Priorität einordnen kann. Prioritäten können auch basierend auf Nutzern derart eingerichtet werden, dass eine Audioausgabe, die von einigen Nutzern betrachtet wird, gegenüber einer Audioausgabe, auf die andere Nutzer fokussiert sind, priorisiert wird.
  • Die UI 900 kann auch eine Einstellung 934 umfassen, die eine Aktion, die das Gerät ausführt, betrifft, um den Sound, der von anderen Geräten, die nicht von dem Nutzer betrachtet werden, erzeugt wird, die aber noch immer Sound erzeugen, der durch das Mikrofon des Gerätes erfasst wird, zu vermindern. Entsprechende Optionen 936 können dargestellt werden, die entsprechend auswählbar sind, um das Gerät zu konfigurieren, um den Sound von derartigen anderen Geräten zu vermindern durch Ausschalten des anderen Gerätes, durch Anpassen des anderen Gerätes an einen vergleichsweise weniger Sound erzeugenden Betriebszustand, durch Vermindern der Lautstärke der Audioausgabe von dem anderen Gerät und durch Stummschalten des anderen Gerätes.
  • Weitergehend von der 9 aus, ist es in Übereinstimmung mit den vorliegenden Prinzipien verständlich, dass in einigen Ausführungsformen ein Nutzerort allein (eher als eine Mikrofoneingabe) verwendet werden kann zum Anpassen der Lautstärke nach oben oder nach unten. Wenn zum Beispiel ein Nutzer einer Audioausgabe von einem Gerät in einer Umgebung zuhört, in der sich gegenwärtig keine anderen Geräte, die einen Sound produzieren, befinden, können Ortsdaten von dem tragbaren Gerät des Nutzers (z.B. GPS-Daten) derart verwendet werden, dass, wenn sich der Nutzer von dem Audiogerät wegbewegt, die Lautstärke von dem Audiogerät erhöht werden kann, und, wenn sich der Nutzer näher zu dem Audiogerät bewegt, die Lautstärke von dem Audiogerät vermindert werden kann.
  • Zusätzlich ist es verständlich, dass ein Digital Assistant durch ein Gerät ausgeführt werden kann, das die vorliegenden Prinzipien ausführt, um Anweisungen an andere Geräte bereitzustellen, wie hierin offenbart. Zum Beispiel kann der Digital Assistant allgemein ähnlich zu Amazons Alexa oder Apples Siri sein.
  • Vor einem Beenden ist es verständlich, dass obwohl z.B. eine Softwareapplikation zum Ausführen der vorliegenden Prinzipien mit einem Gerät wie dem System 100 verkauft werden kann, die vorliegenden Prinzipien in Beispielen angewendet werden können, in denen eine derartige Applikation z.B. von einem Server über ein Netzwerk wie dem Internet auf ein Gerät heruntergeladen wird. Darüber hinaus werden die vorliegenden Prinzipien in Beispielen angewandt, in denen z.B. eine derartige Applikation in einem computerlesbaren Speichermedium enthalten ist, das verkauft und/oder bereitgestellt werden soll, wobei das computerlesbare Speichermedium kein flüchtiges Signal und/oder ein Signal an sich ist.
  • Es ist verständlich, dass, während die vorliegenden Prinzipien mit Bezugnahme auf einige beispielhafte Ausführungsformen beschrieben wurden, diese nicht beabsichtigen begrenzend zu sein und dass verschiedene alternative Anordnungen verwendet werden können, um den Gegenstand, der hierin beansprucht wird, auszuführen. Komponenten, die in einer Ausführungsform enthalten sind, können in anderen Ausführungsformen in irgendeiner geeigneten Kombination verwendet werden. Zum Beispiel können irgendwelche verschiedene Komponenten, die hierin beschrieben werden und/oder in den Figuren gezeigt werden, kombiniert, ausgewechselt oder von anderen Ausführungsformen ausgeschlossen werden.

Claims (23)

  1. Erstes Gerät, umfassend: - wenigstens einen Prozessor; - ein Mikrofon, auf das der wenigstens einen Prozessor zugreifen kann; und - einen Speicher, auf den der wenigstens einen Prozessor zugreifen kann und der Instruktionen trägt, die durch den wenigstens einen Prozessor ausführbar sind, zum: - Empfangen einer Eingabe von dem Mikrofon; basierend auf der Eingabe von dem Mikrofon, Bestimmen ob ein Sound von einem zweiten Gerät ein Soundkriterium erfüllt; und - in Reaktion auf die Bestimmung, Ausgeben einer Anweisung, die Lautstärke der Audioausgabe eines dritten Geräts zu erhöhen.
  2. Erstes Gerät nach Anspruch 1, wobei das dritte Gerät das gleiche Gerät ist wie das zweite Gerät, und wobei die Instruktionen durch den wenigstens einen Prozessor ausführbar sind, zum: - in Reaktion auf die Bestimmung, Ausgeben einer Anweisung, die Lautstärke der Audioausgabe durch das zweite Gerät zu erhöhen.
  3. Erstes Gerät nach Anspruch 2, wobei die Instruktionen durch den wenigstens einen Prozessor ausführbar sind, zum: - Bestimmen, dass ein Nutzer die Audioausgabe durch das zweite Gerät betrachtet; und - Ausgeben der Anweisung, basierend auf der Bestimmung, dass der Nutzer die Audioausgabe durch das zweite Gerät betrachtet.
  4. Erstes Gerät nach Anspruch 2, wobei das Kriterium wenigstens teilweise basierend auf einer Nutzerausgabe, die einen gewünschten Lautstärkepegel anzeigt, festgelegt ist.
  5. Erstes Gerät nach Anspruch 1, wobei das dritte Gerät unterschiedlich zu dem zweiten Gerät ist, und wobei die Instruktionen durch den wenigstens einen Prozessor ausführbar sind, um: - in Reaktion auf die Bestimmung, Ausgeben einer Anweisung, die Lautstärke der Audioausgabe durch das dritte Gerät zu erhöhen.
  6. Erstes Gerät nach Anspruch 5, wobei die Instruktionen durch den wenigstens einen Prozessor ausführbar sind, zum: - Bestimmen, dass ein Nutzer die Audioausgabe durch das dritte Gerät betrachtet; und - Ausgeben der Anweisung, basierend auf der Bestimmung, dass der Nutzer die Audioausgabe durch das dritte Gerät betrachtet.
  7. Erstes Gerät nach Anspruch 6, wobei die Instruktionen durch den wenigstens einen Prozessor ausführbar sind, zum: - Bestimmen, dass ein Nutzer die Audioausgabe durch das dritte Gerät betrachtet, wenigstens teilweise basierend auf ein oder mehreren von: Ausführen einer Eye Tracking Software, einer Bestimmung eines Ortes, an dem das erste Gerät angeordnet ist, einer Bestimmung eines Ortes, an dem sich der Nutzer befindet.
  8. Erstes Gerät nach Anspruch 5, wobei die Instruktionen durch den wenigstens einen Prozessor ausführbar sind, zum: - in Reaktion auf die Bestimmung, Ausgeben einer Anweisung, die die Lautstärke des Sounds von dem zweiten Gerät vermindert.
  9. Erstes Gerät nach Anspruch 8, wobei die Instruktionen durch den wenigstens einen Prozessor ausführbar sind, zum: - Ausgeben der Anweisung, die die Lautstärke des Sounds von dem zweiten Gerät vermindert, durch ein oder mehrere von: Ausgeben einer Anweisung, das zweite Gerät auszuschalten, Ausgeben einer Anweisung, den Betrieb des zweiten Gerätes zu ändern, Ausgeben einer Anweisung, die Lautstärke des Sounds von dem zweiten Gerät zu vermindern.
  10. Erstes Gerät nach Anspruch 1, wobei das erste Gerät ein tragbares Gerät ist.
  11. Erstes Gerät nach Anspruch 1, wobei das Kriterium einen Schwellwert-Dezibelpegel betrifft.
  12. Erstes Gerät nach Anspruch 1, wobei das Kriterium betrifft, ob die Audioausgabe durch das dritte Gerät für das erste Gerät verständlich ist.
  13. Verfahren, umfassend: - Empfangen einer Eingabe von einem Mikrofon auf einem ersten Gerät; - Bestimmen, basierend auf der Eingabe von dem Mikrofon, ob der Sound von einem zweiten Gerät ein Soundkriterium erfüllt; und - in Reaktion auf das Bestimmen, Ausgeben einer Anweisung an ein drittes Gerät, die Lautstärke der Audioausgabe durch das dritte Gerät zu erhöhen.
  14. Verfahren nach Anspruch 13, wobei das dritte Gerät das gleiche Gerät wie das zweite Gerät ist, und wobei das Verfahren umfasst: - in Reaktion auf das Bestimmen, Ausgeben einer Anweisung an das zweite Gerät, die Lautstärke der Audioausgabe durch das zweite Gerät zu erhöhen.
  15. Verfahren nach Anspruch 14, wobei die Anweisung, welche ausgegeben wird, das dritte Gerät anweist, die Lautstärke der Audioausgabe auf nicht mehr als ein von einem Nutzer definiertes Lautstärkemaximum zu erhöhen.
  16. Verfahren nach Anspruch 13, wobei das dritte Gerät unterschiedlich von dem zweiten Gerät ist, und wobei das Verfahren umfasst: - in Reaktion auf das Bestimmen, Ausgeben einer Anweisung an das dritte Gerät, die Lautstärke der Audioausgabe durch das dritte Gerät zu erhöhen.
  17. Verfahren nach Anspruch 13, wobei das dritte Gerät unterschiedlich von dem zweiten Gerät ist, und wobei das Verfahren umfasst: - basierend auf der Eingabe von dem Mikrofon, Bestimmen dass der Sound von dem zweiten Gerät das Soundkriterium erfüllt; - in Reaktion auf das Bestimmen, dass der Sound von dem zweiten Gerät dasSoundkriterium erfüllt, Ausgeben einer Anweisung an das zweite Gerät, die Lautstärke des Sounds von dem zweiten Gerät zu vermindern; und - in Reaktion auf das Bestimmen, dass das dritte Gerät die Audioausgabe nicht länger ausgibt, Ausgeben einer Anweisung an das zweite Gerät, das die Lautstärke des Sounds von dem zweiten Gerät zu erhöhen.
  18. Vorrichtung, umfassend: - einen ersten Prozessor; - einen Netzwerkadapter; und - einen Speicher, der Instruktionen trägt, die durch den wenigstens zweiten Prozessor eines ersten Gerätes ausführbar sind, zum: - Empfangen einer Eingabe von einem Mikrofon, auf das der wenigstens eine zweite Prozessor zugreifen kann; - basierend auf der Eingabe von dem Mikrofon, Bestimmen ob der Sound von einem zweiten Gerät ein Soundkriterium erfüllt; und - in Reaktion auf das Bestimmen, Bereitstellen einer Anweisung, die Lautstärke der Audioausgabe durch ein drittes Gerät zu erhöhen; - wobei der erste Prozessor die Instruktionen zu dem ersten Gerät über ein Netzwerk und mittels eines Netzwerkadapters überträgt.
  19. Vorrichtung nach Anspruch 18, wobei das dritte Gerät das gleiche Gerät wie das zweite Gerät ist, und wobei die Instruktionen durch den wenigstens einen zweiten Prozessor ausführbar sind, zum: - in Reaktion auf das Bestimmen, Bereitstellen einer Anweisung, die Lautstärke der Audioausgabe durch das zweite Gerät zu erhöhen.
  20. Vorrichtung nach Anspruch 18, wobei das dritte Gerät unterschiedlich zu dem zweiten Gerät ist, und wobei die Instruktionen durch den wenigstens einen zweiten Prozessor ausführbar sind, zum: - in Reaktion auf das Bestimmen, Bereitstellen einer Anweisung, die Lautstärke der Audioausgabe durch das dritte Gerät zu erhöhen.
  21. Erstes Gerät, umfassend: - wenigstens einen Prozessor; ein Mikrofon, auf das der wenigstens eine Prozessor zugreifen kann; und - einen Speicher, auf den der wenigstens eine Prozessor zugreifen kann und der Instruktionen trägt, die durch den wenigstens einen Prozessor ausführbar sind, zum: - Empfangen einer Eingabe von dem Mikrofon; - basierend auf der Eingabe von dem Mikrofon, Bestimmen ob der Sound von einem zweiten Gerät das Soundkriterium erfüllt; und - in Reaktion auf die Bestimmung, Ausgeben einer Anweisung, die Lautstärke der Audioausgabe durch das dritte Gerät zu ändern.
  22. Erstes Gerät nach Anspruch 21, wobei das dritte Gerät das gleiche Gerät wie das zweite Gerät ist.
  23. Erstes Gerät nach Anspruch 21, wobei das dritte Gerät das gleiche Gerät wie das erste Gerät ist.
DE102018116315.0A 2017-07-13 2018-07-05 Systeme und Verfahren zum Erhöhen der Lautstärke einer Audio-Ausgabe durch ein Gerät Pending DE102018116315A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/648,781 2017-07-13
US15/648,781 US10097150B1 (en) 2017-07-13 2017-07-13 Systems and methods to increase volume of audio output by a device

Publications (1)

Publication Number Publication Date
DE102018116315A1 true DE102018116315A1 (de) 2019-01-17

Family

ID=63685412

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018116315.0A Pending DE102018116315A1 (de) 2017-07-13 2018-07-05 Systeme und Verfahren zum Erhöhen der Lautstärke einer Audio-Ausgabe durch ein Gerät

Country Status (2)

Country Link
US (1) US10097150B1 (de)
DE (1) DE102018116315A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11405713B2 (en) * 2019-06-19 2022-08-02 Hewlett-Packard Development Company, L.P. Free-standing wireless-charging headsets
US11653148B2 (en) * 2019-07-22 2023-05-16 Apple Inc. Modifying and transferring audio between devices
US11412600B2 (en) * 2020-11-17 2022-08-09 Energy Control Services Llc System and method of adjusting sound level in a controlled space
US20220239268A1 (en) * 2021-01-28 2022-07-28 Rovi Guides, Inc. Adaptive volume control based on user environment
US20230244437A1 (en) * 2022-01-28 2023-08-03 Rovi Guides, Inc. Systems and methods to adjust loudness of connected and media source devices based on context
US20240056356A1 (en) * 2022-08-10 2024-02-15 Dish Network, L.L.C. Gateway anti-distraction mode for an establishment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4976899B2 (ja) * 2007-03-30 2012-07-18 株式会社東芝 携帯型電子機器および音声出力制御プログラム
US20090304205A1 (en) * 2008-06-10 2009-12-10 Sony Corporation Of Japan Techniques for personalizing audio levels
US20110091055A1 (en) * 2009-10-19 2011-04-21 Broadcom Corporation Loudspeaker localization techniques
US20130024018A1 (en) * 2011-07-22 2013-01-24 Htc Corporation Multimedia control method and multimedia control system
US8781828B2 (en) * 2012-04-26 2014-07-15 Lg Electronics Inc. Electronic device and method of controlling the same
US10425717B2 (en) * 2014-02-06 2019-09-24 Sr Homedics, Llc Awareness intelligence headphone
US9628434B2 (en) * 2014-05-15 2017-04-18 Medea Inc. Programmable electronic devices on containers
US9788114B2 (en) * 2015-03-23 2017-10-10 Bose Corporation Acoustic device for streaming audio data
KR20170112797A (ko) * 2016-04-01 2017-10-12 삼성전자주식회사 디스플레이 장치, 시스템 및 그 제어 방법

Also Published As

Publication number Publication date
US10097150B1 (en) 2018-10-09

Similar Documents

Publication Publication Date Title
DE102018116315A1 (de) Systeme und Verfahren zum Erhöhen der Lautstärke einer Audio-Ausgabe durch ein Gerät
DE102017122427A1 (de) Automatische Anpassung einer Lautstärke eines Lautsprechers eines Gerätes basierend auf einer Amplitude einer Spracheingabe in das Gerät
DE102016118680B4 (de) Situationsabhängiges Aufheben eines Weckwortes zum Aktivieren einer Sprachbefehlseingabe
US20210258427A1 (en) Facilitation of two or more video conferences concurrently
DE102015110621B4 (de) Intelligente Untertitel
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE102016101316B4 (de) Informationsverarbeitungsverfahren und elektronisches Gerät
DE202017104895U1 (de) Hotword-Detektion bei mehreren Vorrichtungen
DE112015003945T5 (de) Mehrquellen-Rauschunterdrückung
US20170195614A1 (en) Method and electronic device for playing video
DE102014118109A1 (de) Systeme und Verfahren zum Darstellen von Informationen auf einem Gerät basierend auf einem Eye-Tracking
CN104484895B (zh) 一种数据显示方法及装置
DE102022119403A1 (de) Verfahren und vorrichtungen, um private verbale nebengespräche bei virtuellen sitzungen zu ermöglichen
US11132110B1 (en) Graphical user interfaces for monitoring video conferences
DE102014117343A1 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
US9471272B2 (en) Skip of a portion of audio
US20230300293A1 (en) Permitting devices to change settings related to outbound audio/video streamed from another device as part of video conference
CN103248682A (zh) 一种带宽使用优化方法及装置
US20160212181A1 (en) Multi-device conference participation
DE102014113704A1 (de) Informationsverarbeitungseinrichtung und Informationsverarbeitungsverfahren
US20170163813A1 (en) Modification of audio signal based on user and location
US20200313918A1 (en) Systems and methods to merge data streams from different conferencing platforms
CN111081285A (zh) 一种调整特效的方法、电子设备及存储介质
DE102016122704A1 (de) Bestimmung eines Gerätes mit dem eine Kommunikation herzustellen ist basierend auf einer biometrischen Eingabe
US11546473B2 (en) Dynamic control of volume levels for participants of a video conference

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE