DE102017209585A1 - System und verfahren zur selektiven verstärkung eines akustischen signals - Google Patents

System und verfahren zur selektiven verstärkung eines akustischen signals Download PDF

Info

Publication number
DE102017209585A1
DE102017209585A1 DE102017209585.7A DE102017209585A DE102017209585A1 DE 102017209585 A1 DE102017209585 A1 DE 102017209585A1 DE 102017209585 A DE102017209585 A DE 102017209585A DE 102017209585 A1 DE102017209585 A1 DE 102017209585A1
Authority
DE
Germany
Prior art keywords
closed environment
acoustic signals
signal
acoustic
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017209585.7A
Other languages
English (en)
Inventor
Uwe Gussen
Frederic Stefan
Christoph Arndt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017209585A1 publication Critical patent/DE102017209585A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17825Error signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17875General system configurations using an error signal without a reference signal, e.g. pure feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0324Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/3375Acoustical, e.g. ultrasonic, measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/12Rooms, e.g. ANC inside a room, office, concert hall or automobile cabin
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3044Phase shift, e.g. complex envelope processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02087Noise filtering the noise being separate speech, e.g. cocktail party
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field

Abstract

Der vorliegende Gegenstand betrifft Systeme und Verfahren zum selektiven Verstärken eines akustischen Signals in einer geschlossenen Umgebung (100). Bei einer Implementierung können mehrere akustische Signale von innerhalb der geschlossenen Umgebung (100) empfangen werden. Des Weiteren können Frequenzbereiche, die jedem akustischen Signal entsprechen, erhalten und verglichen werden, um ein Vorhandensein von mindestens einem Individuum in der geschlossenen Umgebung (100) zu bestimmen. Weiterhin können akustische Signale bezüglich des mindestens einen Individuums analysiert werden, um ein Auftreten eines physiologischen Ereignisses zu detektieren. Basierend auf der Analyse kann das akustische Signal als ein Zielsignal erkannt werden und das Zielsignal kann in der geschlossenen Umgebung (100) verstärkt werden. Des Weiteren kann ein Störsignal zum Unterdrücken anderer akustischer Signale innerhalb der geschlossenen Umgebung (100) erzeugt werden.

Description

  • Der vorliegende Gegenstand betrifft allgemein Verstärkungssysteme und insbesondere eine selektive Verstärkung eines akustischen Signals in einer geschlossenen Umgebung.
  • Ein Verstärkungssystem wird typischerweise zum Verstärken von akustischen Signalen, wie etwa Stimmen, verwendet, so dass sie durch Menschen in einem unmittelbaren Umfeld gehört werden. Im Fall einer geschlossenen Umgebung, wie etwa in einem Konferenzsaal, kann das Verstärkungssystem zum Verstärken der akustischen Signale, die von einer bestimmten Person, wie etwa einem Redner, empfangen werden, verwendet werden, so dass ermöglicht wird, dass Menschen am hinteren Ende des Konferenzsaals den Redner hören. Im Allgemeinen ist der Redner im Konferenzsaal mit einem Mikrofon ausgestattet, damit die Stimme des Redners erfasst wird. Die durch das Mikrofon erfasste Stimme wird verstärkt und über einen oder mehrere Lautsprecher, die an verschiedenen Positionen im Konferenzsaal platziert sein können, ausgestrahlt.
  • Bisweilen können Fälle vorliegen, bei denen es mehr als einen Redner gibt, wie etwa bei einem Fall, bei dem Individuen untereinander reden. Bei derartigen Fällen können die Mikrofone mehr als ein akustisches Signal bezüglich mehr als einem Individuum erfassen. Bei einem derartigen Szenario muss das Verstärkungssystem so konfiguriert sein, dass ein bestimmtes akustisches Signal verstärkt wird. Beim Fehlen einer derartigen Konfiguration kann das Verstärkungssystem alle akustischen Signale verstärken und dies kann zu Chaos führen.
  • Die vorgenannte Situation kann hinsichtlich eines Beispiels erläutert werden. Im Fall einer geschlossenen Umgebung mit mehreren Individuen kann es Beispiele geben, bei denen sich ein Individuum unbehaglich fühlt, wie etwa aufgrund von Schwindelgefühl oder bestimmten Gesundheitsbedingungen. Bei derartigen Fällen, wenn so viele Stimmen in der geschlossenen Umgebung erzeugt werden, wird es schwierig, die Stimme des sich unwohl fühlenden Individuums zu hören. Falls beispielsweise ein Kind von seinen Eltern getrennt wird und im Konferenzsaal weint, kann die Stimme des Kindes inmitten der Stimmen anderer Individuen unbemerkt bleiben. Wie zuvor erwähnt, sind die bestehenden Methoden nicht in der Lage, nur die Stimme des sich unwohl fühlenden Individuums zu detektieren, obwohl die in der geschlossenen Umgebung eingesetzten Mikrofone in der Lage sind, die Stimmen der Individuen in der geschlossenen Umgebung zu erfassen.
  • Verschiedene Ansätze zum Verstärken der Stimmen von Individuen sind im Stand der Technik bekannt und offenbart. Ein derartiger Ansatz ist beispielsweise im US-Patent 6535609 offenbart. Das US-Patent 6535609 offenbart ein Kommunikationssystem für den Innenraum eines Fahrzeugs. Das Kommunikationssystem beinhaltet ein erstes Mikrofon und ein zweites Mikrofon, die an einer ersten Position bzw. einer zweiten Position im Fahrgastraum positioniert sind, zum Empfangen von gesprochener Sprache und zum Umwandeln der gesprochenen Sprache in ein erstes hörbares Signal bzw. ein zweites hörbares Signal.
  • Das Kommunikationssystem kann ferner eine Filtereinrichtung zum Bereitstellen eines ersten und eines zweiten gefilterten Audiosignals als Reaktion auf das erste und das zweite Audiosignal beinhalten. Des Weiteren umfasst das Kommunikationssystem einen Summierer zum Aufsummieren des ersten und des zweiten kompensierten Audiosignals, so dass ein resultierendes Audiosignal, das eine Detektionsposition innerhalb des Fahrgastraums relativ zur ersten und zur zweiten Position des ersten und des zweiten Mikrofons angibt, bereitgestellt wird. Das Kommunikationssystem beinhaltet auch eine Echounterdrückungseinrichtung zum Empfangen des resultierenden Audiosignals und zum Ausgeben eines echounterdrückten Audiosignals. Zusätzlich dazu beinhaltet das Kommunikationssystem einen Lautsprecher zum Umwandeln des echounterdrückten Audiosignals in eine reproduzierte Ausgabesprache innerhalb des Fahrgastraums.
  • Der vorliegend beschriebene Gegenstand betrifft eine Verstärkung eines akustischen Signals. Bei einer Implementierung kann eine Audio-Engine mehrere akustische Signale von innerhalb einer geschlossenen Umgebung in Echtzeit empfangen. Die Audio-Engine empfängt die mehreren akustischen Signale von mindestens einem Sensor, der an verschiedenen Positionen innerhalb der geschlossenen Umgebung eingesetzt sein kann. Die Audio-Engine kann die mehreren akustischen Signale verarbeiten, um die Frequenzbereiche für jedes der mehreren akustischen Signale zu erhalten. Die Audio-Engine kann Frequenzbereiche bezüglich jedes der mehreren akustischen Signale mit Frequenzbereichen von menschlichen Stimmen vergleichen, um ein Vorhandensein von mindestens einem Individuum in der geschlossenen Umgebung zu bestimmen.
  • Des Weiteren kann eine Verstärkungs-Engine akustische Signale bezüglich des mindestens einen Individuums analysieren, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung zu detektieren. Das physiologische Ereignis kann eine Unwohlseinbedingung für ein Individuum angeben. Bei einem Beispiel kann das physiologische Ereignis eine Aussprache eines vordefinierten Schlüsselworts oder ein Auftreten eines vordefinierten Frequenzbereichs im akustischen Signal, das dem mindestens einen Individuum entspricht, beinhalten. Basierend auf der Analyse kann die Verstärkungs-Engine ein akustisches Signal als ein Zielsignal auswählen, wobei das Zielsignal das akustische Signal, das das physiologische Ereignis auslöst, angibt. Danach kann die Verstärkungs-Engine das Zielsignal innerhalb der geschlossenen Umgebung verstärken und ein Störsignal zum Unterdrücken von anderen akustischen Signalen innerhalb der geschlossenen Umgebung erzeugen.
  • Bei einer anderen Implementierung können akustische Signale bezüglich mindestens eines Individuums analysiert werden, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung zu detektieren. Des Weiteren kann ein akustisches Signal basierend auf der Analyse als ein Zielsignal erkannt werden. Das Zielsignal gibt das akustische Signal, das das physiologische Ereignis auslöst, an. Basierend auf dem Erkennen wird das Zielsignal innerhalb der geschlossenen Umgebung verstärkt. Weiterhin können andere akustische Signale in der geschlossenen Umgebung unterdrückt werden.
  • Andere Merkmale, Aspekte und Vorteile des vorliegenden Gegenstands werden unter Bezugnahme auf die folgende Beschreibung und die angehängten Ansprüche besser verständlich. Die Kurzdarstellung ist zum Vorstellen einer Auswahl von Konzepten in einer vereinfachten Form bereitgestellt und es ist weder beabsichtigt, dass sie Schlüsselmerkmale oder grundlegende Merkmale des beanspruchten Gegenstands identifiziert, noch ist beabsichtigt, dass sie zum Einschränken des Schutzumfangs des beanspruchten Gegenstands verwendet wird.
  • Die ausführliche Beschreibung wird unter Bezugnahme auf die begleitenden Figuren bereitgestellt. Es versteht sich, dass die Beschreibung und die Figuren lediglich beispielhaft für den vorliegenden Gegenstand sind und nicht den Gegenstand selbst repräsentieren sollen.
  • 1 veranschaulicht ein Netzwerkdiagramm, das eine geschlossene Umgebung abbildet, die ein beispielhaftes System zum selektiven Verstärken eines akustischen Signals gemäß einer Implementierung des vorliegenden Gegenstands einsetzt.
  • 2 veranschaulicht ein Blockdiagramm eines beispielhaften Systems zum selektiven Verstärken eines akustischen Signals in einer geschlossenen Umgebung gemäß einer Implementierung des vorliegenden Gegenstands.
  • 3 veranschaulicht ein Flussdiagramm eines beispielhaften Verfahrens zum selektiven Verstärken eines akustischen Signals in einer geschlossenen Umgebung gemäß einer Implementierung des vorliegenden Gegenstands.
  • In Fällen einer geschlossenen Umgebung, bei denen mehr als eine Sprachquelle vorhanden ist, kann es Beispiele geben, wenn eine Stimme eines Individuums nicht deutlich durch Andere gehört werden kann. Bei einem Beispiel, während des Fahrens in einem Fahrzeug, kann die Stimme des Mitfahrers aufgrund des Umgebungsgeräusches innerhalb des Fahrgastraums des Fahrzeugs sowie der Stimmen von anderen Mitfahrern nicht deutlich sein. Infolgedessen müssen die Mitfahrer möglicherweise laut sprechen, so dass sie imstande sind, gehört zu werden. Bei derartigen Situationen, falls sich der Mitfahrer, wie etwa ein Kind, nicht wohl fühlt oder im Fahrzeug weint, kann seine Stimme durch die Stimmen anderer Individuen im Fahrzeug unterdrückt werden und der Person wird möglicherweise keine rechtzeitige Beachtung gegeben.
  • Des Weiteren kann eine Kommunikation unter Mitfahrern aufgrund des Abstands zwischen ihnen bestimmte Probleme verursachen. Bestehende Systeme versuchen, eine Sprachklarheit innerhalb eines umschlossenen Raums, wie etwa innerhalb eines Fahrzeugs, bereitzustellen. Die bestehenden Systeme stellen zum Beispiel Mikrofone bereit, die innerhalb eines Fahrgastraums des Fahrzeugs zum Erfassen der Stimmen von Mitfahrern verwendet werden können. Danach können die Stimmen verarbeitet werden, um jegliches Umgebungsgeräusch zu entfernen und jeglichen Echoeffekt zu unterdrücken. Die verarbeiteten Stimmen können dann über eingebaute Lautsprecher des Fahrzeugs verstärkt werden. Die bestehenden Systeme versuchen dadurch, eine Klarheit von akustischen Signalen innerhalb des Fahrgastraums bereitzustellen.
  • Eine Verstärkung der Stimme reicht jedoch möglicherweise bei den Fällen nicht aus, wo eine unmittelbare Beachtung benötigt wird, wie etwa bei dem oben beschriebenen Fall eines Kindes. Im Fall von mehr als einer Sprachquelle sind die bestehenden Systeme möglicherweise nicht in der Lage, zu bestimmen, welche Stimme zu verstärken ist. Das Entfernen des Umgebungsgeräusches reicht möglicherweise nicht in allen Situationen aus.
  • Zu diesem Zweck werden Ansätze für eine selektive Verstärkung eines akustischen Signals beschrieben. Systeme und Verfahren, die diese Ansätze einsetzen, können in einer geschlossenen Umgebung implementiert werden. Die geschlossene Umgebung kann als ein geschlossener Raum, wie etwa ein Konferenzsaal, ein Theater und ein Fahrgastraum eines Fahrzeugs, verstanden werden. Bei einer Implementierung kann das System mehrere akustische Signale von einem oder mehreren Sensoren, die innerhalb der geschlossenen Umgebung eingesetzt sein können, empfangen. Gemäß einem Aspekt des vorliegenden Gegenstands können die mehreren akustischen Signale in Echtzeit empfangen werden. Das System kann die akustischen Signale verarbeiten, um Frequenzbereiche, die jedem der mehreren akustischen Signale entsprechen, zu erhalten. Des Weiteren kann das System Frequenzbereiche, die für jedes der mehreren akustischen Signale erhalten werden, mit Frequenzbereichen von menschlichen Stimmen vergleichen, um ein Vorhandensein von Individuen in der geschlossenen Umgebung zu bestimmen.
  • Bei einer Implementierung kann das System die mehreren akustischen Signale basierend auf dem Vergleich trennen. Bei einem Beispiel kann das System die mehreren akustischen Signale als akustische Signale, die von Individuen empfangen werden, und andere akustische Signale trennen.
  • Das System kann danach die von Individuen empfangenen akustischen Signale analysieren, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung zu detektieren. Das physiologische Ereignis kann als ein Ereignis, das mit einer physiologischen Bedingung assoziiert ist, verstanden werden. Beispiele des physiologischen Ereignisses können eine Aussprache eines vordefinierten Schlüsselworts und ein Auftreten eines vordefinierten Frequenzbereichs in den akustischen Signalen, die von Individuen empfangen werden, beinhalten. Bei der Detektion des physiologischen Ereignisses kann das System ein akustisches Signal aus den akustischen Signalen, die von Individuen empfangen werden, als ein Zielsignal auswählen. Bei einem Beispiel kann das akustische Signal, das das physiologische Ereignis auslöst, als das Zielsignal ausgewählt werden.
  • Basierend auf der Auswahl kann das System das Zielsignal innerhalb der geschlossenen Umgebung verstärken. Das System kann zum Beispiel das Zielsignal über mindestens eine Audioausgabeeinrichtung verstärken, die innerhalb der geschlossenen Umgebung eingesetzt sein kann. Um Klarheit für das verstärkte Zielsignal bereitzustellen, kann das System ein Störsignal zum Unterdrücken der anderen akustischen Signale innerhalb der geschlossenen Umgebung erzeugen. Dadurch unterdrückt das System jegliches unerwünschte Geräusch, während es das Zielsignal verstärkt. Die Unterdrückung der anderen akustischen Signale kann eine klare Verstärkung des Zielsignals unterstützen.
  • Bei einem anderen Beispiel kann das System eine aktive Geräuschunterdrückungsmethode zum Unterdrücken der anderen akustischen Signale einsetzen. Dementsprechend kann das so erzeugte Störsignal die gleiche Frequenz wie die anderen akustischen Signale in der geschlossenen Umgebung aufweisen. Des Weiteren ist das Störsignal um 180 Grad bezüglich der anderen akustischen Signale phasenverschoben. Das System kann danach das Störsignal in die geschlossene Umgebung hinzufügen, so dass die anderen akustischen Signale in der geschlossenen Umgebung unterdrückt werden.
  • Im Betrieb analysiert der vorliegende Gegenstand die akustischen Signale, die von Individuen empfangen werden, um ein Vorhandensein eines vordefinierten Schlüsselworts oder eines vordefinierten Frequenzbereichs in den akustischen Signalen, die von Individuen empfangen werden, zu detektieren. Es versteht sich, dass das vordefinierte Schlüsselwort oder der vordefinierte Frequenzbereich die physiologische Bedingung, wie etwa Weinen, Schreien und Hilfesuchen, betreffen kann. Basierend auf der Analyse wählt das System ein akustisches Signal als ein Zielsignal aus. Das Zielsignal gibt das akustische Signal, das das physiologische Ereignis auslöst, an. Das System kann das Zielsignal in der geschlossenen Umgebung verstärken, so dass eine unmittelbare Beachtung zum sich unwohl fühlenden Individuum gegeben werden kann. Zusätzlich dazu unterdrückt das System die anderen akustischen Signale innerhalb der geschlossenen Umgebung, so dass das verstärkte Zielsignal deutlich durch Andere gehört werden kann. Die Unterdrückung gewährleistet, dass es keine Beeinträchtigung im verstärkten Zielsignal gibt.
  • Die oben erwähnten Implementierungen werden vorliegend ferner unter Bezugnahme auf die begleitenden Figuren beschrieben. Es versteht sich, dass sich die Beschreibung und die Figuren auf beispielhafte Implementierungen beziehen und nicht als eine Beschränkung des vorliegenden Gegenstands ausgelegt werden sollten. Es versteht sich außerdem, dass verschiedene Anordnungen entwickelt werden können, die, obwohl sie vorliegend nicht explizit beschrieben oder dargestellt sind, die Prinzipien des vorliegenden Gegenstands verkörpern. Darüber hinaus ist beabsichtigt, dass alle vorliegenden Angaben, die Prinzipien, Aspekte und Ausführungsformen des vorliegenden Gegenstands sowie spezifische Beispiele vortragen, deren Äquivalente umfassen.
  • Diese und andere Aspekte sind in Verbindung mit einer oder mehreren Datenverarbeitungseinrichtungen und deren Arbeitsabläufen, wie in den 13 veranschaulicht, beschrieben. 1 veranschaulicht ein Netzwerkdiagramm, das eine geschlossene Umgebung 100 abbildet, die ein beispielhaftes System 104 zum selektiven Verstärken eines akustischen Signals in der geschlossenen Umgebung 100 gemäß einer Ausführungsform des vorliegenden Gegenstands einsetzt. Bei einem Beispiel kann die geschlossene Umgebung 100 als ein umschlossener Bereich verstanden werden. Beispiele der geschlossenen Umgebung 100 können unter anderem einen Konferenzsaal, ein Theater und einen Fahrgastraum eines Fahrzeugs beinhalten. Die geschlossene Umgebung kann eine oder mehrere Geräuschquellen beinhalten. Falls die geschlossene Umgebung zum Beispiel ein Fahrgastraum eines Fahrzeugs ist, kann bzw. können die eine oder die mehreren Geräuschquellen mindestens einen Mitfahrer im Fahrzeug, ein Unterhaltungssystem, einen Motor, eine Klimaanlage und dergleichen beinhalten.
  • Bei der gegenwärtigen Ausführungsform kann die geschlossene Umgebung 100 einen oder mehrere Sensoren 102, nachfolgend als Sensoren 102 bezeichnet, zum Erfassen von akustischen Signalen, die innerhalb der geschlossenen Umgebung 100 erzeugt werden können, beinhalten. Bei einem Beispiel können die Sensoren 102 Mikrofone beinhalten. Bei einem anderen Beispiel können die Sensoren 102 Mikro-Elektronische-Mechanische Systeme (MEMS) beinhalten. Die Sensoren 102 können unterschiedliche akustische Signale von innerhalb der geschlossenen Umgebung 100 in Echtzeit erfassen. Bei einer Implementierung können die Sensoren 102 mit einem System 104 gekoppelt sein. Das System 104 kann zum Identifizieren eines Zielsignals bezüglich eines Individuums beim Auftreten eines physiologischen Ereignisses innerhalb der geschlossenen Umgebung 100 konfiguriert sein.
  • Bei einer Implementierung kann das System 104 die unterschiedlichen akustischen Signale, die durch die Sensoren 102 erfasst werden, empfangen. Das System 104 kann die unterschiedlichen akustischen Signale nach dem Empfangen der akustischen Signale verarbeiten, um akustische Signale, die von Individuen in der geschlossenen Umgebung 100 empfangen werden, zu bestimmen. Das System 104 kann zum Beispiel den Frequenzbereich der unterschiedlichen akustischen Signale mit Frequenzbereichen von menschlichen Stimmen vergleichen, um die akustischen Signale bezüglich Individuen zu bestimmen. Des Weiteren können die akustischen Signale, die von Individuen empfangen werden, analysiert werden, um ein Auftreten des physiologischen Ereignisses in der geschlossenen Umgebung 100 zu detektieren. Das physiologische Ereignis kann als ein Ereignis, das mit einer physiologischen Bedingung eines Individuums assoziiert ist, verstanden werden. Das physiologische Ereignis kann zum Beispiel eine Aussprache eines Schlüsselworts durch ein Individuum oder ein Auftreten eines Frequenzbereichs in den akustischen Signalen, die mit dem mindestens einen Individuum assoziiert sind, beinhalten.
  • Bei einer Implementierung kann das System 104 mit einer Datenbank 106 gekoppelt sein. Die Datenbank 106 kann Schlüsselwörter sowie mehrere Frequenzbereiche, die ein Auftreten des physiologischen Ereignisses beschreiben, speichern. Die Frequenzbereiche entsprechen zum Beispiel verschiedenen physiologischen Bedingungen, wie etwa Weinen, Wut und Schmerz.
  • Bei der Detektion des physiologischen Ereignisses kann das System 104 das akustische Signal, das das physiologische Ereignis auslöst, als ein Zielsignal auswählen. Des Weiteren kann das System 104 das Zielsignal innerhalb der geschlossenen Umgebung 100 verstärken. Bei einem Aspekt des vorliegenden Gegenstands kann das System 104 mit mindestens einem Lautsprecher 108, der innerhalb der geschlossenen Umgebung 100 eingesetzt ist, gekoppelt sein. Der mindestens eine Lautsprecher 108 kann die Verstärkung des Zielsignals innerhalb der geschlossenen Umgebung 100 unterstützen.
  • Zusätzlich dazu kann das System 104 andere akustische Signale innerhalb der geschlossenen Umgebung 100 unterdrücken, so dass das verstärkte Zielsignal deutlich für andere Individuen hörbar ist. Bei einer Implementierung kann das System 104 eine aktive Geräuschunterdrückungsmethode zum Unterdrücken der anderen akustischen Signale innerhalb der geschlossenen Umgebung 100 einsetzen. Das System 104 kann zum Beispiel ein Störsignal zum Unterdrücken der anderen akustischen Signale innerhalb der geschlossenen Umgebung 100 erzeugen. Dementsprechend kann eine notwendige Beachtung oder Hilfe für ein Individuum in der geschlossenen Umgebung 100 bereitgestellt werden.
  • Diese und andere Funktionalitäten werden ausführlicher in Verbindung mit 2 bereitgestellt. 2 veranschaulicht ein Blockdiagramm des Systems 104, nachfolgend als das System 104 bezeichnet, zum selektiven Verstärken eines akustischen Signals in einer geschlossenen Umgebung 100 gemäß einer Implementierung des vorliegenden Gegenstands. Bei einem Aspekt des vorliegenden Gegenstands kann das System 104 in einer Hardware-Einheit in der geschlossenen Umgebung 100 implementiert werden. Bei einem Beispiel, wenn die geschlossene Umgebung 100 ein Fahrgastraum eines Fahrzeugs ist, kann das System 104 in einem Unterhaltungssystem des Fahrzeugs implementiert werden. Bei einem anderen Beispiel, wenn die geschlossene Umgebung 100 ein Konferenzsaal ist, kann das System 104 in einer Tonanlage des Konferenzsaals implementiert werden.
  • Bei einer Implementierung kann das System 104 mit der Datenbank 106 verbunden sein. Obwohl dies nicht in der Figur dargestellt ist, kann die Datenbank 106 über ein Netzwerk mit dem System 104 verbunden sein. Bei einem Beispiel enthält die Datenbank 106 Frequenzmuster bezüglich menschlicher Stimmen. Des Weiteren kann die Datenbank 106 die vordefinierten Frequenzmuster sowie vordefinierte Schlüsselwörter zur Identifikation des physiologischen Ereignisses enthalten. Dementsprechend kann das System 104 die Datenbank 106 zum Identifizieren der akustischen Signale bezüglich der Individuen nutzen. Weiterhin kann das System 104 die Datenbank 106 zum Identifizieren des Zielsignals nutzen. Die Datenbank 106 kann zum Beispiel zum Speichern von akustischen Signalen von den Sensoren 102, so dass diese durch das System 104 analysiert werden; von Frequenzbereichen, die mit den akustischen Signalen assoziiert sind, und von Schlüsselwörtern, die mit den akustischen Signalen assoziiert sind, verwendet werden.
  • Des Weiteren beinhaltet das System 104 eine oder mehrere Schnittstellen 202 und einen Speicher 204. Die eine oder die mehreren Schnittstellen 202 kann bzw. können eine Vielfalt von Schnittstellen beinhalten, zum Beispiel Schnittstellen für Dateneingabe- und -ausgabeeinrichtungen, die als E/A-Einrichtungen bezeichnet werden, Speichereinrichtungen, Netzwerkeinrichtungen und dergleichen. Die eine oder die mehreren Schnittstellen 202 unterstützt bzw. unterstützen die Kommunikation zwischen dem System 104 und verschiedenen Einrichtungen, die in der geschlossenen Umgebung 100 angeschlossen sind.
  • Der Speicher 204 kann eine oder mehrere computerlesbare Anweisungen speichern, die abgerufen und ausgeführt werden kann bzw. können, was bewirkt, dass ermöglicht wird, dass das System 104 ein Zielsignal verstärkt. Der Speicher 204 kann ein beliebiges nicht flüchtiges computerlesbares Medium beinhalten, zum Beispiel unbeständigen Speicher wie etwa RAM oder beständigen Speicher wie etwa EPROM, Flash-Speicher und dergleichen. Das System 104 beinhaltet ferner eine oder mehrere Engines 206 und Daten 208.
  • Die eine oder die mehreren Engines 206 wird bzw. werden als eine Kombination von Hardware und Programmierung (zum Beispiel programmierbare Anweisungen) zum Implementieren einer oder mehrerer Funktionalitäten der einen oder der mehreren Engines 206 implementiert. Bei vorliegend beschriebenen Beispielen können derartige Kombinationen von Hardware und Programmierung auf eine Anzahl unterschiedlicher Weisen implementiert werden. Die Programmierung für die eine oder die mehreren Engines 206 kann zum Beispiel prozessorausführbare Anweisungen sein, die auf einem nicht flüchtigen maschinenlesbaren Speichermedium gespeichert sind, und die Hardware für die eine oder die mehreren Engines 206 kann eine Verarbeitungsressource (zum Beispiel einen oder mehrere Prozessoren) zum Ausführen derartiger Anweisungen beinhalten. Bei den gegenwärtigen Beispielen speichert das maschinenlesbare Speichermedium Anweisungen, die, wenn sie durch die Verarbeitungsressource ausgeführt werden, eine oder mehrere Engines 206 implementieren. Bei derartigen Beispielen kann das System 104 das maschinenlesbare Speichermedium, das die Anweisungen speichert, und die Verarbeitungsressource zum Ausführen der Anweisungen beinhalten oder das maschinenlesbare Speichermedium kann vom System 104 und der Verarbeitungsressource getrennt aber für diese zugänglich sein. Bei anderen Beispielen kann bzw. können die eine oder die mehreren Engines 206 durch elektronische Schaltkreise implementiert werden.
  • Die Daten 208 beinhalten Daten, die entweder als ein Ergebnis der Funktionalitäten, die durch eine oder mehrere beliebige der Engines 206 implementiert werden, verwendet werden oder als dieses erzeugt werden. Bei einem Beispiel beinhaltet bzw. beinhalten die eine oder die mehreren Engines 206 die eine oder die mehreren Audio-Engines 210, eine Verstärkungs-Engine 212 und eine oder mehrere andere Engines 214. Die eine oder die mehreren anderen Engines 214 kann bzw. können Funktionalitäten implementieren, die Anwendungen oder Funktionen, die durch das System 104 durchgeführt werden, ergänzen. Des Weiteren beinhalten die Daten 208 Frequenzdaten 216, Schlüsselwortdaten 218 und andere Daten 220.
  • Im Betrieb kann die Audio-Engine 210 unterschiedliche akustische Signale von innerhalb der geschlossenen Umgebung 100 empfangen. Die akustischen Signale können von verschiedenen Quellen stammen, zum Beispiel einer Stimme einer Person, Musik von einer Unterhaltungsquelle und dergleichen. Bei einer Implementierung können die unterschiedlichen akustischen Signale durch die Audio-Engine 210 in Echtzeit empfangen werden. Bei einem Aspekt der gegenwärtigen Implementierung können die unterschiedlichen akustischen Signale durch die Sensoren 102, die innerhalb der geschlossenen Umgebung 100 eingesetzt sein können, empfangen werden. Beispiele der Sensoren 102 können unter anderem Mikrofone und Mikro-Elektronische-Mechanische Sensoren beinhalten, die zum Zuführen von akustischen Echtzeit-Signalen zur Audio-Engine 210 konfiguriert sein können. Bei einem Beispiel können die Sensoren 102 an verschiedenen Positionen in der geschlossenen Umgebung 100 zum Erfassen der akustischen Signale eingesetzt werden. Bei einem anderen Beispiel können die Sensoren 102 in der geschlossenen Umgebung 100, wie etwa einem Fahrgastraum eines Fahrzeugs, voreingebaut sein.
  • Des Weiteren kann die Audio-Engine 210 die unterschiedlichen akustischen Signale verarbeiten, um die Frequenzbereiche, die jedem der akustischen Signale entsprechen, zu erhalten. Bei einem Beispiel kann die Audio-Engine 210 eine Kalman-Filtermethode zum Verarbeiten der unterschiedlichen akustischen Signale in Echtzeit einsetzen. Infolgedessen kann die Audio-Engine 210 einen Frequenzbereich, der jedem akustischen Signal entspricht, extrahieren. Die durch die Audio-Engine 210 abgeleiteten Frequenzbereiche können in der Datenbank 106 als die Frequenzdaten 216 zur späteren Verwendung gespeichert werden.
  • Wie oben erwähnt, kann die geschlossene Umgebung 100 mehr als eine Quelle der akustischen Signale aufweisen. Im Fall des Fahrgastraums des Fahrzeugs können die mehreren akustischen Signale zum Beispiel von verschiedenen Quellen, wie etwa einem Motor des Fahrzeugs, einem Unterhaltungssystem, Mitfahrerstimmen und Umgebungsgeräusch, erzeugt werden. Die Audio-Engine 210 kann die Frequenzbereiche, die für jedes akustische Signal erhalten werden, mit Frequenzbereichen einer menschlichen Stimme vergleichen, um ein Vorhandensein von Individuen in der geschlossenen Umgebung 100 zu bestimmen. Falls die akustischen Signale zum Beispiel einen Frequenzbereich von 85 bis 155 Hz aufweisen, kann die Audio-Engine 210 ein Vorhandensein von mindestens einem männlichen Erwachsenen in der geschlossenen Umgebung 100 bestimmen. Gleichermaßen geben akustische Signale mit einem Frequenzbereich von 165 bis 255 Hz ein Vorhandensein einer erwachsenen Frau in der geschlossenen Umgebung 100 an. Darüber hinaus kann die Audio-Engine 210 ein Vorhandensein eines Kindes in der geschlossenen Umgebung 100 detektieren, wenn die akustischen Signale einen Frequenzbereich von 250 bis 650 Hz aufweisen. Bei einem Aspekt kann der Frequenzbereich der menschlichen Stimme in der Datenbank 106 voreingespeichert werden.
  • Wenn das Vorhandensein von mindestens einem Individuum in der geschlossenen Umgebung 100 bestimmt wird, kann die Audio-Engine 210 die akustischen Signale bezüglich des mindestens einen Individuums von anderen akustischen Signalen unter den unterschiedlichen akustischen Signalen in der geschlossenen Umgebung 100 trennen. Die getrennten akustischen Signale bezüglich des mindestens einen Individuums können durch das System 104 weiter verarbeitet werden, um ein zu verstärkendes akustisches Signal basierend auf bestimmten Parametern auszuwählen. Dementsprechend kann die Audio-Engine 210 unerwünschte akustische Signale eliminieren oder herausfiltern. Daher wird eine Menge der akustischen Signale weiter verarbeitet, wodurch eine schnellere Verarbeitung der akustischen Signale ermöglicht wird.
  • Bei einer anderen Implementierung kann das System 104 die akustischen Signale bezüglich Individuen zum Bestimmen des physiologischen Ereignisses und zur Identifikation des Zielsignals empfangen. Die mehreren akustischen Signale können zum Beispiel durch ein Kommunikationssystem eines Konferenzsaals verarbeitet werden und das Kommunikationssystem kann mit dem System 104 gekoppelt sein. Das Kommunikationssystem kann die akustischen Signale bezüglich Individuen an das System 104 für eine weitere Analyse bereitstellen.
  • Bei einem Beispiel kann die Verstärkungs-Engine 212 die akustischen Signale bezüglich des mindestens einen Individuums analysieren, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung 100 zu detektieren. Bei einem Beispiel kann das physiologische Ereignis als ein Ereignis, das mit einer physiologischen Bedingung des mindestens einen Individuums assoziiert ist, verstanden werden. Beim gegenwärtigen Beispiel kann die physiologische Bedingung als eine Unwohlseinbedingung, die durch ein Individuum in der geschlossenen Umgebung 100 empfunden werden kann, verstanden werden. Beispiele für die physiologischen Bedingungen können unter anderem das Empfinden von Übelkeit, Schwindelgefühl, Schmerz, Platzangst oder eine beliebige Unwohlseinbedingung beinhalten.
  • Bei einem Aspekt des vorliegenden Gegenstands kann das physiologische Ereignis eine Aussprache eines vordefinierten Schlüsselworts oder ein Auftreten eines vordefinierten Frequenzbereichs in den akustischen Signalen, die dem mindestens einen Individuum entsprechen, beinhalten. Falls ein Kind in einem Fahrzeug zum Beispiel Übelkeit empfindet, fängt es möglicherweise an, zu weinen. Bei derartigen Situationen kann die Verstärkungs-Engine 212 einen Frequenzbereich des Weinens des Kindes mit den vordefinierten Frequenzbereichen, die in der Datenbank 106 gespeichert sind, vergleichen. Basierend auf dem Vergleich kann die Verstärkungs-Engine 212 ein Auftreten des physiologischen Ereignisses im Fahrzeug detektieren.
  • Bei einem anderen Beispiel, falls sich eine Person in einem überfüllten Raum schwindlig fühlt, kann sie versuchen, die Aufmerksamkeit der Anderen durch Ausrufen bestimmter Worte, wie etwa „Hilfe“, auf sich zu lenken. In diesem Fall kann die Verstärkungs-Engine 212 eine Aussprache des Schlüsselworts „Hilfe“ im akustischen Signal, das vom Individuum empfangen wird, detektieren. Die Verstärkungs-Engine 212 kann das durch das Individuum ausgesprochene Schlüsselwort mit vordefinierten Schlüsselwörtern, die in der Datenbank 106 gespeichert sind, vergleichen. Die vordefinierten Schlüsselwörter können in der Datenbank 106 als die Schlüsselwortdaten 218 gespeichert sein. Wenn eine Übereinstimmung für das Schlüsselwort oder den Frequenzbereich identifiziert wird, wird das physiologische Ereignis durch das Verstärkungsmodul 212 detektiert.
  • Bei einer Implementierung kann die Verstärkungs-Engine 212 das akustische Signal, das das physiologische Ereignis auslöst, nach der Detektion des Auftretens des physiologischen Ereignisses als ein Zielsignal auswählen. Danach kann die Verstärkungs-Engine 212 das Zielsignal innerhalb der geschlossenen Umgebung 100 verstärken. Bei einem Beispiel kann die Verstärkungs-Engine 212 das Zielsignal über mindestens eine Audioausgabeeinrichtung, wie etwa einen Lautsprecher 108, verstärken, die innerhalb der geschlossenen Umgebung 100 eingesetzt sein kann.
  • Des Weiteren kann die Verstärkungs-Engine 212 die anderen akustischen Signale, die von der geschlossenen Umgebung 100 empfangen werden, unter Verwendung einer aktiven Geräuschunterdrückungsmethode unterdrücken. Bei einem Aspekt des vorliegenden Gegenstands kann die Verstärkungs-Engine 212 ein Störsignal zum Unterdrücken der anderen akustischen Signale unter den mehreren akustischen Signalen innerhalb der geschlossenen Umgebung 100 erzeugen. Bei einem Beispiel kann das Störsignal die gleiche Frequenz wie die anderen akustischen Signale in der geschlossenen Umgebung 100 aufweisen. Zusätzlich dazu ist das Störsignal um 180 Grad bezüglich der anderen akustischen Signale phasenverschoben. Die Verstärkungs-Engine 212 kann das Störsignal in die geschlossene Umgebung 100 zum Unterdrücken der anderen akustischen Signale hinzufügen. Es versteht sich, dass die Verstärkungs-Engine 212 beliebige andere Geräuschunterdrückungsmethoden, die in der Technik vorhanden sind, einsetzen kann. Beispiele für bestehende Geräuschunterdrückungsmethoden können das MUSIC-Verfahren (Multiple Signal Classification), das Pisarenko-Verfahren zur harmonischen Zerlegung und dergleichen beinhalten.
  • Die Verstärkung des Zielsignals, d.h. des akustischen Signals bezüglich des physiologischen Ereignisses, innerhalb eines bestimmten Bereichs kann das Detektieren einer beliebigen Unwohlseinbedingung in der geschlossenen Umgebung unterstützen. Des Weiteren ermöglicht die Unterdrückung der anderen akustischen Signale innerhalb der geschlossenen Umgebung eine Erkennung des sich unwohl fühlenden Individuums.
  • 3 veranschaulicht ein beispielhaftes Verfahren 300 zum selektiven Verstärken eines akustischen Signals gemäß einer Implementierung des vorliegenden Gegenstands. Es wird nicht beabsichtigt, dass die Reihenfolge, in der das Verfahren beschrieben ist, als eine Einschränkung auszulegen ist, und eine beliebige Anzahl der beschriebenen Verfahrensblöcke können in einer beliebigen Reihenfolge kombiniert werden, um das vorgenannte Verfahren oder ein alternatives Verfahren zu implementieren. Weiterhin kann das Verfahren 300 durch eine Verarbeitungsressource oder eine oder mehrere Datenverarbeitungseinrichtungen über beliebige geeignete Hardware, nicht flüchtige maschinenlesbare Anweisungen oder einer Kombination davon implementiert werden.
  • Es versteht sich auch, dass das Verfahren 300 durch programmierte Datenverarbeitungseinrichtungen, wie etwa das in den 12 abgebildete System 104, durchgeführt werden kann. Weiterhin kann das Verfahren 300 basierend auf Anweisungen, die in einem nicht flüchtigen computerlesbaren Medium gespeichert sind, ausgeführt werden, wie leicht verständlich ist. Das nicht flüchtige computerlesbare Medium kann zum Beispiel digitale Speicher, magnetische Speichermedien, wie etwa eine oder mehrere Magnetplatten und ein oder mehrere Magnetbänder, Festplatten oder optisch lesbare digitale Datenspeichermedien beinhalten. Das Verfahren 300 wird im Folgenden unter Bezugnahme auf das wie oben beschriebene System 104 beschrieben; andere geeignete Systeme zur Ausführung dieser Verfahren können auch genutzt werden. Zusätzlich dazu ist die Implementierung dieser Verfahren nicht auf derartige Beispiele eingeschränkt.
  • Mit Bezug auf 3 kann das Verfahren 300 bei Block 302 Verarbeiten von mehreren akustischen Signalen, die von der geschlossenen Umgebung 100 empfangen werden, beinhalten. Bei einer Implementierung kann die Audio-Engine 210 die mehreren akustischen Signale verarbeiten, um einen Frequenzbereich für jedes der mehreren akustischen Signale zu erhalten. Bei einem Beispiel werden die mehreren akustischen Signale durch die Audio-Engine 210 in Echtzeit empfangen.
  • Bei Block 304 kann das Verfahren 300 Vergleichen der erhaltenen Frequenzbereiche jedes akustischen Signals, um ein Vorhandensein von mindestens einem Individuum in der geschlossenen Umgebung 100 zu bestimmen, beinhalten. Bei einer Implementierung kann die Audio-Engine 210 zum Vergleichen der erhaltenen Frequenzbereiche mit Frequenzbereichen von menschlichen Stimmen konfiguriert sein, um ein Vorhandensein des mindestens einen Individuums zu bestimmen.
  • Bei Block 306 kann das Verfahren 300 Analysieren der akustischen Signale bezüglich des mindestens einen Individuums, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung 100 zu detektieren, beinhalten. Bei einer Implementierung kann die Verstärkungs-Engine 212 zum Analysieren der akustischen Signale konfiguriert sein, um ein Auftreten des physiologischen Ereignisses zu detektieren. Bei einem Beispiel kann das physiologische Ereignis als ein Ereignis, das einer physiologischen Bedingung des mindestens einen Individuums entspricht, verstanden werden. Bei einem Aspekt des vorliegenden Gegenstands kann das physiologische Ereignis eine Aussprache eines vordefinierten Schlüsselworts oder ein Auftreten eines vordefinierten Frequenzbereichs beinhalten.
  • Des Weiteren kann das Verfahren 300 bei Block 308 Auswählen eines akustischen Signals als ein Zielsignal basierend auf dem Analysieren beinhalten. Bei einer Implementierung kann die Verstärkungs-Engine 212 zum Auswählen des Zielsignals konfiguriert sein. Bei einem Beispiel kann das Zielsignal als das akustische Signal, das das physiologische Ereignis auslöst, verstanden werden.
  • Bei Block 310 kann das Verfahren 300 Verstärken des Zielsignals innerhalb der geschlossenen Umgebung 100 beinhalten. Bei einer Implementierung kann die Verstärkungs-Engine 212 zum Verstärken des Zielsignals konfiguriert sein. Bei einem Beispiel kann die Verstärkung über eine Audioausgabeeinrichtung, die innerhalb der geschlossenen Umgebung 100 eingesetzt sein kann, durchgeführt werden.
  • Des Weiteren kann die Verstärkungs-Engine 212 die anderen akustischen Signale unter den mehreren akustischen Signalen unterdrücken. Diesbezüglich kann die Verstärkungs-Engine 212 ein Störsignal zum Unterdrücken der anderen akustischen Signale erzeugen.
  • Obwohl Beispiele für die vorliegende Offenbarung in einer Sprache spezifisch für strukturelle Merkmale und/oder Verfahren beschrieben worden sind, versteht es sich, dass die angehängten Ansprüche nicht notwendigerweise auf die spezifischen beschriebenen Merkmale oder Verfahren eingeschränkt sind. Vielmehr sind die spezifischen Merkmale und Verfahren als Beispiele der vorliegenden Offenbarung offenbart und erläutert.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6535609 [0005]

Claims (15)

  1. System (104) zur selektiven Verstärkung eines akustischen Signals, das Folgendes umfasst: eine Audio-Engine (210) zum Empfangen von mehreren akustischen Signalen von innerhalb einer geschlossenen Umgebung (100) in Echtzeit und Vergleichen von Frequenzbereichen bezüglich jedes der mehreren akustischen Signale mit Frequenzbereichen von menschlichen Stimmen, um ein Vorhandensein von mindestens einem Individuum in der geschlossenen Umgebung (100) zu bestimmen; eine Verstärkungs-Engine (212) zum Analysieren von akustischen Signalen bezüglich des mindestens einen Individuums, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung (100) zu detektieren; basierend auf der Analyse, Auswählen eines akustischen Signals als ein Zielsignal, wobei das Zielsignal das akustische Signal, das das physiologische Ereignis auslöst, angibt; Verstärken des Zielsignals innerhalb der geschlossenen Umgebung (100) und Erzeugen eines Störsignals zum Unterdrücken anderer akustischer Signale innerhalb der geschlossenen Umgebung (100).
  2. System (104) nach Anspruch 1, wobei die Audio-Engine (210) die mehreren akustischen Signale verarbeitet, um die Frequenzbereiche für jedes der mehreren akustischen Signale zu erhalten.
  3. System (104) nach Anspruch 2, wobei die Audio-Engine (210) eine Kalman-Analyse zum Verarbeiten der mehreren akustischen Signale einsetzt.
  4. System (104) nach Anspruch 1, wobei die Audio-Engine (210) die mehreren akustischen Signale von mindestens einem Sensor (102), der an verschiedenen Positionen innerhalb der geschlossenen Umgebung (100) eingesetzt wird, empfängt.
  5. System (104) nach Anspruch 4, wobei der mindestens eine Sensor (102) Mikrofone und/oder mehrere Mikro-Elektronische-Mechanische Sensoren (MEMS) umfasst.
  6. System (104) nach Anspruch 1, wobei die Audio-Engine (210) das akustische Signal, das von mindestens einem Individuum empfangen wird, von den anderen akustischen Signalen in der geschlossenen Umgebung (100) trennt.
  7. System (104) nach Anspruch 1, wobei das physiologische Ereignis eine Unwohlseinbedingung für ein Individuum angibt.
  8. System (104) nach Anspruch 1, wobei das physiologische Ereignis eine Aussprache eines vordefinierten Schlüsselworts oder ein Auftreten eines vordefinierten Frequenzbereichs im akustischen Signal, das dem mindestens einen Individuum entspricht, umfasst.
  9. System (104) nach Anspruch 1, wobei das Störsignal die gleiche Frequenz wie die anderen akustischen Signale in der geschlossenen Umgebung (100) aufweist und wobei das Störsignal um 180 Grad gegenüber den anderen akustischen Signalen phasenverschoben ist.
  10. System (104) nach Anspruch 1, wobei die Verstärkungs-Engine (212) mit einem Lautsprecher (108), der innerhalb der geschlossenen Umgebung (100) platziert ist, gekoppelt ist.
  11. Verfahren zum Verstärken eines akustischen Signals in einer geschlossenen Umgebung (100), wobei das Verfahren Folgendes umfasst: Analysieren, durch eine Verstärkungs-Engine (212), von akustischen Signalen bezüglich mindestens eines Individuums, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung (100) zu detektieren; Erkennen basierend auf dem Analysieren, durch die Verstärkungs-Engine (212), eines akustischen Signals als ein Zielsignal, wobei das Zielsignal das akustische Signal, das das physiologische Ereignis auslöst, angibt; basierend auf dem Erkennen, Verstärken, durch die Verstärkungs-Engine (212), des Zielsignals innerhalb der geschlossenen Umgebung (100) und Unterdrücken, durch die Verstärkungs-Engine (212), von anderen akustischen Signalen in der geschlossenen Umgebung (100).
  12. Verfahren nach Anspruch 11, wobei die mehreren akustischen Signale in Echtzeit empfangen werden.
  13. Verfahren nach Anspruch 11, wobei das Unterdrücken Folgendes umfasst: Erzeugen, durch die Verstärkungs-Engine (212), eines Störsignals, das die gleiche Frequenz wie die anderen akustischen Signale in der geschlossenen Umgebung (100) aufweist, wobei das Störsignal um 180 Grad gegenüber den anderen akustischen Signalen phasenverschoben ist; und Hinzufügen, durch die Verstärkungs-Engine (212), des Störsignals in die geschlossene Umgebung (100) zum Unterdrücken der anderen akustischen Signale in der geschlossenen Umgebung (100).
  14. Verfahren nach Anspruch 11, wobei das physiologische Ereignis eine Aussprache eines vordefinierten Schlüsselworts oder ein Auftreten eines vordefinierten Frequenzbereichs im akustischen Signal bezüglich des mindestens einen Individuums umfasst.
  15. Nicht flüchtiges computerlesbares Medium mit einer Menge von computerlesbaren Anweisungen, die, wenn sie ausgeführt werden, eine Verarbeitungsressource zu Folgendem bewirken: Empfangen von mehreren akustischen Signalen von innerhalb einer geschlossenen Umgebung (100) in Echtzeit; Analysieren von akustischen Signalen bezüglich mindestens eines Individuums aus den mehreren akustischen Signalen, um ein Auftreten eines physiologischen Ereignisses in der geschlossenen Umgebung (100) zu detektieren; basierend auf der Analyse, Auswählen eines akustischen Signals, das dem mindestens einen Individuum entspricht, als ein Zielsignal, wobei das Zielsignal das akustische Signal, das das physiologische Ereignis auslöst, angibt; Verstärken des Zielsignals innerhalb der geschlossenen Umgebung (100) basierend auf der Identifikation und Erzeugen eines Störsignals zum Unterdrücken anderer akustischer Signale unter den mehreren akustischen Signalen.
DE102017209585.7A 2016-06-08 2017-06-07 System und verfahren zur selektiven verstärkung eines akustischen signals Pending DE102017209585A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN201641019749 2016-06-08
IN201641019749 2016-06-08

Publications (1)

Publication Number Publication Date
DE102017209585A1 true DE102017209585A1 (de) 2017-12-14

Family

ID=60419961

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017209585.7A Pending DE102017209585A1 (de) 2016-06-08 2017-06-07 System und verfahren zur selektiven verstärkung eines akustischen signals

Country Status (3)

Country Link
US (1) US10065013B2 (de)
CN (1) CN107481733A (de)
DE (1) DE102017209585A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018213367A1 (de) * 2018-08-09 2020-02-13 Audi Ag Verfahren und Telefonievorrichtung zur Geräuschunterdrückung eines systemgenerierten Audiosignals bei einem Telefonat sowie ein Fahrzeug mit der Telefonievorrichtung

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220208189A1 (en) * 2019-05-08 2022-06-30 Sony Group Corporation Information processing device and information processing method
US11164341B2 (en) 2019-08-29 2021-11-02 International Business Machines Corporation Identifying objects of interest in augmented reality
CN111583898B (zh) * 2020-05-26 2021-06-29 苏州双福智能科技有限公司 一种空间环境多方位选择性降噪系统及方法
EP4256558A1 (de) * 2020-12-02 2023-10-11 Hearunow, Inc. Dynamische sprachakzentation und -verstärkung
CN113038338A (zh) * 2021-03-22 2021-06-25 联想(北京)有限公司 降噪处理方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535609B1 (en) 1997-06-03 2003-03-18 Lear Automotive Dearborn, Inc. Cabin communication system

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921428B2 (ja) 1995-02-27 1999-07-19 ヤマハ株式会社 カラオケ装置
JP3319211B2 (ja) 1995-03-23 2002-08-26 ヤマハ株式会社 音声変換機能付カラオケ装置
JPH0911810A (ja) 1995-06-28 1997-01-14 Ekushingu:Kk 自動車用カラオケシステム
JP3598598B2 (ja) 1995-07-31 2004-12-08 ヤマハ株式会社 カラオケ装置
SE506034C2 (sv) * 1996-02-01 1997-11-03 Ericsson Telefon Ab L M Förfarande och anordning för förbättring av parametrar representerande brusigt tal
JP3709631B2 (ja) 1996-11-20 2005-10-26 ヤマハ株式会社 カラオケ装置
JP4010019B2 (ja) 1996-11-29 2007-11-21 ヤマハ株式会社 歌唱音声信号切換装置
TW594602B (en) 1999-08-30 2004-06-21 Winbond Electronics Corp Device and method for learning and evaluating accompanied singing
US6151571A (en) 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
US6748086B1 (en) 2000-10-19 2004-06-08 Lear Corporation Cabin communication system without acoustic echo cancellation
US7660711B2 (en) * 2006-04-28 2010-02-09 Saudi Arabian Oil Company Automated event monitoring system for online reservoir simulation
CN101281744B (zh) * 2007-04-04 2011-07-06 纽昂斯通讯公司 语音分析方法和装置以及语音合成方法和装置
GB2466242B (en) * 2008-12-15 2013-01-02 Audio Analytic Ltd Sound identification systems
US9286911B2 (en) * 2008-12-15 2016-03-15 Audio Analytic Ltd Sound identification systems
US9339202B2 (en) * 2009-11-03 2016-05-17 Vivaquant Llc System for processing physiological data
US8255642B2 (en) * 2009-12-03 2012-08-28 International Business Machines Corporation Automatic detection of stress condition
US8725506B2 (en) * 2010-06-30 2014-05-13 Intel Corporation Speech audio processing
CN102259629B (zh) * 2011-04-06 2012-11-07 浙江吉利汽车研究院有限公司 车载儿童遗漏提醒装置及其检测方法
US9955937B2 (en) * 2012-09-20 2018-05-01 Masimo Corporation Acoustic patient sensor coupler
KR102195897B1 (ko) * 2013-06-05 2020-12-28 삼성전자주식회사 음향 사건 검출 장치, 그 동작 방법 및 그 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능 기록 매체
US9663031B2 (en) * 2013-10-21 2017-05-30 Harman International Industries, Inc. Modifying an audio panorama to indicate the presence of danger or other events of interest
CN103680057A (zh) * 2013-12-06 2014-03-26 闻泰通讯股份有限公司 使用电子设备监测婴儿哭闹的方法及系统
CN103778916B (zh) * 2013-12-31 2016-09-28 三星电子(中国)研发中心 监控环境声音的方法及系统
CA2895954C (en) * 2014-07-07 2022-12-13 Azadeh Kushki Anxiety meter
CN105347127B (zh) * 2014-08-19 2018-06-19 三菱电机上海机电电梯有限公司 电梯轿厢内异常情况的监控系统及监控方法
US9685926B2 (en) * 2014-12-10 2017-06-20 Ebay Inc. Intelligent audio output devices
US9965685B2 (en) * 2015-06-12 2018-05-08 Google Llc Method and system for detecting an audio event for smart home devices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535609B1 (en) 1997-06-03 2003-03-18 Lear Automotive Dearborn, Inc. Cabin communication system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018213367A1 (de) * 2018-08-09 2020-02-13 Audi Ag Verfahren und Telefonievorrichtung zur Geräuschunterdrückung eines systemgenerierten Audiosignals bei einem Telefonat sowie ein Fahrzeug mit der Telefonievorrichtung

Also Published As

Publication number Publication date
US10065013B2 (en) 2018-09-04
CN107481733A (zh) 2017-12-15
US20170354796A1 (en) 2017-12-14

Similar Documents

Publication Publication Date Title
DE102017209585A1 (de) System und verfahren zur selektiven verstärkung eines akustischen signals
DE112017001830B4 (de) Sprachverbesserung und audioereignisdetektion für eine umgebung mit nichtstationären geräuschen
DE60023517T2 (de) Klassifizierung von schallquellen
WO2021023667A1 (de) System und verfahren zur unterstützung von selektivem hören
DE112016006218B4 (de) Schallsignal-Verbesserungsvorrichtung
DE2719973A1 (de) Verfahren und vorrichtung zum adaptiven filtern von fast stationaerem geraeusch aus sprache
EP2333768A2 (de) Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und/oder -führung
DE102015118553A1 (de) Systeme und Verfahren zum Auswählen von Audiofiltermethoden
DE102014012184A1 (de) Vorrichtung und Verfahren zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich
DE112017007280T5 (de) Fahrzeuginterne Kommunikationssteuerungsvorrichtung, fahrzeuginternes Kommunikationssystem, und fahrzeuginternes Kommunikationssteuerungsverfahren
EP2405673A1 (de) Verfahren zum Lokalisieren einer Audioquelle und mehrkanaliges Hörsystem
DE102015222105A1 (de) Audiosignalverarbeitung in einem Fahrzeug
DE112017008305T5 (de) Spracherkennungsvorrichtung, Spracherkennungssystem und Spracherkennungsverfahren
EP1808853B1 (de) Beschallungsanlage, Beschallungsverfahren und Computerprogramm zur Verbesserung der Sprachqualität und/oder Verständlichkeit von Sprachdurchsagen
DE102016204315A1 (de) Fortbewegungsmittel, System und Verfahren zur Anpassung einer Länge einer erlaubten Sprechpause im Rahmen einer Spracheingabe
DE112018007970T5 (de) Spracherkennungsvorrichtung, Spracherkennungssystem und Spracherkennungsverfahren
DE102018217634A1 (de) Verfahren zum Betrieb eines Fahrzeugs sowie Fahrzeug
WO2022023417A2 (de) System und verfahren zur kopfhörerentzerrung und raumanpassung zur binauralen wiedergabe bei augmented reality
DE112021001228T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm
DE60033039T2 (de) Vorrichtung und verfahren zur unterdrückung von zischlauten unter verwendung von adaptiven filteralgorithmen
DE102019102414B4 (de) Verfahren und System zur Detektion von Reibelauten in Sprachsignalen
DE102019003624A1 (de) Verfahren zum Übermitteln eines akustischen Signals an eine Person
DE102016003401B4 (de) Erfassungsvorrichtung und Verfahren zum Erfassen einer Sprachäußerung einer sprechenden Person in einem Kraftfahrzeug
DE112020005717T5 (de) Erkennung von live-sprache
EP3232691B1 (de) Verfahren zur ermittlung der raumimpulsantwort einer fahrgastzelle eines kraftfahrzeugs

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MARKOWITZ, MARKUS, DR.-ING., DE

R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015200000

Ipc: G10L0025780000