DE102022100428A1 - Sprachfilterung in einem fahrzeug - Google Patents

Sprachfilterung in einem fahrzeug Download PDF

Info

Publication number
DE102022100428A1
DE102022100428A1 DE102022100428.7A DE102022100428A DE102022100428A1 DE 102022100428 A1 DE102022100428 A1 DE 102022100428A1 DE 102022100428 A DE102022100428 A DE 102022100428A DE 102022100428 A1 DE102022100428 A1 DE 102022100428A1
Authority
DE
Germany
Prior art keywords
filter
speech
occupant
procedure
filtered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022100428.7A
Other languages
English (en)
Inventor
Scott Andrew Amman
Cynthia M. Neubecker
Pietro Buttolo
Joshua Wheeler
Brian Bennie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102022100428A1 publication Critical patent/DE102022100428A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/199Information management for avoiding maloperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/595Data transfer involving internal databases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2236Quality of speech transmission monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Die vorliegende Offenbarung betrifft Sprachfilterung in einem Fahrzeug. Ein Computer beinhaltet einen Prozessor und einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind, um einen Insassen in einem Fahrgastraum eines Fahrzeugs zu identifizieren, eine Position eines Kopfes des Insassen relativ zu dem Fahrgastraum zu erfassen, einen ersten Filter auf Sprache von dem Insassen auf Grundlage der Position des Kopfes anzuwenden, einen zweiten Filter zu erzeugen, den zweiten Filter auf die Sprache anzuwenden, den zweiten Filter auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und einem vorgespeicherten Profil des Insassen anzupassen und einen Vorgang unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache durchzuführen.

Description

  • GEBIET DER TECHNIK
  • Die Erfindung betrifft im Allgemeinen Fahrzeug-Spracherkennungssysteme.
  • ALLGEMEINER STAND DER TECHNIK
  • Viele moderne Fahrzeuge beinhalten Spracherkennungssysteme. Ein derartiges System beinhaltet ein Mikrofon. Das System wandelt durch das Mikrofon erfasste gesprochene Wörter in Text oder eine andere Form um, der ein Befehl zugeordnet werden kann. Erkannte Befehle können Einstellen von Klimasteuerungen, Auswählen von abzuspielenden Medien usw. beinhalten.
  • Figurenliste
    • 1 ist eine Draufsicht auf ein beispielhaftes Fahrzeug mit einem zur Veranschaulichung freigelegten Fahrgastraum.
    • 2 ist ein Blockdiagramm eines Systems des Fahrzeugs.
    • 3 ist ein Verlauf des Schalldrucks gegenüber der Frequenz für Sprache für eine Vielfalt von Zuständen.
    • 4 ist ein Prozessablaufdiagramm eines beispielhaften Prozesses zum Erzeugen eines Profils von Sprache eines Insassen des Fahrzeugs.
    • 5 ist ein Prozessablaufdiagramm eines beispielhaften Prozesses zum Filtern von Sprache des Insassen.
    • 6 ist ein Informationsablaufdiagramm einer Rückkopplungsschleife zum Anpassen eines zweiten Filters zum Filtern von Sprache des Insassen.
  • KURZDARSTELLUNG
  • Die Anweisungen können Anweisungen beinhalten, um wiederholt während einer einzelnen Fahrt des Fahrzeugs die Sprache durch den Insassen zu erfassen, dann den zweiten Filter auf die Sprache anzuwenden und dann den zweiten Filter auf Grundlage der Differenz zwischen der durch den zweiten Filter gefilterten Sprache und dem vorgespeicherten Profil anzupassen.
  • Der zweite Filter kann ein Durchlassfilter sein, wenn er erzeugt wird.
  • Das Erzeugen des zweiten Filters kann als Reaktion darauf erfolgen, dass sich die Sprache um mindestens einen Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet. Die Anweisungen können Anweisungen beinhalten, um als Reaktion darauf, dass sich die Sprache um weniger als den Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet, den Vorgang unter Verwendung der durch den ersten Filter gefilterten Sprache durchzuführen.
  • Das vorgespeicherte Profil kann eine Vielzahl von Schallpegeln bei einer jeweiligen Vielzahl von Frequenzen beinhalten und die Sprache kann sich um mindestens den Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheiden, wenn sich mindestens einer der Schallpegel in dem vorgespeicherten Profil um mindestens einen Schallpegelschwellenwert ungleich null von einem Schallpegel der Sprache bei der gleichen Frequenz unterscheidet.
  • Die Anweisungen zum Anwenden des ersten Filters können Anweisungen zum Auswählen des ersten Filters gemäß der Position des Kopfes aus einer Vielzahl von in Speicher gespeicherten Filtern beinhalten.
  • Die Anweisungen können Anweisungen beinhalten, um das vorgespeicherte Profil auf Grundlage einer Aufzeichnung von Sprache durch den Insassen zu erzeugen. Die Anweisungen können Anweisungen beinhalten, um dem Insassen eine Aufforderung bereitzustellen, vorgespeicherten Text zu sagen, und die Aufzeichnung der Sprache vorzunehmen, während der Insasse den vorgespeicherten Text sagt.
  • Die Anweisungen zum Anwenden des zweiten Filters auf die Sprache können Anweisungen beinhalten, den zweiten Filter auf die durch den ersten Filter gefilterte Sprache anzuwenden.
  • Der zweite Filter kann Schallpegel der Sprache um einen Betrag anpassen, der in Abhängigkeit von der Frequenz variiert.
  • Der erste Filter kann Schallpegel der Sprache um einen Betrag anpassen, der in Abhängigkeit von der Frequenz variiert.
  • Der Vorgang kann Identifizieren eines Sprachbefehls zum Aktivieren eines Merkmals sein.
  • Der Vorgang kann Übertragen der durch den ersten Filter und den zweiten Filter gefilterten Sprache in einem Telefonanruf sein.
  • Der Vorgang kann Ausgeben der durch den ersten Filter und den zweiten Filter gefilterten Sprache durch einen Lautsprecher des Fahrzeugs sein.
  • Ein Verfahren beinhaltet Identifizieren eines Insassen in einem Fahrgastraum eines Fahrzeugs, Erfassen einer Position eines Kopfes des Insassen relativ zu dem Fahrgastraum, Anwenden eines ersten Filters auf Sprache von dem Insassen auf Grundlage der Position des Kopfes, Erzeugen eines zweiten Filters, Anwenden des zweiten Filters auf die Sprache, Anpassen des zweiten Filters auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und einem vorgespeicherten Profil des Insassen und Durchführen eines Vorgangs unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache.
  • Das Verfahren kann ferner wiederholtes Erfassen der Sprache durch den Insassen während einer einzelnen Fahrt des Fahrzeugs, dann Anwenden des zweiten Filters auf die Sprache und dann Anpassen des zweiten Filters auf Grundlage der Differenz zwischen der durch den zweiten Filter gefilterten Sprache und dem vorgespeicherten Profil beinhalten.
  • Der zweite Filter kann ein Durchlassfilter sein, wenn er erzeugt wird.
  • Das Erzeugen des zweiten Filters kann als Reaktion darauf erfolgen, dass sich die Sprache um mindestens einen Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet.
  • Das Anwenden des ersten Filters kann Auswählen des ersten Filters gemäß der Position des Kopfes aus einer Vielzahl von in Speicher gespeicherten Filtern beinhalten.
  • Unter Bezugnahme auf die Figuren beinhaltet ein Computer 102 einen Prozessor und einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind, um einen Insassen in einem Fahrgastraum 106 eines Fahrzeugs 100 zu identifizieren, eine Position eines Kopfes des Insassen relativ zu dem Fahrgastraum 106 zu erfassen, einen ersten Filter auf Sprache von dem Insassen auf Grundlage der Position des Kopfes anzuwenden, einen zweiten Filter zu erzeugen, den zweiten Filter auf die Sprache anzuwenden, den zweiten Filter auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und einem vorgespeicherten Profil 104 des Insassen anzupassen und einen Vorgang unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache durchzuführen.
  • DETAILLIERTE BESCHREIBUNG
  • Ein Computer beinhaltet einen Prozessor und einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind, um einen Insassen in einem Fahrgastraum eines Fahrzeugs zu identifizieren, eine Position eines Kopfes des Insassen relativ zu dem Fahrgastraum zu erfassen, einen ersten Filter auf Sprache von dem Insassen auf Grundlage der Position des Kopfes anzuwenden, einen zweiten Filter zu erzeugen, den zweiten Filter auf die Sprache anzuwenden, den zweiten Filter auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und einem vorgespeicherten Profil des Insassen anzupassen und einen Vorgang unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache durchzuführen.
  • Der Computer 102 kann verwendet werden, um die Klarheit der Sprache von einem Insassen zu verbessern, der von einem Zustand betroffen ist, der seine Stimme verändert, z. B. der Insasse ist krank, trägt eine Maske usw. Die Auswahl des ersten Filters kann einige Effekte auf die Stimme des Insassen aufgrund der Position des Insassen kompensieren, da diese Effekte über die Insassen hinweg konstant sind. Der zweite Filter kann angepasst werden, um den konkreten Zustand des Insassen zu kompensieren. Die gefilterten Schalldaten können somit zuverlässig für verschiedene fahrzeuginterne Vorgänge verwendet werden, wie etwa Bereitstellen eines Sprachbefehls zum Aktivieren eines Merkmals des Fahrzeugs 100 oder Bereitstellen von Sprache, die in einem Telefonanruf übertragen werden soll, oder Bereitstellen von Sprache an einen Lautsprecher 108 an anderer Stelle in dem Fahrzeug 100, d. h. an ein fahrzeuginternes Gegensprechsystem. Der Sprachbefehl kann zuverlässig erkannt werden, der Telefonanruf kann von der Person am anderen Ende von dem Insassen zuverlässig verstanden werden und die Gegensprech-Nachricht kann von dem anderen Insassen des Fahrzeugs 100 zuverlässig verstanden werden. Ferner kann das vorgespeicherte Profil 104 an mehreren Fahrzeugen verwendet werden, ohne dass das vorgespeicherte Profil 104 für jedes Fahrzeug neu erstellt werden muss.
  • Unter Bezugnahme auf 1 kann es sich bei dem Fahrzeug 100 um eine beliebige geeignete Art von Kraftfahrzeug handeln, z. B. einen Personen- oder Nutzkraftwagen, wie etwa eine Limousine, ein Coupe, einen Lastwagen, einen Geländewagen, ein Crossover-Fahrzeug, einen Van, einen Minivan, ein Taxi, einen Bus usw. Das Fahrzeug 100 kann zum Beispiel autonom sein. Anders ausgedrückt kann das Fahrzeug 100 derartig autonom betrieben werden, dass das Fahrzeug 100 ohne ständige Aufmerksamkeit eines Fahrers gefahren werden kann, d. h. das Fahrzeug 100 kann ohne menschliche Eingabe selbst fahren.
  • Das Fahrzeug 100 beinhaltet den Fahrgastraum 106 zum Aufnehmen von Insassen des Fahrzeugs 100. Der Fahrgastraum 106 beinhaltet Sitze 110, einschließlich eines oder mehrerer Vordersitze 110, die in einem vorderen Teils des Fahrgastraums 106 angeordnet sind, und eines oder mehrerer Rücksitze 110, die hinter den Vordersitzen 110 angeordnet sind. Der Fahrgastraum 106 kann zudem eine dritte Sitzreihe 110 (nicht gezeigt) in einem hinteren Teil des Fahrgastraums 106 beinhalten.
  • Das Fahrzeug 100 beinhaltet mindestens eine Kamera 112. Die Kamera 112 kann elektromagnetische Strahlung in einem gewissen Bereich von Wellenlängen erfassen. Zum Beispiel kann die Kamera 112 sichtbares Licht, Infrarotstrahlung, ultraviolettes Licht oder einen gewissen Bereich von Wellenlängen erfassen, der sichtbares, infrarotes und/oder ultraviolettes Licht beinhaltet. Zum Beispiel kann die Kamera 112 eine Wärmebildkamera sein.
  • Die Kamera 112 ist so positioniert, dass ein Sichtfeld der Kamera 112 mindestens einen der Sitze 110, z. B. den Fahrersitz 110 oder den Vorder- und Rücksitz 110, einschließt. Zum Beispiel kann die Kamera 112 an einem Armaturenbrett 114 oder einem Rückspiegel positioniert und in Bezug auf den Fahrgastraum 106 nach hinten ausgerichtet sein.
  • Das Fahrzeug 100 beinhaltet mindestens ein Mikrofon 116, z.B. ein erstes Mikrofon 116a und ein zweites Mikrofon 116b. Die Mikrofone 116 sind Wandler, die Schall in ein elektrisches Signal umwandeln. Die Mikrofone 116 können eine beliebige geeignete Art von Mikrofonen 116 zum Erfassen von Sprache durch Insassen des Fahrzeugs 100 sein, z. B. dynamisch, Kondensator, Kontakt usw.
  • Die Mikrofone 116 können an jeweiligen Stellen oder Positionen in dem Fahrgastraum 106 angeordnet sein, um gemeinsam Sprache von Insassen auf unterschiedlichen Sitzen 110 zu erfassen. Zum Beispiel kann das erste Mikrofon 116a in dem Armaturenbrett 114 positioniert sein und kann das zweite Mikrofon 116b zwischen den Vordersitzen 110 positioniert und ausgerichtet sein, um Schall von den Rücksitzen 110 aufzunehmen.
  • Eine Benutzerschnittstelle 118 stellt einem Insassen des Fahrzeugs 100 Informationen dar und empfängt Informationen von ihm. Die Benutzerschnittstelle 118 kann sich z. B. an dem Armaturenbrett 114 in dem Fahrgastraum 106 oder an einer beliebigen Stelle befinden, an der sie ohne Weiteres durch den Insassen gesehen werden kann. Die Benutzerschnittstelle 118 kann Zifferblätter, Digitalanzeigen, Bildschirme, die Lautsprecher 108 usw. zum Bereitstellen von Informationen für den Insassen beinhalten, z. B. Elemente einer Mensch-Maschine-Schnittstelle (human-machine interface - HMI), wie sie bekannt sind. Die Benutzerschnittstelle 118 kann Schaltflächen, Knöpfe, Tastenfelder, die Mikrofone 116 usw. zum Empfangen von Informationen von dem Insassen beinhalten.
  • Die Lautsprecher 108 sind elektroakustische Wandler, die ein elektrisches Signal in Schall umwandeln können. Die Lautsprecher 108 können eine beliebige geeignete Art zum Erzeugen von für die Insassen hörbarem Schall sein, z. B. dynamisch. Die Lautsprecher 108 können an jeweiligen Stellen oder Positionen in dem Fahrgastraum 106 angeordnet sein, um gemeinsam Schall für Insassen auf jeweiligen Sitzen 110 zu erzeugen.
  • Unter Bezugnahme auf 2 handelt es sich bei dem Computer 102 um eine mikroprozessorbasierte Rechenvorrichtung, z. B. eine generische Rechenvorrichtung, die einen Prozessor und einen Speicher beinhaltet, eine elektronische Steuerung oder dergleichen, ein feldprogrammierbares Gate-Array (FPGA), eine anwendungsspezifische integrierte Schaltung (application-specific integrated circuit - ASIC) usw. Der Computer 102 kann somit einen Prozessor, einen Speicher usw. beinhalten. Der Speicher des Computers 102 kann Medien zum Speichern von Anweisungen, die durch den Prozessor ausführbar sind, sowie zum elektronischen Speichern von Daten und/oder Datenbanken beinhalten und/oder der Computer 102 kann Strukturen, wie etwa die Vorangehenden, beinhalten, durch die eine Programmierung bereitgestellt wird. Der Computer 102 kann aus mehreren miteinander gekoppelten Computern bestehen.
  • Der Computer 102 kann Daten über ein Kommunikationsnetzwerk 120 übertragen und empfangen, wie etwa einen Controller-Area-Network-(CAN-)Bus, Ethernet, WiFi®, ein Local Interconnect Network (LIN), einen On-Board-Diagnoseanschluss (OBD-II) und/oder über ein beliebiges anderes drahtgebundenes oder drahtloses Kommunikationsnetzwerk. Der Computer 102 kann über das Kommunikationsnetzwerk 120 kommunikativ an die Kamera 112, die Mikrofone 116, die Benutzerschnittstelle 118, die Lautsprecher 108 und andere Komponenten gekoppelt sein.
  • Unter Bezugnahme auf 3 speichert der Computer 102 ein vorgespeichertes Profil 104 für jeden Insassen, der den nachstehend in Bezug auf einen Prozess 400 beschriebenen Registrierungsprozess durchgeführt hat. Das vorgespeicherte Profil 104 kann eine Vielzahl von Schallpegeln mit einer entsprechenden Vielzahl von Frequenzen beinhalten, die in 3 als eine Kurve (in durchgezogener Linie gezeigt) dargestellt sind, wobei die Frequenz als horizontale Achse und der Schallpegel als vertikale Achse aufgetragen sind. Die Frequenz wird in Einheiten von Zyklen pro Zeiteinheit, z. B. Hz, gemessen und der Schallpegel wird in Einheiten von Dezibel (dB) oder A-gewichteten Dezibel (dBA) gemessen. Das vorgespeicherte Profil 104 stellt die typischen Schallpegel für jeweilige Frequenzen dar, wenn der Insasse spricht, d. h. die Schallpegel für jeweilige Frequenzen, wenn die Stimme des Insassen nicht durch beliebige Zustände beeinflusst wird. Die jeweiligen Frequenzen können in Oktavbänder organisiert werden, d. h. in Frequenzbändern, in denen die höchste Frequenz für jedes Band das Doppelte der niedrigsten Frequenz für dieses Frequenzband ist.
  • Unterschiedliche Zustände können dazu führen, dass die Stimme des Insassen von dem vorgespeicherten Profil 104 abweicht. Beispiele für Zustände beinhalten, wenn der Insasse krank ist, z. B. mit einer Erkältung; wenn der Insasse eine Maske trägt; usw. Zum Beispiel ist in 3 eine abweichende Kurve 122 in gepunkteten Linien aufgetragen, die die Schallpegel der Stimme des Insassen für jeweilige Frequenzen darstellt, wenn der Insasse eine Maske trägt. Masken haben häufig eine geringe Auswirkung auf die Lautstärke, wenn die Frequenz 500 Hz oder weniger beträgt und dämpfen Geräusche bei 1000 Hz und höher erheblich, in einem Ausmaß, das von der Art der Maske abhängt.
  • 4 ist ein Prozessablaufdiagramm, das einen beispielhaften Prozess 400 zum Erzeugen des vorgespeicherten Profils 104 für den Insassen veranschaulicht; dieser wird als Registrierung des Insassen bezeichnet. Der Speicher des Computers 102 speichert ausführbare Anweisungen zum Durchführen der Schritte des Prozesses 400 und/oder eine Programmierung kann in Strukturen, wie etwa vorangehend erwähnt, umgesetzt sein. Als allgemeine Übersicht über den Prozess 400 verwendet der Computer 102 Daten, um den Insassen zu identifizieren, und wenn der Insasse das vorgespeicherte Profil 104 erzeugen möchte, fordert der Computer 102 den Insassen auf, vorgespeicherten Text zu sagen, nimmt eine Aufzeichnung der Sprache vor, während der Insasse den vorgespeicherten Text sagt und erzeugt das vorgespeicherte Profil 104 auf Grundlage der Aufzeichnung.
  • Der Prozess 400 beginnt in einem Block 405, in dem der Computer 102 Daten des Insassen des Fahrzeugs 100 empfängt, z. B. Bilddaten von der Kamera 112, die den Insassen zeigen, oder identifizierende Daten von der Benutzerschnittstelle 118.
  • Als Nächstes identifiziert der Computer 102 in einem Block 410 den Insassen. Zum Beispiel kann der Insasse einen Funkschlüssel verwenden, um das Fahrzeug 100 zu starten, und der Funkschlüssel weist ein RFID-Tag oder dergleichen auf, das den Insassen unter anderen potenziellen Insassen, die das Fahrzeug 100 regelmäßig verwenden, eindeutig spezifiziert. Das RFID-Signal kann dem Insassen in Speicher zugeordnet sein. Als ein anderes Beispiel kann ein Mobiltelefon oder eine mobile Vorrichtung des Insassen z. B. mit der Benutzerschnittstelle 118 des Fahrzeugs 100 gepaart sein. Das Mobiltelefon oder die mobile Vorrichtung kann dem Insassen in Speicher zugeordnet sein. Als ein anderes Beispiel kann der Computer 102 die Daten von der Kamera 112 verwenden, die ein Sichtfeld aufweist, das ein Gesicht des Insassen beinhaltet, und kann den Insassen unter Verwendung von bekannten Bilderkennungstechniken identifizieren. Als ein anderes Beispiel kann der Insasse identifizierende Informationen, wie etwa einen Benutzernamen und ein Passwort, in die Benutzerschnittstelle eingeben.
  • Als Nächstes bestimmt der Computer 102 in einem Entscheidungsblock 415, ob der Insasse einen Befehl von der Benutzerschnittstelle 118 ausgewählt hat, um das vorgespeicherte Profil 104 zu erzeugen, d. h. eine Registrierung zu starten. Falls nicht, endet der Prozess 400. Falls ja, geht der Prozess 400 zu einem Block 420 über.
  • In dem Block 420 stellt der Computer 102 dem Insassen über die Benutzerschnittstelle 118 eine Aufforderung bereit, vorgespeicherten Text zu sagen. Zum Beispiel kann die Benutzerschnittstelle 118 den vorgespeicherten Text zusammen mit Anweisungen, den vorgespeicherten Texte laut zu sagen, anzeigen. Der vorgespeicherte Text kann ein oder mehrere Sätze oder Phrasen sein, die so ausgewählt sind, dass sie gemeinsam einen vollen Frequenzbereich beinhalten, wodurch die Erstellung des vorgespeicherten Profils 104 ermöglicht wird, wie in 3 gezeigt.
  • Als nächstes nimmt der Computer 102 in einem Block 425 die Aufzeichnung der Sprache vor, während der Insasse den vorgespeicherten Text spricht, z. B. speichert er die von den Mikrofonen 116 zurückgegebenen Daten für eine Dauer, die ausreichend lang ist, damit der Insasse den vorgespeicherten Text sprechen, d. h. laut sagen, kann.
  • Als Nächstes erzeugt der Computer 102 in einem Block 425 das vorgespeicherte Profil 104 auf Grundlage der Aufzeichnung von Sprache durch den Insassen, der den vorgespeicherten Text sagt. Zum Beispiel kann der Computer 102 die Schallpegel, auch Schalldrücke genannt, der Frequenzen aus der Aufzeichnung als Kurve auftragen, d. h. als mathematische Funktion P = F(f), d. h. Schalldruck P als Funktion einer Frequenz f. Als ein anderes Beispiel kann der Computer 102 die Schallpegel der Frequenzen als Vektor P = <p1, p2, ... pn> speichern, wobei jeder Eintrag pi der Schallpegel bei einer konkreten Frequenz ist, z. B. der Schallpegel p1 bei 125 Hz, der Schallpegel p2 bei 250 Hz usw. bis zum Schallpegel p7 bei 8000 Hz. Nach dem Block 425 endet der Prozess 400.
  • 5 ist ein Prozessablaufdiagramm, das einen beispielhaften Prozess 500 zum Filtern von Sprach des Insassen veranschaulicht. Der Speicher des Computers 102 speichert ausführbare Anweisungen zum Durchführen der Schritte des Prozesses 500 und/oder eine Programmierung kann in Strukturen, wie etwa vorangehend erwähnt, umgesetzt sein. Als allgemeine Übersicht über den Prozess 500 verwendet der Computer 102 Daten, um den Insassen zu identifizieren, erfasst die Position des Kopfes des Insassen relativ zum Fahrgastraum 106 und wendet den ersten Filter auf die Sprache des Insassen auf Grundlage der Position des Kopfes an. Wenn sich die Sprache nicht um mindestens einen Schwellenwert ungleich null von dem vorgespeicherten Profil 104 unterscheidet, führt der Computer 102 einen Vorgang unter Verwendung der durch den ersten Filter aber nicht durch den zweiten Filter gefilterten Sprache durch. Wenn sich die Sprache um mindestens den Schwellenwert ungleich null von dem vorgespeicherten Profil 104 unterscheidet, erzeugt der Computer 102 den zweiten Filter. Solange das Fahrzeug 100 eingeschaltet bleibt wendet der Computer 102 dann wiederholt den zweiten Filter an, passt den zweiten Filter auf Grundlage einer Differenz zu dem vorgespeicherten Profil 104 an und führt den Vorgang unter Verwendung der durch den ersten und den zweiten Filter gefilterten Sprache durch.
  • Der Prozess 500 beginnt in einem Block 505, in dem der Computer 102 Daten des Insassen des Fahrzeugs 100 empfängt, z. B. Bilddaten von der Kamera 112, die den Insassen zeigen, oder identifizierende Daten von der Benutzerschnittstelle 118.
  • Als Nächstes identifiziert der Computer 102 in einem Block 510 den Insassen, wie in Bezug auf Block 410 des Prozesses 400 vorangehend beschrieben.
  • Als Nächstes erfasst der Computer 102 in einem Block 515 eine Position sowie möglicherweise eine Ausrichtung des Kopfes des Insassen relativ zu dem Fahrgastraum 106. Erstens kann der Computer 102 den Kopf in den Bilddaten von der Kamera 112 erfassen, z. B. unter Verwendung einer beliebigen geeigneten Gesichtserkennungstechnik, z. B. wissensbasierter Techniken, wie etwa eines regelbasierten Mehrfachauflösungsverfahrens; merkmalsinvarianter Techniken, wie etwa Gruppieren von Kanten, einer Grauwertübergangsmatrix oder einer Gaußschen Mischung; Vorlagenabgleichstechniken, wie etwa einer Formvorlage oder eines aktiven Formmodells; oder erscheinungsbildbasierter Techniken, wie etwa Eigengesichtszerlegung und -clustering, einer Gaußschen Verteilung und eines mehrschichtigen Perzeptrons, eines neuronalen Netzes, einer Unterstützungsvektormaschine mit Polynomkern, eines naiven Bayes-Klassifikators mit gemeinsamen Statistiken des lokalen Erscheinungsbilds und der Position, Statistiken höherer Ordnung mit verstecktem Markov-Modell oder relativer Kullback-Informationen. Die Ausgabe der Gesichtserkennungstechnik kann die Ausrichtung des Kopfes des Insassen beinhalten. Zweitens kann der Computer 102, wenn der Kopf erfasst wurde, die Position bestimmen, z. B. unter Verwendung von Pixelabmessungen in einem Einzelbild der Bilddaten für eine Richtung von der Kamera 112 und einer Größe in z. B. Pixelbreite für einen Abstand von der Kamera 112.
  • Als nächstes wählt der Computer 102 in einem Block 520 den ersten Filter gemäß der Position und möglicherweise auch der Ausrichtung des Kopfes aus einer Vielzahl von gespeicherten Filtern aus, die in dem Speicher gespeichert sind, und der Computer 102 wendet den ausgewählten ersten Filter auf Sprache von dem Insassen an, wie durch die Mikrofone 116 erfasst. Die gespeicherten Filter werden durch experimentelles Testen auf Schallverzerrungen bestimmt, wenn sich der Kopf des Insassen in unterschiedlichen Positionen und möglicherweise Ausrichtungen um den Fahrgastraum 106 befindet und/oder die gespeicherten Filter können unter Verwendung von computergestützten Konstruktionsmodellen von Schall mit einem Kopf eines Insassen in verschiedenen Positionen und möglicherweise Ausrichtungen in einem Modell des Fahrgastraums 106 bestimmt werden. Die gespeicherten Filter passen Schallpegel der Sprache um einen Betrag an, der in Abhängigkeit von der Frequenz variiert. Jeder gespeicherte Filter gibt an, wie viel ein Schalldruck, d. h. die Lautstärke, von Schalldaten gemäß einer Frequenz angepasst werden soll, z. B. stellt jeder gespeicherte Filter Schalldruck als mathematische Funktion der Frequenz SP1 = F(J) bereit, wobei SP1 der Schalldruck ist, F die Funktion des gespeicherten Filters ist und f die Frequenz ist. Die Funktion F kann kontinuierlich oder stückweise kontinuierlich sein und die Funktion F kann durch Anpassung an Versuchsdaten erzeugt werden. Alternativ kann jeder gespeicherte Filter als Vektor SP1 = <sp1, sp2, ... spn> dargestellt werden, wobei jeder Eintrag spi der Schallpegel bei einer bestimmten Frequenz ist, z. B. der Schallpegel sp1 bei 125 Hz, der Schallpegel sp2 bei 250 Hz usw. bis zu dem Schallpegel sp7 bei 8000 Hz. Zum Beispiel können die gespeicherten Filter einen gespeicherten Filter beinhalten, der dem entspricht, wenn sich der Insasse auf dem Fahrersitz 110 befindet, wobei sich der Fahrersitz 110 in einer Position befindet, die vergleichsweise nahe an dem Armaturenbrett 114 ist und der Kopf des Insassen vergleichsweise niedrig ist, einen gespeicherten Filter, der dem entspricht, wenn sich der Insasse auf dem Fahrersitz 110 befindet, wobei sich der Fahrersitz 110 in einer Position befindet, die vergleichsweise weit von dem Armaturenbrett 114 entfernt ist und der Kopf des Insassen verhältnismäßig hoch ist, und einen gespeicherten Filter, der dem entspricht, wenn sich der Insasse auf dem vorderen Beifahrersitz 110 befindet. Die gespeicherten Filter können auch eine größere Anzahl von gespeicherten Filtern beinhalten, die feinkörnigeren Positionen des Kopfes des Insassen entsprechen. Zum Beispiel können die gespeicherten Filter unterschiedliche Filter für unterschiedliche Winkel des Kopfes des Insassen relativ zu den Mikrofonen 116 beinhalten. Das Auswählen aus der Vielzahl von gespeicherten Filtern kann einen ersten Filter bereitstellen, der die Sprache am genauesten anpasst, um bekannte Verzerrungen aus dem Fahrgastraum 106 zu kompensieren.
  • Als nächstes bestimmt der Computer 102 in einem Entscheidungsblock 525, ob sich die Sprache von dem Insassen um mindestens den Schwellenwert ungleich null von dem vorgespeicherten Profil 104 unterscheidet. Der Computer 102 bestimmt die Schallpegel für eine Vielzahl von Frequenzen der Sprache, die durch die Mikrofone 116 erfasst wird, insbesondere der Sprache, nachdem sie durch den ersten Filter in dem Block 520 gefiltert wurde. Die Sprache kann sich um mindestens den Schwellenwert ungleich null von dem vorgespeicherten Profil 104 unterscheiden, wenn sich mindestens einer der Schallpegel in dem vorgespeicherten Profil 104 um mindestens einen Schallpegelschwellenwert ungleich null von einem Schallpegel der Sprache bei der gleichen Frequenz unterscheidet. Der Schallpegelschwellenwert ungleich null wird in den gleichen Einheiten wie die Schallpegel des vorgespeicherten Profils 104 gemessen und der Schallpegelschwellenwert ungleich null kann durch Experimente ausgewählt werden, um Unterschiede, die durch einen Zustand verursacht werden, von Unterschieden zu unterscheiden, die durch zufällige Schwankungen des Schallpegels verursacht werden. Als Reaktion darauf, dass sich die Sprache um mindestens den Schwellenwert ungleich null von dem vorgespeicherten Profil 104 unterscheidet, geht der Prozess 500 zu einem Block 535 über. Als Reaktion darauf, dass sich die Sprache um weniger als den Schwellenwert ungleich null von dem vorgespeicherten Profil 104 unterscheidet, geht der Prozess 500 zu einem Block 530 über.
  • In dem Block 530 führt der Computer 102 einen Vorgang unter Verwendung der durch den ersten Filter aber nicht durch den zweiten Filter gefilterten Schalldaten durch. Zum Beispiel kann der Vorgang Identifizieren eines Sprachbefehls zum Aktivieren eines Merkmals sein, z. B. Umwandeln der Schalldaten in Text, wie etwa „Pizza-Laden anrufen“, „Podcast abspielen“, „Temperatur verringern“ usw. (oder in äquivalente Daten, die den Befehl identifizieren, wie etwa einen Code für den Befehl). Das Verwenden der durch den ersten Filter gefilterten Schalldaten kann dem Computer 102 dabei helfen, den Sprachbefehl genau zu identifizieren. Als ein anderes Beispiel kann der Vorgang Übertragen der Schalldaten in einem Telefonanruf sein. Ein Mobiltelefon kann mit der Benutzerschnittstelle 118 gepaart sein und verwendet werden, um einen Telefonanruf zu tätigen. Das Verwenden der durch den ersten Filter gefilterten Schalldaten kann das Verständnis durch den Empfänger des Anrufs von dem, was der Insasse sagt, verbessern. Als ein anderes Beispiel kann der Vorgang Ausgeben der gefilterten Schalldaten durch einen oder mehrere der Lautsprecher 108 sein. Schalldaten, die von dem ersten Mikrofon 116a stammen, können durch den Lautsprecher 108 in einem hinteren Teil des Fahrgastraums 106 verwendet und ausgegeben werden; anders ausgedrückt bilden das erste Mikrofon 116a und der Lautsprecher 108 eine fahrzeuginterne Gegensprechanlage. Das Verwenden der durch den ersten Filter gefilterten Schalldaten kann es für einen Insassen auf dem Rücksitz 110 einfacher machen, zu verstehen, was der Insasse auf dem Vordersitz 110 sagt, als den Insassen, der mit dem Zustand spricht, direkt zu hören. Nach dem Block 530 endet der Prozess 500.
  • In dem Block 535 erzeugt der Computer 102 den zweiten Filter. Der zweite Filter passt Schallpegel der Sprache um einen Betrag an, der in Abhängigkeit von der Frequenz variiert. Der zweite Filter SP2 kann mathematisch in der gleichen Form wie der erste Filter dargestellt sein, wie vorangehend in Bezug auf den Block 520 beschrieben. Der zweite Filter kann, wenn er erzeugt wird, ein Durchlassfilter sein; d. h. der Schallpegel bei jeder Frequenz ist vor und nach dem Filtern durch den zweiten Filter gleich. Wenn der zweite Filter unten in einem Block 545 angepasst wird, wird der zweite Filter kein Durchlassfilter mehr. Alternativ kann der zweite Filter, wenn er erzeugt wird, auf Daten von einer vorherigen Durchführung des Prozesses 500 für den identifizierten Insassen basieren.
  • Als Nächstes wendet der Computer 102 in einem Block 540 den zweiten Filter auf Sprache von dem Insassen an, wie durch die Mikrofone 116 erfasst, z. B. auf die Sprache, nachdem sie in dem Block 520 durch den ersten Filter gefiltert wurde.
  • Als Nächstes passt der Computer 102 in dem Block 545 den zweiten Filter auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und dem vorgespeicherten Profil 104 des Insassen an. Wenn der Computer 102 die Blöcke 540 und 545 wiederholt durchführt, erstellt der Computer 102 eine Rückkopplungsschleife 600, die nachstehend in Bezug auf 6 ausführlicher beschrieben wird. Die Anpassung des zweiten Filters in diesem Block 545 kann somit die Anpassung sein, die nachstehend in Bezug auf den Block 630 in der Rückkopplungsschleife 600 beschrieben wird.
  • Als nächstes führt der Computer 102 in einem Block 550 einen Vorgang unter Verwendung der sowohl durch den ersten Filter als auch den zweiten Filter gefilterten Schalldaten durch. Zum Beispiel kann der Vorgang Identifizieren eines Sprachbefehls zum Aktivieren eines Merkmals sein, z. B. Umwandeln der Schalldaten in Text, wie etwa „Pizza-Laden anrufen“, „Podcast abspielen“, „Temperatur verringern“ usw. (oder in äquivalente Daten, die den Befehl identifizieren). Das Verwenden der durch den ersten Filter und den zweiten Filter gefilterten Schalldaten kann dem Computer 102 dabei helfen, den Sprachbefehl genau zu identifizieren. Als ein anderes Beispiel kann der Vorgang Übertragen der Schalldaten in einem Telefonanruf sein. Ein Mobiltelefon kann mit der Benutzerschnittstelle 118 gepaart sein und verwendet werden, um einen Telefonanruf zu tätigen. Das Verwenden der durch den ersten Filter und den zweiten Filter gefilterten Schalldaten kann es für einen Empfänger eines Anrufs einfacher machen, zu verstehen, was der Insasse sagt. Als ein anderes Beispiel kann der Vorgang Ausgeben der gefilterten Schalldaten durch einen oder mehrere der Lautsprecher 108 sein. Schalldaten, die von dem ersten Mikrofon 116a stammen, können durch den Lautsprecher 108 in einem hinteren Teil des Fahrgastraums 106 verwendet und ausgegeben werden; anders ausgedrückt bilden das erste Mikrofon 116a und der Lautsprecher 108 ein Telefon. Das Verwenden der durch den ersten Filter und den zweiten Filter gefilterten Schalldaten kann es für einen Insassen auf dem Rücksitz 110 einfacher machen, zu verstehen, was der Insasse auf dem Vordersitz 110 sagt, als den Insassen, der mit dem Zustand spricht, direkt zu hören.
  • Als nächstes bestimmt der Computer 102 in einem Entscheidungsblock 555, ob das Fahrzeug 100 noch eingeschaltet ist. Wenn das Fahrzeug 100 noch eingeschaltet ist, kehrt der Prozess 500 zu dem Block 540 zurück, sodass die Blöcke 540, 545 und 550 während einer einzelnen Fahrt des Fahrzeugs 100 wiederholt durchgeführt werden, wodurch die nachstehend in Bezug auf 6 beschriebene Rückkopplungsschleife 600 erstellt wird. Wenn das Fahrzeug 100 ausgeschaltet wurde, endet der Prozess 500.
  • 6 ist ein Informationsablaufdiagramm, das die Rückkopplungsschleife 600 zum Anpassen des zweiten Filters veranschaulicht. Der Speicher des Computers 102 speichert ausführbare Anweisungen zum Ausführen der Rückkopplungsschleife 600 und/oder eine Programmierung kann in Strukturen, wie etwa vorangehend erwähnt, umgesetzt sein. Als allgemeine Übersicht über die Rückkopplungsschleife 600 wendet der Computer 102 den zweiten Filter auf die durch den ersten Filter gefilterte Sprache an, die verwendet wird, um den Vorgang durchzuführen und ein Spektrum zu erzeugen, d. h. Schallpegel bei unterschiedlichen Frequenzen der durch den ersten Filter und den zweiten Filter gefilterten Sprache. Der Computer 102 bestimmt einen „Fehler“, d. h. eine Differenz zwischen dem vorgespeicherten Profil 104 und dem Spektrum. Der Computer 102 verwendet den Fehler, um den zweiten Filter anzupassen, bevor er den zweiten Filter erneut anwendet, um die Rückkopplungsschleife 600 abzuschließen.
  • In einem Block 610 wendet der Computer 102 den zweiten Filter auf die durch den ersten Filter gefilterte Sprache an, wie vorangehend in Bezug auf den Block 540 beschrieben. Die durch den ersten Filter gefilterte Sprache wird durch einen Informationsblock 605 dargestellt, der in den Block 610 läuft. Der zweite Filter kann ein Durchlassfilter für die erste Iteration der Rückkopplungsschleife 600 sein und der zweite Filter wird danach von einem Block 630 empfangen. Die durch den ersten Filter und den zweiten Filter gefilterte Sprache läuft zu einem Block 615, in dem der Computer 102 den Vorgang wie vorangehend in Bezug auf den Block 550 beschrieben durchführt, und zu einem Block 620.
  • In dem Block 620 erzeugt der Computer 102 das Spektrum unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache. Das Spektrum stellt dar, wie der Schallpegel der durch den ersten Filter und den zweiten Filter gefilterten Sprache mit der Frequenz variiert. Das Spektrum kann mathematisch in der gleichen Form wie der zweite Filter dargestellt werden. Das Spektrum kann als Schallpegel als mathematische Funktion der Frequenz S = F(J) dargestellt werden, wobei S der Schallpegel ist, F die mathematische Funktion ist und ƒ die Frequenz ist. Alternativ kann das Spektrum als Vektor S = <s1, s2, ... sn> dargestellt werden, wobei jeder Eintrag si der Schallpegel bei einer bestimmten Frequenz ist, z. B. der Schallpegel s1 bei 125 Hz, der Schallpegel s2 bei 250 Hz usw. bis zu dem Schallpegel s7 bei 8000 Hz.
  • Der Fehler ist die Differenz zwischen dem vorgespeicherten Profil 104, das als Informationsblock 625 gezeigt ist, und dem Spektrum, das von dem Block 620 läuft, d. h. E = P - S, wobei P das vorgespeicherte Profil 104 ist und S das Spektrum ist. Wenn das vorgespeicherte Profil 104 und das Spektrum als mathematische Funktionen P = F1(ƒ) und S = F2(ƒ) dargestellt werden, ist der Fehler eine Funktion E = F1(ƒ) - F2(ƒ). Wenn das vorgespeicherte Profil 104 und das Spektrum als Vektoren P = <p1, p2, ... pn> und S = <s1, s2, ... sn> dargestellt werden, ist der Fehler ein Vektor E = <p1, p2, ... pn> - <s1, s2, ... sn> = <p1 - s1, p2 - s2, ... pn - sn>. Der Fehler E läuft in den Block 630.
  • In dem Block 630 passt der Computer 102 das zweite Profil auf Grundlage des Fehlers, d. h auf Grundlage der Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und dem vorgespeicherten Profil 104 des Insassen, an. Für jede Frequenz wird die vorherige Kompensation in dem zweiten Filter durch den Fehler bei dieser Frequenz geändert; wenn z. B. der zweite Filter den Schallpegel um 8 dBA bei 2000 Hz erhöht und der Fehler 2 dBA beträgt, wird der zweite Filter angepasst, um stattdessen den Schallpegel bei 2000 Hz um 10 dBA zu erhöhen. Der angepasste zweite Filter läuft von Block 630 zu Block 610, um die Rückkopplungsschleife 600 abzuschließen.
  • Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielfalt von Programmiersprachen und/oder -techniken erstellt wurden, darunter unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen z. B. von einem Speicher, einem computerlesbaren Medium usw. und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, die einen oder mehrere der in dieser Schrift beschriebenen Prozesse beinhalten. Derartige Anweisungen und andere Daten können unter Verwendung einer Reihe von computerlesbaren Medien gespeichert und übermittelt werden. Eine Datei in einer vernetzten Vorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw. gespeichert sind. Ein computerlesbares Medium umfasst ein beliebiges Medium, das an der Bereitstellung von Daten (z. B. Anweisungen) beteiligt ist, die von einem Computer gelesen werden können. Ein derartiges Medium kann viele Formen annehmen, die nichtflüchtige Medien, flüchtige Medien usw. umfassen können, ohne darauf beschränkt zu sein. Nichtflüchtige Medien umfassen zum Beispiel optische oder magnetische Festplatten und andere Dauerspeicher. Flüchtige Medien umfassen einen dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der in der Regel einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien umfassen zum Beispiel: eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Computer gelesen werden kann.
  • Die Offenbarung wurde auf veranschaulichende Weise beschrieben und es versteht sich, dass die verwendete Terminologie ihrem Wesen nach beschreibend und nicht einschränkend sein soll. Die Adjektive „erstes“ und „zweites“ werden in der gesamten Schrift als Identifikatoren verwendet und sollen keine Bedeutung, Reihenfolge oder Anzahl angeben. Die Verwendung von „als Reaktion auf“ und „wenn bestimmt wird“ gibt eine kausale Beziehung an, nicht nur eine rein temporale Beziehung. In Anbetracht der vorangehenden Lehren sind viele Modifikationen und Variationen der vorliegenden Offenbarung möglich und kann die Offenbarung anders als konkret beschrieben umgesetzt werden.
  • Gemäß der vorliegenden Erfindung ist ein Computer bereitgestellt, der einen Prozessor und einen Speicher aufweist, der Anweisungen speichert, die durch den Prozessor zu Folgendem ausführbar sind: Identifizieren eines Insassen in einem Fahrgastraum eines Fahrzeugs; Erfassen einer Position eines Kopfes des Insassen relativ zu dem Fahrgastraum; Anwenden eines ersten Filters auf Sprache von dem Insassen auf Grundlage der Position des Kopfes; Erzeugen eines zweiten Filters; Anwenden des zweiten Filters auf die Sprache; Anpassen des zweiten Filters auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und einem vorgespeicherten Profil des Insassen; und Durchführen eines Vorgangs unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen, um wiederholt während einer einzelnen Fahrt des Fahrzeugs die Sprache durch den Insassen zu erfassen, dann den zweiten Filter auf die Sprache anzuwenden und dann den zweiten Filter auf Grundlage der Differenz zwischen der durch den zweiten Filter gefilterten Sprache und dem vorgespeicherten Profil anzupassen.
  • Gemäß einer Ausführungsform ist der zweite Filter ein Durchlassfilter, wenn er erzeugt wird.
  • Gemäß einer Ausführungsform erfolgt das Erzeugen des zweiten Filters als Reaktion darauf, dass sich die Sprache um mindestens einen Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen, um als Reaktion darauf, dass sich die Sprache um weniger als den Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet, den Vorgang unter Verwendung der durch den ersten Filter gefilterten Sprache durchzuführen.
  • Gemäß einer Ausführungsform beinhaltet das vorgespeicherte Profil eine Vielzahl von Schallpegeln bei einer jeweiligen Vielzahl von Frequenzen und unterscheidet sich die Sprache um mindestens den Schwellenwert ungleich null von dem vorgespeicherten Profil, wenn sich mindestens einer der Schallpegel in dem vorgespeicherten Profil um mindestens einen Schallpegelschwellenwert ungleich null von einem Schallpegel der Sprache bei der gleichen Frequenz unterscheidet.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen zum Anwenden des ersten Filters Anweisungen zum Auswählen des ersten Filters gemäß der Position des Kopfes aus einer Vielzahl von in Speicher gespeicherten Filtern.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen, um das vorgespeicherte Profil auf Grundlage einer Aufzeichnung von Sprache durch den Insassen zu erzeugen.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen, um dem Insassen eine Aufforderung bereitzustellen, vorgespeicherten Text zu sagen und die Aufzeichnung der Sprache vorzunehmen, während der Insasse den vorgespeicherten Text sagt.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen zum Anwenden des zweiten Filters auf die Sprache Anweisungen, den zweiten Filter auf die durch den ersten Filter gefilterte Sprache anzuwenden.
  • Gemäß einer Ausführungsform passt der zweite Filter Schallpegel der Sprache um einen Betrag an, der in Abhängigkeit von der Frequenz variiert.
  • Gemäß einer Ausführungsform passt der erste Filter Schallpegel der Sprache um einen Betrag an, der in Abhängigkeit von der Frequenz variiert.
  • Gemäß einer Ausführungsform ist der Vorgang Identifizieren eines Sprachbefehls zum Aktivieren eines Merkmals.
  • Gemäß einer Ausführungsform ist der Vorgang Übertragen der durch den ersten Filter und den zweiten Filter gefilterten Sprache in einem Telefonanruf.
  • Gemäß einer Ausführungsform ist der Vorgang Ausgeben der durch den ersten Filter und den zweiten Filter gefilterten Sprache durch einen Lautsprecher des Fahrzeugs.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren: Identifizieren eines Insassen in einem Fahrgastraum eines Fahrzeugs; Erfassen einer Position eines Kopfes des Insassen relativ zu dem Fahrgastraum; Anwenden eines ersten Filters auf Sprache von dem Insassen auf Grundlage der Position des Kopfes; Erzeugen eines zweiten Filters; Anwenden des zweiten Filters auf die Sprache; Anpassen des zweiten Filters auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und einem vorgespeicherten Profil des Insassen; und Durchführen eines Vorgangs unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache.
  • In einem Aspekt beinhaltet das Verfahren wiederholtes Erfassen der Sprache durch den Insassen während einer einzelnen Fahrt des Fahrzeugs, dann Anwenden des zweiten Filters auf die Sprache und dann Anpassen des zweiten Filters auf Grundlage der Differenz zwischen der durch den zweiten Filter gefilterten Sprache und dem vorgespeicherten Profil.
  • In einem Aspekt der Erfindung ist der zweite Filter ein Durchlassfilter, wenn er erzeugt wird.
  • In einem Aspekt der Erfindung erfolgt das Erzeugen des zweiten Filters als Reaktion darauf, dass sich die Sprache um mindestens einen Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet.
  • In einem Aspekt der Erfindung beinhaltet das Anwenden des ersten Filters Auswählen des ersten Filters gemäß der Position des Kopfes aus einer Vielzahl von in Speicher gespeicherten Filtern.

Claims (15)

  1. Verfahren, umfassend: Identifizieren eines Insassen in einem Fahrgastraum eines Fahrzeugs; Erfassen einer Position eines Kopfes des Insassen relativ zu dem Fahrgastraum; Anwenden eines ersten Filters auf Sprache von dem Insassen auf Grundlage der Position des Kopfes; Erzeugen eines zweiten Filters; Anwenden des zweiten Filters auf die Sprache; Anpassen des zweiten Filters auf Grundlage einer Differenz zwischen der durch den zweiten Filter gefilterten Sprache des Insassen und einem vorgespeicherten Profil des Insassen; und Durchführen eines Vorgangs unter Verwendung der durch den ersten Filter und den zweiten Filter gefilterten Sprache.
  2. Verfahren nach Anspruch 1, ferner umfassend wiederholtes Erfassen der Sprache durch den Insassen während einer einzelnen Fahrt des Fahrzeugs, dann Anwenden des zweiten Filters auf die Sprache und dann Anpassen des zweiten Filters auf Grundlage der Differenz zwischen der durch den zweiten Filter gefilterten Sprache und dem vorgespeicherten Profil.
  3. Verfahren nach Anspruch 1, wobei der zweite Filter ein Durchlassfilter ist, wenn er erzeugt wird.
  4. Verfahren nach Anspruch 1, wobei das Erzeugen des zweiten Filters als Reaktion darauf erfolgt, dass sich die Sprache um mindestens einen Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet.
  5. Verfahren nach Anspruch 4, ferner umfassend, als Reaktion darauf, dass sich die Sprache um weniger als den Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet, Durchführen des Vorgangs unter Verwendung der durch den ersten Filter gefilterten Sprache.
  6. Verfahren nach Anspruch 4, wobei das vorgespeicherte Profil eine Vielzahl von Schallpegeln bei einer jeweiligen Vielzahl von Frequenzen beinhaltet und sich die Sprache um mindestens den Schwellenwert ungleich null von dem vorgespeicherten Profil unterscheidet, wenn sich mindestens einer der Schallpegel in dem vorgespeicherten Profil um mindestens einen Schallpegelschwellenwert ungleich null von einem Schallpegel der Sprache bei der gleichen Frequenz unterscheidet.
  7. Verfahren nach Anspruch 1, wobei das Anwenden des ersten Filters Auswählen des ersten Filters gemäß der Position des Kopfes aus einer Vielzahl von in Speicher gespeicherten Filtern beinhaltet.
  8. Verfahren nach Anspruch 1, ferner umfassend Bereitstellen einer Aufforderung an den Insassen, vorgespeicherten Text zu sagen, Erstellen einer Aufzeichnung von Sprache, während der Insasse den vorgespeicherten Text sagt und Erzeugen des vorgespeicherten Profils auf Grundlage der Aufzeichnung der Sprache durch den Insassen.
  9. Verfahren nach Anspruch 1, wobei das Anwenden des zweiten Filters auf die Sprache Anwenden des zweiten Filters auf die durch den ersten Filter gefilterte Sprache beinhaltet.
  10. Verfahren nach Anspruch 1, wobei der zweite Filter Schallpegel der Sprache um einen Betrag anpasst, der in Abhängigkeit von der Frequenz variiert.
  11. Verfahren nach Anspruch 1, wobei der erste Filter Schallpegel der Sprache um einen Betrag anpasst, der in Abhängigkeit von der Frequenz variiert.
  12. Verfahren nach Anspruch 1, wobei der Vorgang Identifizieren eines Sprachbefehls zum Aktivieren eines Merkmals ist.
  13. Verfahren nach Anspruch 1, wobei der Vorgang Übertragen der durch den ersten Filter und den zweiten Filter gefilterten Sprache in einem Telefonanruf ist.
  14. Verfahren nach Anspruch 1, wobei der Vorgang Ausgeben der durch den ersten Filter und den zweiten Filter gefilterten Sprache durch einen Lautsprecher des Fahrzeugs ist.
  15. Computer, umfassend einen Prozessor und einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind, um das Verfahren nach einem der Ansprüche 1-14 durchzuführen.
DE102022100428.7A 2021-01-11 2022-01-10 Sprachfilterung in einem fahrzeug Pending DE102022100428A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/145,437 2021-01-11
US17/145,437 US11355136B1 (en) 2021-01-11 2021-01-11 Speech filtering in a vehicle

Publications (1)

Publication Number Publication Date
DE102022100428A1 true DE102022100428A1 (de) 2022-07-14

Family

ID=81852371

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022100428.7A Pending DE102022100428A1 (de) 2021-01-11 2022-01-10 Sprachfilterung in einem fahrzeug

Country Status (3)

Country Link
US (1) US11355136B1 (de)
CN (1) CN114765030A (de)
DE (1) DE102022100428A1 (de)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090055180A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method for optimizing speech recognition in a vehicle
US20090287489A1 (en) * 2008-05-15 2009-11-19 Palm, Inc. Speech processing for plurality of users
US8438030B2 (en) * 2009-11-25 2013-05-07 General Motors Llc Automated distortion classification
US9934780B2 (en) * 2012-01-17 2018-04-03 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance spoken dialogue by modifying dialogue's prompt pitch
US9431013B2 (en) * 2013-11-07 2016-08-30 Continental Automotive Systems, Inc. Co-talker nulling for automatic speech recognition systems
US9516414B2 (en) 2014-07-09 2016-12-06 Blackberry Limited Communication device and method for adapting to audio accessories
US20160012827A1 (en) * 2014-07-10 2016-01-14 Cambridge Silicon Radio Limited Smart speakerphone
US9800983B2 (en) * 2014-07-24 2017-10-24 Magna Electronics Inc. Vehicle in cabin sound processing system
US20160039356A1 (en) * 2014-08-08 2016-02-11 General Motors Llc Establishing microphone zones in a vehicle
KR102276538B1 (ko) 2014-09-15 2021-07-13 현대모비스 주식회사 차량용 핸즈프리 장치의 제어 방법 및 제어 장치
WO2016092807A1 (ja) * 2014-12-11 2016-06-16 日本電気株式会社 話者識別装置および話者識別用の登録音声の特徴量登録方法
US9704509B2 (en) * 2015-07-29 2017-07-11 Harman International Industries, Inc. Active noise cancellation apparatus and method for improving voice recognition performance
EP3171613A1 (de) * 2015-11-20 2017-05-24 Harman Becker Automotive Systems GmbH Tonverstärkung
US10448150B2 (en) * 2016-06-03 2019-10-15 Faraday & Future Inc. Method and apparatus to detect and isolate audio in a vehicle using multiple microphones
DE102017213241A1 (de) * 2017-08-01 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zur Steuerung eines Audiosystems eines Fahrzeugs
US10811030B2 (en) * 2017-09-12 2020-10-20 Board Of Trustees Of Michigan State University System and apparatus for real-time speech enhancement in noisy environments
US10580430B2 (en) * 2017-10-19 2020-03-03 Bose Corporation Noise reduction using machine learning
US10956546B2 (en) * 2018-06-05 2021-03-23 Cirrus Logic, Inc. Methods, apparatus and computer-readable mediums related to biometric authentication
US10991379B2 (en) * 2018-06-22 2021-04-27 Babblelabs Llc Data driven audio enhancement
US11048472B2 (en) * 2019-01-27 2021-06-29 Listen AS Dynamically adjustable sound parameters
US10854202B2 (en) 2019-04-08 2020-12-01 Alpine Electronics of Silicon Valley, Inc. Dynamic microphone system for autonomous vehicles

Also Published As

Publication number Publication date
CN114765030A (zh) 2022-07-19
US11355136B1 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
DE102019134141A1 (de) Sicherheitsgurtzustandsbestimmungssystem und verfahren
DE102006038151B4 (de) Verfahren und Vorrichtung zur Ansteuerung von Personenschutzmitteln
DE102011011722A1 (de) Sounderzeugungsvorrichtung, Verfahren und Computerprogrammprodukt für ein Fahrzeug
DE102010014076A1 (de) Verfahren zur Adaption eines Fahrverhaltens eines Fahrzeuges bei Fahrerwechsel
EP2102794A1 (de) Portabler datenträger zur biometrischen benutzererkennung
DE102013208506A1 (de) Hierarchische Erkennung von Fahrzeugfahrer und Auswahlaktivierung von Fahrzeugeinstellungen auf der Grundlage der Erkennung
DE102010062292A1 (de) Reifendruckeinstellung anhand der Fahrzeuglast
DE102018211835A1 (de) Verfahren zum Bestimmen einer Einstellposition einer in einer Position verstellbaren Komponente
DE102022106036A1 (de) Kontextabhängige signalaufbereitung für den sprachassistenten im fahrzeug
DE102021211773A1 (de) Fahrzeug und Verfahren zum Steuern desselben
DE102016118917A1 (de) Fahrzeug-Audioübertragungsregelung
DE102022100428A1 (de) Sprachfilterung in einem fahrzeug
DE102020215653A1 (de) Fahrzeugsichtsystem
WO2019081206A1 (de) Vorrichtung und verfahren zur adaptiven fahrzeugregelung
DE102018101126A1 (de) System und Verfahren zum Reduzieren von pulsierendem Windgeräusch
DE102022100538A1 (de) Sprachfilterung für masken
DE102018208785A1 (de) Verfahren und System zum Verringern von Lärm in einem Fahrzeug
DE102019215167A1 (de) Fahrzeug und verfahren zur steuerung desselben
DE102019132403A1 (de) Verfahren zum selbsttätigen Auswählen eines Nutzerprofils in einem Fahrzeug
DE102017210650B4 (de) Verfahren und Steuergerät zum Steuern eines Akustiksystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102008060194B4 (de) Verfahren und Kraftfahrzeug für ein Fahrzeugflotten-Qualifikationsmanagement
DE102021130908A1 (de) Audio-Verarbeitungsverfahren und -system für ein Sitzkopfstützen-Audiosystem
DE102020215652A1 (de) Fahrzeug-bildverarbeitungssystem
DE102008003081B4 (de) Verfahren und Vorrichtung zur Crashklassifikation für ein Fahrzeugsicherheitssystem
DE102019004867A1 (de) Verfahren zur Personalisierung einer Ausgabe von Warntönen an einen Nutzer eines Fahrzeugs, Vorrichtung zur Personalisierung einer Ausgabe von Warntönen an einen Nutzer eines Fahrzeugs sowie Fahrzeug

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE