DE102020113756A1 - Systeme und verfahren zur akustischen steuerung eines fahrzeuginnenraums - Google Patents

Systeme und verfahren zur akustischen steuerung eines fahrzeuginnenraums Download PDF

Info

Publication number
DE102020113756A1
DE102020113756A1 DE102020113756.7A DE102020113756A DE102020113756A1 DE 102020113756 A1 DE102020113756 A1 DE 102020113756A1 DE 102020113756 A DE102020113756 A DE 102020113756A DE 102020113756 A1 DE102020113756 A1 DE 102020113756A1
Authority
DE
Germany
Prior art keywords
sound
vehicle
sounds
determining
passenger compartment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020113756.7A
Other languages
English (en)
Inventor
David Michael Herman
Nunzio DeCia
Nicholas Scheufler
Stephen Jay Orris
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020113756A1 publication Critical patent/DE102020113756A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17827Desired external signals, e.g. pass-through audio such as music or speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/1752Masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17823Reference signals, e.g. ambient acoustic environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/124Traffic
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/128Vehicles
    • G10K2210/1282Automobiles
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3028Filtering, e.g. Kalman filters or special analogue or digital filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

Diese Offenbarung stellt Systeme und Verfahren zur akustischen Steuerung eines Fahrzeuginnenraums bereit. Es sind Systeme, Verfahren und computerlesbare Medien zur akustischen Steuerung eines Fahrzeuginnenraums offenbart. Beispielhafte Verfahren können das Erfassen von Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs und Bestimmen mindestens eines ersten Klangs aus den Umgebungsklängen, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; das Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; und das Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert, beinhalten.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft Systeme und Verfahren zur akustischen Steuerung und insbesondere Verfahren und Systeme zur akustischen Steuerung eines Fahrzeuginnenraums.
  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeuge von heute weisen immer leisere Fahrgasträume auf. Insbesondere können Fahrzeuge klangdämpfende Materialien verwenden, um den Fahrzeuginnenraum gegenüber Außengeräuschen zu isolieren. Darüber hinaus können Fahrzeuge Geräuschreduzierungssysteme beinhalten, um ein leiseres Fahrerlebnis zu bieten. Das Reduzieren von Geräuschen in Fahrgasträumen ist jedoch möglicherweise nicht selektiv in Bezug auf die Art des Geräuschs, das reduziert wird. Beispielsweise können passive oder aktive Geräuschreduzierungstechniken Umgebungsklänge wahllos dämpfen. Dementsprechend können Klänge, die der Fahrer oder die Fahrgäste möglicherweise hören möchte/n, ebenso gedämpft werden wie Klänge, die die Insassen möglicherweise nicht hören möchten. Somit werden Systeme und Verfahren zum Bereitstellen einer akustischen Steuerung eines Fahrzeuginnenraums benötigt.
  • KURZDARSTELLUNG
  • Es sind Systeme, Verfahren und computerlesbare Medien zur akustischen Steuerung eines Fahrzeuginnenraums offenbart. Beispielhafte Verfahren können das Erfassen von Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs und Bestimmen mindestens eines ersten Klangs aus den Umgebungsklängen, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; das Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; und das Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert, beinhalten.
  • Figurenliste
    • 1 zeigt ein beispielhaftes Schaubild eines Umgebungskontextes zum Bereitstellen einer akustischen Steuerung in einem Fahrzeuginnenraum gemäß beispielhaften Ausführungsformen der Offenbarung.
    • 2 zeigt ein beispielhaftes Szenario, in dem gemäß beispielhaften Ausführungsformen der Offenbarung eine akustische Steuerung eines Fahrzeuginnenraums einem Fahrer ein erhöhtes Situationsbewusstsein bereitstellen kann.
    • 3 zeigt ein Schaubild zum Bereitstellen von Kartierungsfähigkeiten an Fahrgäste zum Verbessern des Situationsbewusstseins eines Fahrers für das in 2 beschriebene beispielhafte Szenario gemäß beispielhaften Ausführungsformen der Offenbarung.
    • 4 zeigt ein beispielhaftes Szenario, in dem die offenbarten Systeme und Verfahren gemäß beispielhaften Ausführungsformen der Offenbarung akustische Trilateration durchführen können, um eine externe Klangquelle zu lokalisieren.
    • 5 zeigt einen beispielhaften Prozessablauf, der gemäß beispielhaften Ausführungsformen der Offenbarung ein Verfahren zum Bereitstellen einer akustischen Steuerung in einem Fahrzeuginnenraum beschreibt.
    • 6 ist eine schematische Veranschaulichung einer beispielhaften Serverarchitektur für einen oder mehrere Server, die zum Bereitstellen einer akustischen Steuerung in einem Fahrzeuginnenraum verwendet werden können, gemäß einer oder mehreren Ausführungsformen der Offenbarung.
  • DETAILLIERTE BESCHREIBUNG
  • Überblick
  • Fahrzeuge werden von der Außenumgebung zunehmend akustisch isoliert, mutmaßlich, um das Erlebnis eines Benutzers in dem Fahrgastraum zu verbessern. In einigen Fällen hat die akustische Isolation und Dämpfung den Klangpegel verringert, der mit Motorklängen assoziiert ist, was von den Insassen des Fahrzeugs unerwünscht sein kann. Dementsprechend können die Lautsprecher in einem Fahrgastraum eines Fahrzeugs dazu verwendet werden, bestimmte Klänge nachzubilden, beispielsweise künstliche Motorklänge. Dieses Nachbilden von Klängen kann durchgeführt werden, um den Insassen das akustische Feedback zu geben, an das sie gewöhnt sind oder das sie wahrnehmen möchten. Insbesondere kann ein Nachbilden von Motorklängen für Elektrofahrzeuge umgesetzt sein, die aufgrund (1) der Tatsache, dass Elektromotoren verwendet werden und (2) der erhöhten Klangisolation in Innenräumen solcher Fahrzeuge im Vergleich zu Fahrzeugen, die auf fossilen Brennstoffen beruhen, im Allgemeinen leiser sein können.
  • Fahrer in solchen akustisch isolierten Umgebungen (zum Beispiel Fahrgastzellen von Elektrofahrzeugen) haben möglicherweise ein geringeres Situationsbewusstsein. Beispielsweise können die Fahrer möglicherweise nicht in der Lage sein, Folgetonhörner und Hupklänge anderer Fahrer, die in der Regel dazu dienen, Fahrer auf wechselnde Straßenumgebungen aufmerksam zu machen, angemessen zu hören. Darüber hinaus können herkömmliche Systeme gleichzeitig Klänge herausfiltern, die den Insassen möglicherweise gefallen (zum Beispiel Vogelgezwitscher, Meeresrauschen und dergleichen). Es kann erforderlich sein, dass ein Insasse ein Fenster öffnet, um solche Klänge zu hören, was leider die Kühlung und/oder Heizmechanismen des Fahrzeugs einschränkt. Darüber hinaus kann das Öffnen der Fahrzeugfenster zu störenden Geräuschen führen, die durch hohe Windgeschwindigkeiten durch die Fahrgastzelle erzeugt werden oder durch Windstöße erzeugt werden.
  • Fahrzeuge von heute sind möglicherweise mit einer Fülle von Sensoren ausgestattet. Derartige Sensoren umfassen unter anderem Mikrofone, Kameras, interne Fahrzeugsensoren (zum Beispiel Motorsensoren, Traktionskontrollsensoren, Beschleunigungssensoren, Regensensoren und/oder dergleichen) und auf Telematik basierte Sensoren (zum Beispiel 5G-Konnektivitätssensoren, Fahrzeug-zu-Umgebung-Sensoren (Car2x-Sensoren) und/oder dergleichen). Auch Fahrzeuge werden zunehmend miteinander und mit Infrastrukturkomponenten verbunden (zum Beispiel mithilfe von Car2x-Protokollen). Dementsprechend kann ein Fahrzeug solche Sensoren verwenden, um Umgebungsklänge wie Folgetonhörner oder Hupklänge direkt oder indirekt zu erfassen. In einigen Beispielen können die offenbarten Systeme basierend auf den erfassten Umgebungsklängen nachgebildete Klänge erzeugen und diese den Insassen eines Fahrzeugs präsentieren. Ferner können die offenbarten Systeme Klänge (1) einer bestimmten Art (z. B. Straßengeräusche, Motorgeräusche, Folgetonhorngeräusche usw.) und (2) mit bestimmten Eigenschaften (z. B. Lautstärke, Tonhöhe usw.) basierend auf den erfassten Klänge erzeugen. In einigen Fällen können die offenbarten Systeme Klänge basierend auf einer Berücksichtigung der Auswirkungen der Doppler-Verschiebung erzeugen. Die Erzeugung derartiger nachgebildeter Klänge kann auf Benutzerpräferenzen und/oder Sicherheitsaspekten basieren. In einigen Beispielen kann die Erzeugung und Präsentation nachgebildeter Klänge unter Verwendung eines beliebigen geeigneten Algorithmus zur digitalen Signalverarbeitung (Digital Signal Processing - DSP) und/oder von Techniken basierend auf künstlicher Intelligenz (KI) wie tiefe neuronale Netze durchgeführt werden.
  • In einigen Beispielen können die offenbarten Systeme Umgebungsklänge aus einem einzelnen oder von mehreren Audiokanälen erfassen und extrahieren. Beispielsweise kann die Erfassung der Klänge unter Verwendung eines Mikrofon-Arrays mit einer vorbestimmten Anzahl und räumlichen Anordnung durchgeführt werden. Darüber hinaus können die Umgebungsklänge stationär und im Raum lokalisiert sein (zum Beispiel mit einer klar charakterisierten Richtung und einem klar charakterisierten Standort) oder Raumklänge beinhalten, die weniger räumlich lokalisiert sind. In anderen Fällen können die Umgebungsklänge mit sich bewegenden Objekten assoziiert sein, die eine Geschwindigkeit oder Beschleunigung in Bezug auf das Fahrzeug aufweisen. Dementsprechend können die offenbarten Systeme auch verschiedene andere Eigenschaften bestimmen (wie beispielsweise einen relativen oder absoluten Geschwindigkeitsvektor einer Klangquelle und/oder des Fahrzeugs), die mit den Umgebungsklängen assoziiert sind. In einigen Fällen können die offenbarten Systeme eine Doppler-Verschiebung derartiger Klänge wie Folgetonhörner bestimmen.
  • Abhängig von den Benutzerpräferenzen oder den von dem Erstausrüster (original equipment manufacturer - OEM) bestimmten Einstellungen können die offenbarten Systeme diese Umgebungsklänge und ihre Attribute verwenden, um die Insassen auf die Außenwelt aufmerksam zu machen, um das Situationsbewusstsein des Insassen zu verbessern. Beispielsweise können die Umgebungsklänge in dem Fahrgastraum eines Fahrzeugs so wiedergegeben werden, dass ein virtuell projizierter Klang über Fahrgastraumlautsprecher des Fahrzeugs so nachgebildet wird, dass der wahrgenommene Standort des Klangs dem tatsächlichen Standort des Klangs in der realen Welt ähnlich ist. Darüber hinaus können die offenbarten Systeme (1) das akustische Signal modifizieren, um Doppler-Verschiebungseffekte einzuschließen, und können diese (2) die Intensität des akustischen Signals basierend auf Benutzerpräferenzen modifizieren, wie sie über eine Anwendung, die auf einer Fahrzeugvorrichtung oder einer Benutzervorrichtung (z. B. Mobiltelefon) läuft, eingegeben werden.
  • Die offenbarten Systeme können auch visuelle Warnungen basierend auf den erfassten Umgebungsklängen präsentieren, wobei die visuellen Warnungen den Fahrzeuginsassen zusätzlich zu den Umgebungsklängen oder als Ersatz für diese präsentiert werden. Die offenbarten Systeme können solche visuellen Warnungen auf Heads-up-Anzeigen, Anzeigen in der Mittelkonsole und/oder dergleichen eines Fahrzeugs erzeugen und präsentieren. Die offenbarten Systeme können auch die visuellen Warnungen zusammen mit On-Board-Karteninformationen präsentieren, die den aktuellen Standort des Fahrzeugs zeigen. Zum Beispiel können die offenbarten Systeme die visuellen Warnungen auf einer virtuellen Karte präsentieren, um den Standort des Klangs zusammen mit anderen Fahrinformationen (zum Beispiel einer Fahrtrichtung, Geschwindigkeit des Fahrzeugs und/oder dergleichen) anzuzeigen.
  • Veranschaulichende Beispiele
  • Hierin sind Ausführungsformen der vorliegenden Offenbarung beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht unbedingt maßstabsgetreu; einige Merkmale können vergrößert oder verkleinert dargestellt sein, um Einzelheiten bestimmter Komponenten zu zeigen. Demnach sind die in der vorliegenden Schrift offenbarten konkreten strukturellen und funktionellen Einzelheiten nicht als einschränkend auszulegen, sondern lediglich als repräsentative Grundlage, um den Fachmann den vielfältigen Gebrauch der vorliegenden Erfindung zu lehren. Für einen Durchschnittsfachmann versteht es sich, dass verschiedene Merkmale, die in Bezug auf beliebige der Figuren veranschaulicht und beschrieben sind, mit Merkmalen kombiniert werden können, die in einer oder mehreren anderen Figuren veranschaulicht sind, um Ausführungsformen zu erzeugen, die nicht explizit veranschaulicht oder beschrieben sind. Die Kombinationen veranschaulichter Merkmale stellen repräsentative Ausführungsformen für typische Anwendungen bereit. Verschiedene Kombinationen und Modifikationen der Merkmale, die mit den Lehren dieser Offenbarung vereinbar sind, könnten jedoch für bestimmte Anwendungen oder Umsetzungen wünschenswert sein.
  • Die offenbarten Systeme können Klänge außerhalb eines Fahrgastraums des Fahrzeugs erfassen und die jeweiligen Richtungen und Standorte bestimmen, die mit externen Klängen assoziiert sind. Dementsprechend können die offenbarten Systeme die externen Klänge in der Fahrgastzelle nachbilden. In einigen Beispielen können die offenbarten Systeme die Ausrichtung und den Standort der erfassten Klänge nachbilden, beispielsweise unter Verwendung eines Fahrzeug-Audiosystems mit mehreren Kanälen und mehreren Zonen. Die offenbarten Systeme können Systeme und Verfahren zum Erfassen von durch Benutzer erwünschten Umgebungsklängen und zum Herausfiltern von Umgebungsklängen, die von Benutzern unerwünscht sind, umfassen.
  • In einigen Beispielen können die offenbarten Systeme eine physische Schnittstelle und/oder eine Mensch-Maschine-Schnittstelle (MMS) konfigurieren, um verschiedene durch Benutzer ausgewählte Parameter zu berücksichtigen. Beispielsweise können die offenbarten Systeme die Schnittstelle verwenden, um es Benutzern zu ermöglichen, erwünschte und unerwünschte Umgebungsklänge zu bestimmen, die aus der Fahrgastzelle herausgefiltert werden sollen. In einigen Beispielen können die offenbarten Systeme Techniken zum Priorisieren der Dringlichkeit externer Klänge bereitstellen, die zumindest teilweise durch Benutzereingaben vermittelt werden können. Beispielsweise können die offenbarten Systeme eine höhere Priorität bestimmen, die mit Folgetonhörnern von Einsatzfahrzeugen im Vergleich zu von Benutzern bevorzugten Umgebungsklängen (zum Beispiel Vogelgezwitscher) assoziiert ist. Die offenbarten Systeme können akustische Trilateration über Car2Car-Kommunikationen mit anderen Fahrzeugen, die externes Audio abtasten, in Echtzeit durchführen, wie nachstehend weiter in Verbindung mit 4 gezeigt und beschrieben. Die akustische Trilateration kann durch Kartenabgleich unter Einbeziehung der Straßengeometrie und unter Verwendung einer On-Board-Kartendatenbank verbessert werden.
  • 1 zeigt ein Schaubild eines Umgebungskontextes gemäß beispielhaften Ausführungsformen der Offenbarung. 1 stellt einen Umgebungskontext 100 dar, der ein Fahrzeug 102 beinhaltet. In einigen Beispielen kann das Fahrzeug 102 ein autonomes Fahrzeug (autonomous vehicle - AV) beinhalten.
  • In einigen Beispielen können die offenbarten Systeme ein Fahrzeug 102 mit Sensoren beinhalten. Die Sensoren können unter anderem Mikrofone, Kameras, Fahrzeugsysteme (Motor, Traktionskontrolle, Bremsen, Beschleunigungsmesser, Regensensor und/oder dergleichen) beinhalten. Das Fahrzeug 102 kann eine Audio-DSP-Fähigkeit beinhalten, die virtuelle Klänge in jeder Richtung innerhalb des Fahrgastraums in Kombination mit mehreren Lautsprechern innerhalb des Fahrzeugs projizieren kann. Das Fahrzeug 102 kann über verschiedene drahtlose Verbindungsfähigkeiten verfügen, um beispielsweise indirekte Messungen von verschiedenen Umgebungsobjekten zu ermöglichen. In einigen Beispielen kann eine drahtlose Verbindungsfähigkeit eine Car2x-Kommunikationsfähigkeit beinhalten. Das Fahrzeug 102 kann eine Standortbestimmungsfähigkeit (zum Beispiel eine GPS-Fähigkeit (globales Positionsbestimmungssystem)) und die Fähigkeit, Kartierungsinformationen zu empfangen und zu verarbeiten, aufweisen. Diese Fähigkeiten werden weiter unten erläutert.
  • In einigen Beispielen kann das Fahrzeug 102 eine Audioerfassungsfähigkeit beinhalten. Die offenbarten Systeme können (ein) fahrzeugbasierte(s) Mikrofon(e) beinhalten. In einigen Beispielen kann das/können die fahrzeugbasierte(n) Mikrofon(e) (ein) Außenmikrofon(e) beinhalten. Das Außenmikrofon kann verwendet werden, um akustische Signale von Interesse (z. B. Vogelgezwitscherklänge 106) zu erfassen und Klänge, die dem akustischen Signal von Interesse entsprechen, aus den von dem/den Mikrofon(en) erfassten Signalen zu extrahieren. In anderen Beispielen können die offenbarten Systeme KI-basierte Techniken zur Verbesserung der Erfassung und Extraktion der Klänge durch das/die Außenmikrofon(e) verwenden. Beispielsweise können die offenbarten Systeme ein neuronales Netz verwenden, um Audioereignisse zur Klangextraktion und ein Audiosignal zu erfassen, das von der Umgebung über das Mikrofon erhalten wird. In anderen Beispielen können die offenbarten Systeme mehrere Audio-Samples verwenden, die über Zeit oder Raum und über das/die Mikrofon(e) erhalten wurden, um eine akustische Trilateration durchzuführen, wie nachstehend weiter in Verbindung mit 4 gezeigt und beschrieben.
  • In einigen Beispielen kann das Fahrzeug 102 eine Kamera beinhalten (zum Beispiel eine fahrzeugbasierte Kamera), nicht gezeigt. Die Kamera kann verwendet werden, um blinkende Lichter und andere Signale zu erfassen, die mit Einsatzfahrzeugen assoziiert sind, wie nachstehend weiter in Verbindung mit den 2-3 beschrieben. Die Kamera kann auch verwendet werden, um andere klangemittierende visuelle Indikatoren in der Fahrzeugumgebung zu erfassen. In einigen Beispielen kann das Fahrzeug mit einer intern auf den Fahrer und/oder die Insassen gerichteten Kamera ausgestattet sein, die den Fahrer und/oder die Insassen überwachen kann, um die Sicherheit zu erhöhen und die Benutzererfahrung zu verbessern. In einem solchen System können die Daten, die von der Innenkamera erhalten (und danach unter Verwendung von Computer-Vision-Techniken verarbeitet) wurden, dazu verwendet werden, das Verhalten der Klangextraktion und des Herausfilterns von Klängen zu modifizieren oder zu verbessern. Diese Modifikation oder Verbesserung kann dazu dienen, die Sicherheit zu verbessern, das Bewusstsein des Fahrers zu verbessern und eine Ablenkung des Fahrers zu vermeiden.
  • In anderen Beispielen kann das Fahrzeug 102 eine lichtbasierte Kommunikation mit anderen Fahrzeugen oder Infrastrukturkomponenten durchführen. Beispielsweise können andere Fahrzeuge Scheinwerfer beinhalten, die über einen Zeitraum Lichtmuster blinken lassen können. Das Fahrzeug 102 kann eine optische Vorrichtung wie eine Fotodiode und/oder eine komplementäre Metalloxid-Halbleiter (complementary metal-oxide-semiconductor CMOS)-basierte Rolling-Shutter-Kamera (nicht gezeigt) zum Decodieren der Lichtmuster, die mit Position und Zeit variieren können, verwenden, um anzuzeigen, dass das Fahrzeug 102 eine bestimmte Aktion ausführt, wie zum Beispiel Hupen, oder zusätzliche Informationen an andere Fahrzeuge oder Infrastrukturelemente bereitzustellen. Die offenbarten Systeme können diese Informationen dann verwenden, um nachgebildete Klänge zu erzeugen, die Merkmalen der beobachteten Aktion entsprechen, die den Insassen 104 präsentiert werden können. In einigen Beispielen können verschiedene andere Modifikationen des/der präsentierten Klangs, Doppler-Verschiebung, Ausrichtung und/oder Warninformationen nach Bedarf ausgeführt werden.
  • Die offenbarten Systeme können die Kamera auch verwenden, um verschiedene Straßenbedingungen zu erfassen, beispielsweise kann die Kamera verwendet werden, um zu bestimmen, dass die Straßen nass oder trocken sind. Die Kamera kann verwendet werden, um eine Wetterbedingung zu bestimmen. Zum Beispiel kann die Kamera verwendet werden, um herabgefallenes Laub und/oder Regen auf der Windschutzscheibe des Fahrzeugs 102 zu identifizieren. Die offenbarten Systeme können dann solche Informationen verwenden, um zu bestimmen, dass das Wetter regnerisch ist. Die offenbarten Systeme können diese Informationen dann verwenden, um nachgebildete Klänge zu erzeugen, die Merkmalen der Wetterbedingungen (z. B. Regen) entsprechen, die den Insassen präsentiert werden können. In einigen Beispielen können die wetterbasierten Klänge modifiziert (z. B. gedämpft) sein, um basierend auf benutzerdefinierten Präferenzen an die Empfindlichkeiten der Insassen angepasst zu sein. Zum Beispiel kann ein ABS aktiviert werden, um unterschiedliche Reifenklänge anzuzeigen, wie etwa Quietsch- und Knirschgeräusche, die Reifen entsprechen, die sich über Schnee, Eis, Wasser, Laub und dergleichen bewegen. In anderen Beispielen können die offenbarten Systeme so konfiguriert sein, dass sie sich in einem Rennmodus befinden, und können Klänge erzeugen, um anzuzeigen, dass ein bestimmter Reifen Schlupf aufweist, während andere Reifen eine ausreichende Traktion aufweisen.
  • Das Fahrzeug 102 kann mit einer Car2x-Kommunikationsfähigkeit ausgestattet sein. In einigen Beispielen können andere Fahrzeuge in der Nähe des Fahrzeugs 102 eine direkte Warnung der Klangemission (Folgetonhörner, Hupen) in den Car2x-Übertragungen an das Fahrzeug 102 bereitstellen. Die anderen Fahrzeuge können Klangemission um sich herum erfassen und solche Informationen mit dem Fahrzeug teilen. Nicht einschränkende Beispiele für solche Informationen können Informationen beinhalten, die mit akustischer Trilateration assoziiert sind. Solche Informationen können mehrere Fahrzeuge verwenden, um die Lokalisierung zu bestimmen (zum Beispiel den Klangursprung und/oder Ausrichtungsbestimmung), und um Klangintensität und Doppler-Verschiebungseffekte, die mit den erfassten Klängen assoziiert sind, zu bestimmen. In anderen Beispielen können die Informationen verwendet werden, um die Klangextraktion aus der Umgebung zu verbessern und insbesondere um die Klangextraktion gegenüber Hintergrundgeräuschen wie Straßengeräuschen, Windgeräuschen und dergleichen zu verbessern. In einigen Beispielen können die offenbarten Systeme jede geeignete Sicherheitstechnik (z. B. Verschlüsselungstechnik) verwenden, um Car2x-Kommunikationen und/oder erfasstes und erzeugtes Audio zu sichern. Beispielsweise können derartige sichere Kommunikationen zusammen mit erfasstem und erzeugtem Audio verwendet werden, um das Fahrzeug und die assoziierten Systeme vor Situationen zu schützen, an denen böswillige Akteure beteiligt sind. Beispielsweise können solche Akteure betrügerische Audiodateien oder Car2x-Anweisungen an die Erfassungssysteme des Fahrzeugs übertragen. Dementsprechend können die offenbarten Systeme die betrügerischen Audiodateien oder Car2x-Anweisungen erfassen. Darüber hinaus können die offenbarten Systeme die Quelle des Car2x-Senders auf eine schwarze Liste setzen, indem sie beispielsweise den mit dem Car2x-Sender assoziierten kryptografischen Schlüssel auf eine schwarze Liste setzen.
  • Wie erwähnt, kann das Fahrzeug 102 verschiedene fahrzeugbasierte Sensoren beinhalten. Nicht einschränkende Beispiele für solche Sensoren können einen Scheibenwischer-Regensensor und einen Traktionskontrollsensor beinhalten. Die offenbarten Systeme können den Regensensor verwenden, um Regen über einem bestimmten Schwellenwert zu erfassen und eine Regenwarnung oder Umgebungsklänge in dem Fahrgastraum des Fahrzeugs abzuspielen. Die offenbarten Systeme können auch die Traktionskontrollsensoren verwenden, um einen Traktionsverlust zu bestimmen, wenn das Fahrzeug in eisigem Gelände fährt, die Reifen auf einem Wasserfilm aufschwimmen und/oder dergleichen und um eine audiobasierte Warnung im Fahrgastraum zu erzeugen. In einigen Beispielen können die offenbarten Systeme ein Fahrerassistenzsystem und/oder eine AV-Anwendung verwenden, um Beschreibungen dessen, was das Fahrzeug wahrnimmt, und Erklärungen, warum die offenbarten Systeme bestimmte Aktionen ausführen (z. B. Verlangsamung aufgrund von Regen), zu erzeugen. Die offenbarten Systeme können die Beschreibungen und/oder Erklärungen den Benutzern über eine Anzeige oder über Audio präsentieren und die Beschreibungen und/oder Erklärungen zu Prüfungszwecken speichern.
  • Das Fahrzeug 102 kann mit verschiedenen Navigations- oder Kartierungsdatenbanken in Kommunikation stehen. Die offenbarten Systeme können derartige Datenbanken verwenden, um Informationen zu erhalten, die mit dem Bereich assoziiert sind, in dem das Fahrzeug fährt. Beispielsweise können die offenbarten Systeme die Datenbanken verwenden, um den Grundrauschpegel einer städtischen Umgebung gegenüber einer ländlichen Umgebung zu bestimmen. Die offenbarten Systeme können dann Umgebungs- oder Hinterrundklänge basierend auf dem bestimmten Grundrauschpegel in der Umgebung herausfiltern, in der sich das Fahrzeug fortbewegt. In anderen Beispielen können die offenbarten Systeme die Datenbanken verwenden, um das Vorhandensein von Bahngleisen, Unterführungen, Überführungen, Wildtiergebieten, ozeanischen Umgebungen und/oder dergleichen zu bestimmen. Dementsprechend können die Datenbanken dazu dienen, dem Fahrzeug 102 sowohl beim Navigieren in der Umgebung als auch beim Bestimmen von mit der Umgebung assoziierten Klanginformationen zu helfen. Beispielsweise können die offenbarten Systeme die Kartendaten verwenden, um Klänge zu bestimmen, die mit auf den Gleisen fahrenden Zügen assoziiert sind, und so die Fahrgäste des Fahrzeugs 102 (z. B. über eine in dem Fahrgastraum des Fahrzeugs abgespielte akustische Warnung) über die Möglichkeit einer Überquerung der Fahrbahn durch einen Zug informieren. In anderen Umständen kann ein Zug auf einer Überführungsbrücke fahren. Darüber hinaus kann die Überführungsbrücke basierend auf Karteninformationen identifiziert werden. Die offenbarten Systeme können bestimmen, dass es aufgrund des Höhenunterschieds zwischen der Strecke des Zuges und des Fahrzeugs keine Interaktion zwischen Fahrzeug und Zug geben kann. In einem solchen Fall kann das Fahrzeug bestimmen, dem Fahrer/den Fahrgästen im Fahrzeug keine Audio- oder damit zusammenhängende Informationen zu präsentieren und somit Zugklänge nicht in das dem Fahrer und/oder den Fahrgästen des Fahrzeugs präsentierte Audiomaterial einzubeziehen.
  • Das Fahrzeug 102 kann verschiedene Fähigkeiten hinsichtlich drahtloser Verbindungen und/oder des Internets der Dinge (Internet of Things - IoT) aufweisen, um verschiedene Umweltdaten und/oder -informationen, die zur Personalisierung der internen akustischen Umgebung des Fahrzeugs dienen können, zu bestimmen. Nicht einschränkende Beispiele für derartige Daten und/oder Informationen können Wetterinformationen wie Wind-, Regen- oder Schneeinformationen und/oder dergleichen beinhalten. Beispielsweise kann das Fahrzeug 102 mit verschiedenen IoT-Vorrichtungen kommunizieren, die an verschiedenen Infrastrukturkomponenten der Umgebung angeordnet sind, in der das Fahrzeug fährt, und beliebige relevante Informationen über die akustische Natur der Umgebung erhalten. Diese Informationen können verwendet werden, um Klänge im Fahrzeuginnenraum zu erzeugen, die eine solche akustische Umgebung nachbilden.
  • Die offenbarten Systeme können Prozessoren beinhalten, die dazu in der Lage sind, Vorgänge basierend auf Logik und Algorithmen auszuführen. In einigen Beispielen können die offenbarten Systeme eine Sensoranalyse durchführen. Insbesondere können die offenbarten Systeme eine Sensoranalyse durchführen, um eine Grundrauschen-Baseline basierend auf abgetasteten Echtzeit-Sensordaten zu bestimmen. In einigen Beispielen können die offenbarten Systeme das Vorliegen eines laufenden Gesprächs oder Telefonanrufs im Fahrzeug erfassen. Dementsprechend können die offenbarten Systeme bestimmen, bestimmte Klangarten (z. B. Meeresgeräusche, Vogelgezwitschergeräusche usw.) nicht zu präsentieren, während solche Gespräche oder Telefonate laufen. Die offenbarten Systeme können ferner einen Vergleich mit einer Referenz-Grundrausch-Baseline unter Verwendung von Crowdsource-Geolokalisierungdaten oder Informationen auf einer externen Datenbank durchführen. Diese Crowdsource-Geolokalisierungdaten und/oder Informationen können von einer cloudbasierten Datenbank (zum Beispiel einer öffentlichen Cloud-Datenbank, einer privaten Cloud-Datenbank und/oder einer Hybrid-Cloud-Datenbank) erhalten werden.
  • Das Fahrzeug 102 kann Systeme beinhalten, die eine Sensorfusion von Bildern und Audio durchführen können, die von dem Fahrzeug 102 und/oder beliebigen assoziierten Vorrichtungen erhalten werden, um Klangarten, Ausrichtung, Entfernung und/oder dergleichen zu bestimmen. Beispielsweise können die Systeme eine akustische Trilateration durchführen. In einigen Beispielen kann die akustische Trilateration unter Verwendung von drei oder mehr Mikrofonen durchgeführt werden. Die Mikrofone können in einem Fahrzeug oder in separaten Fahrzeugen vorhanden sein. In anderen Beispielen können die Mikrofone auf verschiedene Fahrzeuge verteilt sein, die erfasste Klänge unter Verwendung von Car2x-Kommunikationen kommunizieren können. Die akustische Trilateration kann die Identifizierung von Klangquellen und die Extraktion akustischer Signale ermöglichen. In anderen Beispielen können die offenbarten Systeme Klangarten kategorisieren, um Benutzer auf aufkommende Umgebungssituationen aufmerksam zu machen. Die offenbarten Systeme können es Benutzern auch ermöglichen, Präferenzeinstellungen über ein MMS-Menü 103 zu modifizieren, die erwünschte und unerwünschte Klänge widerspiegeln. Die offenbarten Systeme können Warnungen bereitstellen, wie beispielsweise Warntöne in bestimmten kritischen Bedingungen, wie etwa potenziellen Kollisionsbedingungen. Die offenbarten Systeme können es einem Benutzer ermöglichen, Präferenzen für die Präsentation von Umgebungsklängen zu steuern, beispielsweise einem bevorzugten Hintergrundgeräuschpegel. Die offenbarten Systeme können es dem Benutzer auch ermöglichen, erwünschte und unerwünschte Klänge zu spezifizieren. Wie erwähnt, kann das Fahrzeug 102 ermöglichen, dass Benutzern eine Vielfalt von Audio und Warnungen präsentiert werden. Beispielsweise kann das Fahrzeug 102 akustische Warnungen, akustische Umgebungsgeräusche, visuelle Warnungen, haptisches Feedback, visuelle Anzeigen des Standortes von Fahrzeugen (zum Beispiel auf einer HU-Anzeige oder einer Mittelkonsolenanzeige eines Fahrzeugs) und/oder dergleichen ermöglichen.
  • Bei dem Fahrzeug 102 kann es sich um ein beliebiges geeignetes Fahrzeug handeln, wie etwa ein Motorrad, ein Auto, ein Lastwagen, ein Wohnmobil usw., und es kann mit geeigneter Hardware und Software ausgestattet sein, die es ihm ermöglicht, über ein Netz, wie etwa ein lokales Netz (local area network - LAN), zu kommunizieren.
  • Wie erwähnt, kann das Fahrzeug 102 eine Vielzahl von Sensoren beinhalten, die das Fahrzeug beim Bestimmen einer Umgebung, in der sich das Fahrzeug befindet, unterstützen können. Die Sensoren können RADAR, LIDAR, Kameras, Magnetometer, Ultraschall, Barometer und dergleichen beinhalten (nachstehend beschrieben). In einer Ausführungsform können die Sensoren und andere Vorrichtungen des Fahrzeugs 102 über eine oder mehrere Netzverbindungen kommunizieren. Beispiele für geeignete Netzverbindungen beinhalten ein Controller Area Network (CAN), einen Media-Oriented System Transfer (MOST), ein Local Interconnect Network (LIN), ein Mobilfunknetz, ein WiFi-Netz und andere zweckmäßige Verbindungen, wie etwa diejenigen, die bekannten Standards und Spezifikationen (z. B. einem oder mehreren Standards des Institute of Electrical and Electronics Engineers (IEEE) und dergleichen) entsprechen.
  • Wie erwähnt, können die Fahrzeuge 102 verschiedene Standortbestimmungsvorrichtung zusätzlich zu satellitenbasierten Standortbestimmungsvorrichtungen beinhalten. Diese Vorrichtungen können verwendet werden, um den Standort des Fahrzeugs zu identifizieren, das Fahrzeug auf einer Karte (z. B. einer HD-Karte) zu verfolgen, andere Fahrzeuge in der Nähe des Fahrzeugs zu verfolgen, anderen Fahrzeugen Aktualisierungen hinsichtlich des Standorts eines bestimmen Fahrzeugs bereitzustellen und allgemein die hierein beschriebenen Vorgänge zu unterstützen. Beispielsweise kann das Fahrzeug 102 magnetische Positionsbestimmungsvorrichtungen wie Magnetometer beinhalten, die eine Möglichkeit zur Standortbestimmung in Innenräumen bieten können. Magnetische Positionsbestimmung kann auf dem Eisen im Inneren von Gebäuden beruhen, die lokale Variationen des Erdmagnetfelds erzeugen. Nicht optimierte Kompasschips im Inneren von Vorrichtungen in dem Fahrzeug 102 können diese magnetischen Variationen wahrnehmen und aufzeichnen, um Standorte in Innenräumen abzubilden. In einer Ausführungsform können die magnetischen Positionsbestimmungsvorrichtungen verwendet werden, um die Höhenlage des Fahrzeugs 102 zu bestimmen. Alternativ oder zusätzlich kann eine Barometervorrichtung dazu verwendet werden, die Höhenlage des Fahrzeugs 102 zu bestimmen. In einer anderen Ausführungsform können Barometer und Druckhöhenmesser ein Teil des Fahrzeugs sein und Druckänderungen messen, die durch eine Änderung der Höhe der Fahrzeuge 102 hervorgerufen werden.
  • In einer Ausführungsform kann das Fahrzeug 102 eine oder mehrere inertiale Messeinheiten (nicht gezeigt) verwenden, um die Position des jeweiligen Fahrzeugs zu bestimmen, um die Fahrzeuge zu verfolgen und/oder den Standort verschiedener Klangquellen in der Fahrzeugumgebung in Bezug auf eine Karte (z. B. eine HD-Karte) zu bestimmen. Die Fahrzeuge 102 können Koppelnavigation und andere Ansätze zur Positionsbestimmung des Fahrzeugs unter Verwendung einer inertialen Messeinheit verwenden, die durch die Fahrzeuge 102 getragen wird, wobei manchmal auf Karten oder andere zusätzliche Sensoren Bezug genommen wird, um die inhärente Sensordrift, die bei Trägheitsnavigation auftritt, zu beschränken. In einer Ausführungsform können ein oder mehrere auf mikroelektromechanischen Systemen (MEMS) beruhende Inertialsensoren in der inertialen Messeinheit des Fahrzeugs verwendet werden; die MEMS-Sensoren können jedoch durch Eigengeräusche beeinflusst werden, was mit der Zeit zu einem kubisch wachsenden Positionsfehler führen kann. Um das Fehlerwachstum bei derartigen Vorrichtungen zu reduzieren, kann in einer Ausführungsform ein auf Kalman-Filterung beruhender Ansatz verwendet werden, indem Softwarealgorithmen in Softwaremodulen umgesetzt werden, die mit den verschiedenen Vorrichtungen in dem Fahrzeug 102 assoziiert sind.
  • In einer Ausführungsform können die inertialen Messungen eine oder mehrere Bewegungsdifferenzen des Fahrzeugs 102 abdecken, und deshalb kann der Standort bestimmt werden, indem Integrationsfunktionen in den Softwaremodulen durchgeführt werden, und dementsprechend können Integrationskonstanten erforderlich sein, um Ergebnisse bereitzustellen. Ferner kann die Positionsschätzung für das Fahrzeug 102 als das Maximum einer zweidimensionalen oder einer dreidimensionalen Wahrscheinlichkeitsverteilung bestimmt werden, die bei einem beliebigen Zeitschritt unter Berücksichtigung des Geräuschmodells aller involvierten Sensoren und Vorrichtungen neu berechnet werden kann.
  • Basierend auf der Bewegung der Fahrzeuge können die inertialen Messvorrichtungen dazu in der Lage sein, die Standorte der Fahrzeuge durch einen oder mehrere Algorithmen mit künstlicher Intelligenz, zum Beispiel einen oder mehrere Algorithmen zum maschinellen Lernen (z. B. Convolutional Neural Networks), zu schätzen. Die offenbarten Systeme können jede der oben genannten Vorrichtungen in Kombination mit den Positionsbestimmungssignalen verwenden, um den Standort des Fahrzeugs, den Standort anderer Fahrzeuge und/oder den Standort verschiedener Klangquellen in der Fahrzeugumgebung zu bestimmen.
  • In einigen Beispielen können die offenbarten Systeme ein Indoor-Positionsbestimmungssystem (indoor positioning system - IPS) in Verbindung mit bestimmten Infrastrukturkomponenten verwenden, um den Standort der Klangquelle und/oder des Fahrzeugs mit erhöhter Genauigkeit zu bestimmen. Ferner kann das IPS verwendet werden, um den Standort des Fahrzeugs auf einer Karte (z. B. einer HD-Karte) zu bestimmen, beispielsweise an Standorten, an denen Satellitennavigationssignale unzureichend sind. Insbesondere kann sich ein IPS auf ein System beziehen, um Objekte (z. B. das Fahrzeug 102) im Inneren eines Gebäudes, wie etwa einer Parkstruktur, unter Verwendung von Leuchten, Funkwellen, Magnetfeldern, akustischen Signalen oder anderen sensorischen Informationen, die durch mobile Vorrichtungen (z. B. Benutzervorrichtungen oder Fahrzeugvorrichtungen) gesammelt werden, zu lokalisieren. IPSs können unterschiedliche Technologien verwenden, einschließlich der Entfernungsmessung zu nahe gelegenen Ankerknoten (Knoten mit bekannten festen Positionen, z. B. WiFi- und/oder LiFi-Zugangspunkten oder Bluetooth-Baken, magnetische Positionsbestimmung und/oder Koppelnavigation). Derartige IPSs können mobile Vorrichtungen und Tags aktiv lokalisieren oder Umgebungsstandort oder Umgebungskontext bereitstellen, damit Vorrichtungen erfasst werden. In einer Ausführungsform kann ein IPS-System mindestens drei unabhängige Messungen bestimmen, um einen Standort eines bestimmten Fahrzeugs 102 oder einer Klangquelle eindeutig zu finden.
  • In einigen Beispielen können die Fahrzeugantennen eine beliebige geeignete Kommunikationsantenne beinhalten. Einige nicht einschränkende Beispiele für geeignete Kommunikationsantennen beinhalten WiFi-Antennen, mit der Standardfamilie 802.11 des Institute of Electrical and Electronics Engineers (IEEE) kompatible Antennen, Richtantennen, ungerichtete Antennen, Dipolantennen, gefaltete Dipolantennen, Patchantennen und Antennen mit mehreren Eingängen und mehreren Ausgängen (multiple-input multiple-output antennas - MIMO-Antennen) oder dergleichen. Die Kommunikationsantenne kann kommunikativ an eine Funkkomponente gekoppelt sein, um Signale zu übertragen und/oder zu empfangen, wie etwa Kommunikationssignale an die und/oder von den Fahrzeuge/n. Beispielsweise können die offenbarten Systeme Signale an andere Fahrzeuge übertragen, um die anderen Fahrzeuge darüber zu informieren, dass sie mindestens eine Aktion (z. B. bremsen, beschleunigen, abbiegen und/oder dergleichen) basierend auf einer Bestimmung des Zustands der Klangquellen durchführen sollen.
  • In einigen Beispielen kann das Fahrzeug 102 über On-Board-Einheiten (nicht gezeigt) verfügen, die Mikrocontroller und Vorrichtungen beinhalten, die in Anwendungen ohne Host-Computer miteinander kommunizieren können. Die On-Board-Einheit kann ein nachrichtenbasiertes Protokoll verwenden, um interne Kommunikationen durchzuführen. Darüber hinaus kann die On-Board-Einheit einen Transceiver veranlassen, Nachrichten (z. B. Car2x-Nachrichten) an Infrastrukturkomponenten und an die On-Board-Einheiten anderer Fahrzeuge zu senden und von diesen zu empfangen.
  • Ferner können verschiedene Vorrichtungen des Fahrzeugs 102 und/oder Infrastrukturkomponenten (z. B. intelligente Lichtsignalanlagen, straßenseitige Einheiten, IPS-Systeme und/oder dergleichen) ein beliebiges geeignetes Funkgerät und/oder einen beliebigen geeigneten Transceiver zum Übertragen und/oder Empfangen von Hochfrequenzsignalen (HF-Signalen) in der Bandbreite und/oder den Kanälen beinhalten, die den Kommunikationsprotokollen entsprechen, die durch eine beliebige der Fahrzeugvorrichtungen verwendet werden, um miteinander und/oder mit Infrastrukturkomponenten zu kommunizieren. Die Funkkomponenten können Hardware und/oder Software zum Modulieren und/oder Demodulieren von Kommunikationssignalen nach im Vorfeld eingerichteten Übertragungsprotokollen umfassen. Die Funkkomponenten können zudem Hardware und/oder Softwareanweisungen für die Kommunikation über ein oder mehrere WiFi- und/oder WiFi-Direktprotokolle aufweisen, wie etwa 802.11-Standards des Institute of Electrical and Electronics Engineers (IEEE). In bestimmten beispielhaften Ausführungsformen kann die Funkkomponente in Zusammenarbeit mit den Kommunikationsantennen konfiguriert sein, um über 2,4-GHz-Kanäle (z.B. 802.11b, 802.11g, 802.1 In), 5-GHz-Kanäle (z.B. 802.1 In, 802.11ac) oder 60-GHz-Kanäle (z.B. 802.11ad) zu kommunizieren. In einigen Ausführungsformen können Nicht-WiFi-Protokolle für die Kommunikation zwischen Vorrichtungen, wie Bluetooth, dedizierte Nachbereichskommunikation (dedicated short-range communication - DSRC), Ultrahochfrequenz (UHF) (z.B. IEEE 802.11af, IEEE 802.22), Weißbandfrequenz (z. B. Leerräume) oder andere paketierte Funkkommunikationen verwendet werden. Die Funkkomponente kann einen beliebigen bekannten Empfänger und ein beliebiges bekanntes Basisband beinhalten, die für eine Kommunikation über die Kommunikationsprotokolle geeignet sind. Die Funkkomponente kann zudem einen rauscharmen Verstärker (low noise amplifier - LNA), zusätzliche Signalverstärker, einen Analog-Digital-Wandler (A/D), einen oder mehrere Puffer und ein digitales Basisband umfassen.
  • Wenn ein beispielhaftes Fahrzeug 102 eine Kommunikation mit einem anderen Fahrzeug (nicht gezeigt) aufbaut und/oder eine Kommunikation mit einer Infrastrukturkomponentenvorrichtung aufbaut, kann das Fahrzeug 102 typischerweise in der Downlink-Richtung kommunizieren, indem es Datenrahmen sendet (z. B. einen Datenrahmen, der verschiedene Felder, wie etwa ein Rahmensteuerfeld, ein Dauerfeld, ein Adressfeld, ein Datenfeld und ein Prüfsummenfeld, umfassen kann). Den Datenrahmen können eine oder mehrere Präambeln vorangehen, die Teil eines oder mehrerer Header sein können. Diese Präambeln können verwendet werden, um es der Benutzervorrichtung zu ermöglichen, einen neu eingehenden Datenrahmen von der Vorrichtung des Fahrzeugs zu erkennen. Eine Präambel kann ein Signal sein, das bei Netzkommunikationen verwendet wird, um die Übertragungszeit zwischen zwei oder mehr Vorrichtungen (z. B. zwischen der Vorrichtung des Fahrzeugs 102 und der Infrastrukturkomponente und/oder zwischen den Vorrichtungen separater Fahrzeuge) zu synchronisieren. Wie erwähnt, können die Datenrahmen zur Übertragung von Informationen zwischen Fahrzeugen verwendet werden, sodass ein bestimmtes Fahrzeug mindestens eine Aktion als Ergebnis der Erkennung eines Ein- oder Aus-Zustandes einer Klangquelle oder des ermittelten Standorts anderer Fahrzeuge (z. B. basierend auf Trilateration) ausführen kann. Nicht einschränkende Beispiele für solche Aktionen sind Bremsen, Abbiegen, Beschleunigen, Einschalten von Warnblinkleuchten und/oder dergleichen.
  • In einem anderen Aspekt kann der Umgebungskontext 100 einen oder mehrere Satelliten 130 und einen oder mehrere Mobilfunkmasten 132 beinhalten. Die Satelliten 130 und/oder die Mobilfunkmasten 132 können verwendet werden, um Standortinformationen zu erhalten und/oder um Informationen aus verschiedenen Datenbanken wie Datenbanken mit HD-Karten zu erhalten. In anderen Aspekten können die offenbarten Systeme Informationen übertragen, die mit Klangquellen und/oder Fahrzeugen assoziiert sind (z. B. die jeweiligen Standorte der Klangquellen, die jeweiligen Zustände der Klangquellen und/oder dergleichen). Wie erwähnt, kann das Fahrzeug 102 Transceiver aufweisen, die wiederum einen oder mehrere Standortempfänger (z. B. Empfänger eines globalen Navigationssatellitensystems (GNSS)) beinhalten können, die Standortsignale (z. B. GNSS-Signale) von einem oder mehreren Satelliten 130 empfangen können. In einer anderen Ausführungsform kann sich ein Empfänger auf eine Vorrichtung beziehen, die Informationen von Satelliten (z. B. den Satelliten 130) empfangen und die geografische Position der Fahrzeuge 102 berechnen kann.
  • In einigen Beispielen können die Fahrzeuge (z. B. das Fahrzeug 102) so konfiguriert sein, dass sie drahtlos oder drahtgebunden über ein Netz kommunizieren. Wie bereits erwähnt, kann die Kommunikation zwischen Fahrzeugen durchgeführt werden, um beispielsweise ein bestimmtes Fahrzeug über eine Aktion zu informieren, die basierend auf dem Zustand einer Klangquelle zu ergreifen ist. Das Netz kann unter anderem ein beliebiges einer Kombination aus unterschiedlichen Arten geeigneter Kommunikationsnetze beinhalten, wie zum Beispiel Rundfunknetze, öffentliche Netze (zum Beispiel das Internet), private Netze, drahtlose Netze, Mobilfunknetze oder beliebige andere geeignete private und/oder öffentliche Netze. Ferner können beliebige der Kommunikationsnetze eine beliebige damit assoziierte geeignete Kommunikationsreichweite aufweisen und zum Beispiel globale Netze (zum Beispiel das Internet), Metropolitan Area Networks (MANs), Weitverkehrsnetze (WANs - wide area networks), lokale Netze (LANs) oder persönliche Netze (PANs - personal area networks) beinhalten. Zusätzlich können beliebige der Kommunikationsnetze eine beliebige Art von Medium beinhalten, über das Netzverkehr geführt werden kann, was Koaxialkabel, Kabel mit verdrillten Adernpaaren, Lichtleitfaser, ein Hybridfaser-Koaxialmedium (ETC-Medium), Transceiver für terrestrische Mikrowellen, Hochfrequenzkommunikationsmedien, White-Space-Kommunikationsmedien, Ultrahochfrequenzkommunikationsmedien, Satellitenkommunikationsmedien oder eine beliebige Kombination daraus einschließt, jedoch nicht darauf beschränkt ist.
  • In einigen Beispielen können die offenbarten Systeme Karteninformationen analysieren, die mit einer Umgebung der Fahrzeuge, früheren Fahrzeugstandorten in einer bestimmten Umgebung, Klangquellenstandorten, infrastrukturellen Aktualisierungen in Bezug auf das Transportnetz (z. B. Klangquellen aufgrund von Bauarbeiten oder anderen Aktivitäten) und/oder dergleichen assoziiert sind. Die Datenbank kann durch jedes geeignete System gesteuert werden, einschließlich eines Datenbankverwaltungssystems (DBMS), das im Zusammenhang mit 6 unten genauer erörtert wird. Das DBMS kann ein beliebiges aus einer Vielfalt von Datenbankmodellen (zum Beispiel ein relationales Modell, Objektmodell usw.) verwenden und kann eine beliebige von einer Vielfalt an Abfragesprachen unterstützen, um Informationen von der Datenbank zu erhalten. In einigen Beispielen kann die Datenbank eine cloudbasierte Datenbank oder eine fahrzeugbasierte Datenbank beinhalten.
  • Bestimmte Ausführungsformen der Offenbarung werden nun im Zusammenhang mit einem beispielhaften nicht einschränkenden Szenario beschrieben. Das Szenario kann Benutzer beinhalten, die in einem Luxusfahrzeug reisen, wobei die Benutzer Präferenzen haben, die eine Vorliebe für mit der Natur verbundene Klänge anzeigen. Die Benutzer können den offenbarten Systemen Eingaben bereitstellen, die eine Präferenz für eine allgemein leise Fahrgastzelle anzeigen. Die Benutzer können jedoch auch den Wunsch äußern, bestimmte Umgebungsklänge zu hören, wie etwa Vogelgezwitscher entlang ländlicher Straßen.
  • In diesem Beispielszenario können die offenbarten Systeme (z. B. die Fahrzeug- und/oder fahrzeugbasierte Vorrichtungen) ein zugrundeliegendes Grundrauschen erfassen, das mit der Außenumgebung assoziiert ist. Die offenbarten Systeme können externe unerwünschte (zum Beispiel Straßengeräusche, Motorgeräusche, Verkehr und dergleichen) unter Verwendung von Geräuschunterdrückungstechniken reduzieren. In einigen Fällen können die offenbarten Systeme eine Geräuschunterdrückung von Klängen durchführen, die aufgrund zuvor angegebener Benutzerpräferenzen nicht gemocht werden. Die offenbarten Systeme können die Geräuschunterdrückung unter Verwendung einer Benutzerauswahl von vorbestimmten Klangpegelpräferenzen oder einer benutzerdefinierten Klangpegelpräferenz durchführen. In anderen Beispielen kann das System die Klangpräferenzen eines Benutzers lernen, indem es das Feedback des Benutzers und die Verwendung eines Algorithmus für maschinelles Lernen, z. B. eines Gauß-Prozesses, nutzt. Die offenbarten Systeme können ein Innen- und Außenmikrofon eines Fahrzeugs zusammen mit KI-basierten Techniken (zum Beispiel maschinelles Lernen und/oder Deep-Learning-Techniken) verwenden, um eine akustische Signatur-Identifikation externer Klänge nahezu in Echtzeit zu ermöglichen. Beispielsweise können die offenbarten Systeme solche Techniken verwenden, um die häufigsten Vogelarten und das mit diesen assoziierte Zwitschern für die Region zu identifizieren, in der sich das Fahrzeug derzeit befindet. Beispielsweise können die offenbarten Systeme die Vögel und das mit diesen assoziierte Zwitschern in einer externen Datenbank nachschlagen, auf die über die Kommunikationssysteme des Fahrzeugs und unter Verwendung damit assoziierter Fahrzeugantennen zugegriffen werden kann. Der Standort kann durch Kommunikation mit einer externen Datenbank und/oder über GPS-Empfänger bestimmt werden. Die offenbarten Systeme können dann nachgebildete Zwitscherklänge, die mit dem identifizierten Zwitschern solcher Vögel übereinstimmen, in dem Fahrgastraum des Fahrzeugs wiedergeben.
  • In einigen Beispielen können die offenbarten Systeme die Kameras eines Fahrzeugs verwenden und KI-basierte Techniken (zum Beispiel maschinelles Lernen und/oder Deep-Learning-Techniken) verwenden, um eine visuelle Identifikation bestimmter externer Objekte nahezu in Echtzeit zu ermöglichen. In einigen Beispielen können die offenbarten Systeme die visuelle Identifikation verwenden, um den Benutzern Informationen zu präsentieren, die mit den Objekten assoziiert sind. Beispielsweise können die offenbarten Systeme die visuelle Identifizierung der häufigsten Vogelarten in der Region ermöglichen, in der das Fahrzeug gerade navigiert. Die offenbarten Systeme können Informationen, die mit den Vögeln assoziiert sind, aus externen Datenbanken erhalten und können dann den Fahrzeuginsassen Informationen, die mit diesen Vögeln assoziiert sind, zusammen mit Bildern und/oder Videos der Vögel präsentieren. In einigen Beispielen können die Informationen auf jeder beliebigen geeigneten Anzeige des Fahrzeugs präsentiert werden. Alternativ oder zusätzlich können die Informationen über Audio an den Lautsprechern des Fahrzeugs präsentiert werden, beispielsweise unter Verwendung von einer Text-zu-Sprache-Engine. In anderen Beispielen können die offenbarten Systeme das Infotainmentsystem des Fahrzeugs zum Verarbeiten und Filtern der externen Klänge verwenden, wodurch eine Wiedergabe eines Teils des Klangs (z. B. gezieltes Vogelgezwitscher) nahezu in Echtzeit ermöglicht wird.
  • Weitere Ausführungsformen der Offenbarung werden nun im Zusammenhang mit einem anderen beispielhaften nicht einschränkenden Szenario beschrieben. Dieses Szenario kann ein Luxusfahrzeug beinhalten, das auf einer malerischen Küstenstraße fährt. Ferner bevorzugen die Insassen des Luxusfahrzeugs möglicherweise eine allgemein leise Fahrgastzelle. Die Insassen bevorzugen jedoch möglicherweise, den natürlichen Klang des Meeres während ihrer Fahrt zu hören.
  • In diesem Beispiel können die offenbarten Systeme ein zugrundeliegendes Grundrauschen erfassen, das mit der Außenumgebung assoziiert ist. Die offenbarten Systeme können externe unerwünschte (zum Beispiel Straßengeräusche, Motorgeräusche, Verkehr und dergleichen) unter Verwendung von Geräuschunterdrückungstechniken reduzieren. Die offenbarten Systeme können die Geräuschunterdrückung unter Verwendung einer Benutzerauswahl von vorbestimmten Klangpegelpräferenzen oder einer benutzerdefinierten Klangpegelpräferenz durchführen.
  • In Fortsetzung dieses Beispiels können die offenbarten Systeme Navigations- und Kartierungsdaten verwenden, um den aktuellen Standort des Fahrzeugs in Bezug auf Meere und/oder Wasserstraßen zu bestimmen. Beispielsweise können die offenbarten Systeme die Entfernung zwischen dem Standort des Fahrzeugs und dem Meer und/oder der Wasserstraße bestimmen und den Effekt der Entfernung auf den Schalldezibelpegel berechnen. Die offenbarten Systeme können in ähnlicher Weise Wind- und Wetterinformationen identifizieren, um den wahrscheinlichen Einfluss der Außenumgebung auf das Audiofeedback in der realen Welt zu bestimmen. Die offenbarten Systeme können zudem die Informationen verwenden, um die Beziehung zwischen einem Schalldezibelpegel des Meers und/oder der Wasserstraße vs. der Entfernung vom Meer und/oder Wasserweg zu bestimmen.
  • In einem anderen Beispiel kann ein Fahrer ein hervorragender, klassisch ausgebildeter Geiger sein (z. B. mit dem Namen „Meira“). Die offenbarten Systeme können (z. B. durch maschinelles Lernen) die Vorlieben des Fahrers lernen, sodass die offenbarten Systeme externe Musik herausfiltern, die der Fahrer nicht mag (z. B. mittelalterliche Gesänge), und extrahierte Klänge präsentieren, die der Fahrer genießt (z. B. Schostakowitsch-Symphonie Nr. 5 in d-Moll, Prokofjew-Violinkonzert Nr. 1 in D-Dur, Schubert-Streichquartett Nr. 14 in d-Moll, Sibelius-Violinkonzert in d-Moll usw.), wenn der Benutzer in der Nähe solcher Klänge fährt.
  • Die offenbarten Systeme können ein Innen- und Außenmikrofon eines Fahrzeugs zusammen mit KI-basierten Techniken (zum Beispiel maschinelles Lernen und/oder Deep-Learning-Techniken) verwenden, um eine akustische Signatur-Identifikation externer Klänge nahezu in Echtzeit zu ermöglichen. Beispielsweise können die offenbarten Systeme solche Techniken verwenden, um typische Wellen- und Meeresströmungsgeräusche zu identifizieren. Die offenbarten Systeme können dann nachgebildete Wellen- und Meeresströmungsgeräusche in dem Fahrgastraum des Fahrzeugs wiedergeben, die mit den identifizierten typischen Wellen- und Meeresströmungsgeräuschen übereinstimmen. Die offenbarten Systeme können die Kameras eines Fahrzeugs verwenden und KI-basierte Techniken verwenden, um eine visuelle Identifikation von sichtbaren Küstenregionen sowie des Status, Abstands und der Reihenfolge von Meereswellen nahezu in Echtzeit zu ermöglichen, um eine angemessene Synchronisation der Audioverarbeitung zu ermöglichen. Die offenbarten Systeme können die Verarbeitungs- und Filterfähigkeiten des Infotainmentsystems des Fahrzeugs verwenden, um die Wiedergabe gezielter Wellen- und Meeresströmungsgeräusche nahezu in Echtzeit zu ermöglichen.
  • In bestimmten Aspekten können die offenbarten Systeme mit einem Fahrzeug arbeiten, das dazu bestimmt ist, sich in einem Renn- oder Sportbetriebsmodus zu befinden. In diesen Situationen können die offenbarten Systeme Straßen- oder Motorgeräusche auf dem Weg zur Strecke reduzieren oder entfernen, aber alle Straßen- und Motorgeräusche auf der Strecke hörbar machen oder andere Motorgeräusche von anderen Fahrzeugen verstärken, um das Hörerlebnis des Fahrers oder der Fahrgäste zu verbessern. In einigen Beispielen können die offenbarten Systeme das Straßengeräusch im Vergleich zu einem herkömmlichen Fahrzeug weiter verbessern. Beispielsweise kann ein Rad an seine Traktionsgrenze gebracht werden, sodass ein Schlupf auftreten kann, was Quietschgeräusche erzeugt. Dieser Quietschklang kann sich durch die Fahrzeugkarosserie ausbreiten, sodass die Bestimmung, welches einzelne Rad die Traktion verloren hat, in Bezug auf das Grundrauschen und andere Dämpfungseffekte schwierig sein kann. Die offenbarten Ausführungsformen können es dem Fahrzeug ermöglichen, einen Radschlupf von einem Fahrzeugsteuermodul und über eine Audioerfassung eines einzelnen Rads zu erfassen. Ferner können die offenbarten Systeme ein verbessertes Audiosignal (z. B. ein entrauschtes oder künstliches Audiosignal) präsentieren, um das Situationsbewusstsein eines Fahrers zu verbessern.
  • In anderen Aspekten können die offenbarten Systeme Gehörlosen und Personen mit Hörverlust helfen. Beispielsweise können die offenbarten Systeme denjenigen, die Außengeräusche nicht hören können, eine Warnung über wichtige Straßenklänge anhand einer visuellen Warnung bereitstellen. Beispielsweise kann ein gehörloser Insasse durch eine visuelle Warnung auf die Position, Geschwindigkeit und Nähe eines Einsatzfahrzeugs aufmerksam gemacht werden.
  • Eine weitere Ausführungsform der Offenbarung wird nun im Zusammenhang mit einem anderen beispielhaften nicht einschränkenden Szenario beschrieben. 2 zeigt ein beispielhaftes Szenario, in dem gemäß beispielhaften Ausführungsformen der Offenbarung eine akustische Steuerung eines Fahrzeuginnenraums einem Fahrer ein erhöhtes Situationsbewusstsein bereitstellen kann. Dieses Szenario kann ein Fahrzeug 202 in der Nähe eines aktiven Einsatzfahrzeugs 206 an einer Kreuzung 208 beinhalten. Es können sich auch andere Fahrzeuge (z. B. Fahrzeug 204) in der Nähe des Fahrzeugs 202 befinden. In diesem Fall bevorzugen die Insassen des Fahrzeugs möglicherweise eine leise Fahrgastzelle. Die Insassen des Fahrzeugs müssen jedoch möglicherweise auch auf das Vorhandensein, die Fahrtrichtung und/oder die Geschwindigkeit von beliebigen in der Nähe befindlichen aktiven Einsatzfahrzeugen, wie etwa dem aktiven Einsatzfahrzeug 206, aufmerksam gemacht werden.
  • In diesem Fall können die offenbarten Systeme ein zugrundeliegendes Grundrauschen erfassen, das mit der Außenumgebung assoziiert ist. Die offenbarten Systeme können externe unerwünschte (zum Beispiel Straßengeräusche, Motorgeräusche, Verkehr und dergleichen) unter Verwendung von Geräuschunterdrückungstechniken reduzieren. Die offenbarten Systeme können die Geräuschunterdrückung unter Verwendung einer Benutzerauswahl von vorbestimmten Klangpegelpräferenzen oder einer benutzerdefinierten Klangpegelpräferenz durchführen.
  • In einigen Ausführungsformen kann das Fahrzeug 202 ein beliebiges geeignetes Car2Car-Protokoll verwenden, um in der Nähe befindliche Einsatzfahrzeuge (z. B. aktives Einsatzfahrzeug 206) innerhalb eines vorbestimmten Radius des Fahrzeugs 202 zu erfassen. Die offenbarten Systeme können ein Innen- und Außenmikrofon eines Fahrzeugs 202 zusammen mit KI-basierten Techniken verwenden, um eine akustische Signatur-Identifikation externer Klänge nahezu in Echtzeit zu ermöglichen. Zum Beispiel können die offenbarten Systeme derartige Techniken verwenden, um typische Klang- und Folgetonhommuster des Einsatzfahrzeugs 206 zu identifizieren.
  • Die offenbarten Systeme können die Kameras eines Fahrzeugs 202 verwenden und KI-basierte Techniken verwenden, um eine visuelle Identifikation von bestimmten externen Objekten, wie etwa dem aktiven Einsatzfahrzeug 206, nahezu in Echtzeit zu ermöglichen. In einigen Beispielen können die offenbarten Systeme die visuelle Identifikation verwenden, um den Benutzern Informationen zu präsentieren, die mit den Objekten assoziiert sind. Zum Beispiel können die offenbarten Systeme die visuelle Identifizierung sichtbarer Einsatzfahrzeugleuchten und Signaturfarben- und Zeitmuster ermöglichen, die mit dem aktiven Einsatzfahrzeug 206 assoziiert sind. Die offenbarten Systeme können dann den Insassen des Fahrzeugs 202 Informationen, die mit dem aktiven Einsatzfahrzeug 206 assoziiert sind, zusammen mit Bildern und/oder Videos des Einsatzfahrzeugs 206 präsentieren. In einigen Beispielen können die Informationen auf jeder beliebigen geeigneten Anzeige des Fahrzeugs 202 präsentiert werden.
  • In einigen Beispielen können die offenbarten Systeme auch die Kameras des Fahrzeugs 202 verwenden, um die Entfernung und den Weg der sichtbaren Einsatzfahrzeugleuchten zu bestimmen, die mit dem aktiven Einsatzfahrzeug 206 assoziiert sind. In anderen Beispielen können die offenbarten Systeme das Infotainmentsystem des Fahrzeugs 202 zum Verarbeiten und Filtern der externen Klänge verwenden, wodurch eine Wiedergabe des Folgetonhorns des aktiven Einsatzfahrzeugs 206 nahezu in Echtzeit ermöglicht wird. Die offenbarten Systeme können die nachgebildeten Notfall-Folgetonhörner abspielen, um die Ausrichtung des Folgetonhorns zu beinhalten und um Doppler-Effekte zu beinhalten zur Steigerung der Wahrnehmung des Realismus und der Intuitivität hinsichtlich des Standorts der Folgetonhornklänge durch die Benutzer. Zusammen mit der Wiedergabe des Folgetonhorns des aktiven Einsatzfahrzeugs 206 könnte die MMS im Inneren des Fahrzeugs 202 auch die Richtung und den Weg des identifizierten aktiven Einsatzfahrzeugs 206 anzeigen, um die Sicherheit und das Bewusstsein zu verbessern, wie nachstehend in Verbindung mit 3 gezeigt und beschrieben. Insbesondere kann eine mit dem Fahrzeug 202 assoziierte Heads-up-Anzeige oder Infotainment-Anzeige zur Anzeige des Standorts des aktiven Einsatzfahrzeugs 206 und zur Bereitstellung von Warnbenachrichtigungen verwendet werden.
  • Wie erwähnt, können die offenbarten Systeme eine akustische Trilateration externer Klangquellen ermöglichen. In einigen Beispielen weisen solche externen Klangquellen möglicherweise nicht genügend entsprechende visuelle Hinweise auf. Zum Beispiel können die externen Klangquellen ein Hupen, eine Pfeife eines Polizeibeamten, der den Verkehr regelt, und/oder dergleichen beinhalten. Die offenbarten Systeme können akustische Trilateration verwenden, um eine sichtbasierte Identifikation von Klangquellen zu erleichtern. In einigen Beispielen kann eine bestimmte Form der Trilateration mit akustischer Abtastung der Außenumgebung verwendet werden, um zu versuchen, die Richtung einzugrenzen, aus der der Klang stammt. Eine solche Trilateration kann nützlich sein, um den Standort von Klängen von Fahrzeugen zu identifizieren, die nicht über Car2Car-Protokolle kommunizieren können. Solche Fahrzeuge (zum Beispiel ältere Einsatzfahrzeuge) können sich möglicherweise nicht richtig identifizieren. Solche Fahrzeuge können jedoch verdeckt sein oder es fehlen visuelle Hinweise, um sie durch einen Fahrer oder eine Fahrzeugkamera visuell zu identifizieren.
  • Dementsprechend können die offenbarten Systeme derartige Klangquellen unter Verwendung fahrzeugbasierter Mikrofone identifizieren. Insbesondere können die offenbarten Systeme die Mikrofone verwenden, um externe Klänge abzutasten. Alternativ oder zusätzlich können die offenbarten Systeme abgetastete und normalisierte externe Klänge unter Verwendung einer externen Vorrichtung und/oder über eine Car2Car-Kommunikation empfangen. Die offenbarten Systeme können den externen Klang verarbeiten, den Klang über seine akustische Signatur charakterisieren und den externen Klang analysieren, um den ungefähren Schalldruckpegel abzuschätzen, so wie er abgetastet wurde. Ferner können die offenbarten Systeme diese Informationen an beliebige andere Car2Car-fähige Fahrzeuge in der Nähe aussenden.
  • In einigen Beispielen kann der ungefähre Standort des Ursprungspunkts des Klangs bestimmt werden, wenn mindestens drei Nachrichten dieser Art von einem Car2Car-fähigen Fahrzeug empfangen werden. Die offenbarten Systeme können eine solche Bestimmung unter Verwendung von Trilaterationstechniken und einer Kartendatenbank durchführen. Die Kartendatenbank kann Klänge beinhalten, die als am wahrscheinlichsten von einem Fahrzeug ausgehend charakterisiert sind (z. B. Hupen, quietschende Reifen und/oder dergleichen).
  • In einem beispielhaften Szenario kann ein Fahrzeug, das zu einer akustischen Trilateration fähig ist, eine Car2Car-Nachricht von zwei anderen Fahrzeugen empfangen, die Nachrichten mit einem Schalldruckpegel eines entsprechenden abgetasteten Klangs und der Charakterisierungsart des abgetasteten Klangs aussenden. Das empfangende Fahrzeug kann die Car2Car-Informationen mit seinen eigenen Abtast- und Charakterisierungsinformationen koppeln, um zu bestimmen, woher der Standort des Klangs stammt. Insbesondere weil das empfangende Fahrzeug seinen eigenen Standort sowie den Standort der beiden anderen Fahrzeuge kennt, kann das Fahrzeug Trilaterationstechniken verwenden, um die Standortbestimmung vorzunehmen. Im Falle von von Fahrzeugen ausgehenden Klängen können die offenbarten Systeme darüber hinaus relevante Kenntnisse der Straßengeometrie (z. B. wie aus einer externen Datenbank ermittelt) zur Standortbestimmung einbeziehen.
  • 3 zeigt ein Schaubild 300 zum Bereitstellen von Kartierungsfähigkeiten an Fahrgäste zum Verbessern des Situationsbewusstseins eines Fahrers für das in 2 beschriebene beispielhafte Szenario gemäß beispielhaften Ausführungsformen der Offenbarung. Wie erwähnt, können die offenbarten Systeme auch visuelle Warnungen basierend auf den erfassten Umgebungsklängen präsentieren, wobei die visuellen Warnungen den Fahrzeuginsassen zusätzlich zu den Umgebungsklängen oder als Ersatz für diese präsentiert werden. Die offenbarten Systeme können solche visuellen Warnungen 306 auf Heads-up-Anzeigen, Anzeigen in der Mittelkonsole und/oder dergleichen eines Fahrzeugs erzeugen und präsentieren. Die offenbarten Systeme können auch die visuellen Warnungen zusammen mit On-Board-Karteninformationen 302 präsentieren, die den aktuellen Standort des Fahrzeugs zeigen. Zum Beispiel können die offenbarten Systeme die visuellen Warnungen auf einer virtuellen Karte präsentieren, um den Standort des Klangs zusammen mit anderen Fahrinformationen (zum Beispiel einer Fahrtrichtung, Geschwindigkeit des Fahrzeugs und/oder dergleichen) anzuzeigen.
  • 4 zeigt ein beispielhaftes Szenario, in dem die offenbarten Systeme und Verfahren gemäß beispielhaften Ausführungsformen der Offenbarung akustische Trilateration durchführen können, um eine externe Klangquelle zu lokalisieren. Das Schaubild 400 zeigt vier Fahrzeuge (Fahrzeuge 404, 406, 408 und 410) an einer Kreuzung 401, wobei drei der Fahrzeuge (Fahrzeuge 406, 408 und 410) Car2Car-fähig sind und ein Fahrzeug (Fahrzeug 404) nicht Car2Car-fähig ist. Wie nachstehend beschrieben, kann das Fahrzeug 404, das möglicherweise nicht Car2Car-fähig ist, immer noch als Ursprung des Hupens identifiziert werden. Jedes der Car2Car-fähigen Fahrzeuge könnte seine eigenen Nachrichten aussenden und sich als das Fahrzeug identifizieren, das hupt. Bei akustischer Trilateration können Car2Car-fähige Fahrzeuge jedoch Audio gemeinsam abtasten, den abgetasteten Pegel charakterisieren und zueinander aussenden, damit jeder von ihnen selbst bestimmen kann, wo sich die Audioquelle befindet.
  • Der Prozess der Standortbestimmung kann das Verarbeiten der ausgesendeten Daten und GPS-Standorte der drei Abtastwerte beinhalten, um mögliche Bereiche zu erzeugen, in denen sich der Ursprungspunkt des Klangs befinden kann. Dies kann durch die Kreise 403, 405 und 407 in 4 dargestellt werden, welche Bereiche darstellen können, in denen Audio durch das externe Mikrofon des jeweiligen Fahrzeugs abgetastet werden kann. Das Fahrzeug 410 auf der Südseite der Kreuzung kann den Klang abtasten, den Klang über seine akustische Signatur als Fahrzeughupe charakterisieren und bestimmen, dass der Klang bei einer bestimmten Amplitude abgetastet wurde (zum Beispiel etwa 65 dB).
  • In Fortsetzung dieses Beispiels kann das Fahrzeug 406 auf der Westseite der Kreuzung 401 das gleiche Verfahren ausführen, um zu bestimmen, dass der Klang eine andere Amplitude hat, beispielsweise eine Amplitude von etwa 70 dB. Das Fahrzeug 408 auf der Ostseite der Kreuzung 401 kann die Daten von den beiden anderen Fahrzeugen nehmen und kombiniert die Daten mit seiner eigenen Abtastung von etwa 60 dB, um zu bestimmen, dass sich das hupende Fahrzeug 404 möglicherweise auf der Westseite der Kreuzung 401 befindet. Das Clustern von Kreuzungspunkten 412 kann ungefähr neben dem Straßenrand liegen, aber die Kenntnisse der Straßengeometrie über eine On-Board-Kartendatenbank kann dazu führen, dass das Fahrzeug 408 auf der Ostseite bestimmen kann (über Kartenidentifikation), dass das hupende Fahrzeug 404 am wahrscheinlichsten das Fahrzeug direkt hinter dem Car2Car-fähigen Fahrzeug 406 auf der Westseite der Kreuzung 401 ist. Bei Fahrzeugen mit mehreren Mikrofonen, die auf beiden Seiten eines bestimmten Abtastfahrzeugs getrennt sind, können die Entfernungsbereiche und die Ausrichtung der Klangquelle noch präziser und weniger fehleranfällig sein. Ein einzelnes Mikrofon kann jedoch den Ursprungsstandort anhand von Daten von mindestens zwei anderen Fahrzeugen dennoch ordnungsgemäß bestimmen, wie in Schaubild 400 dargestellt.
  • Wie erwähnt, kann ein beliebiges der anderen Fahrzeuge (Fahrzeuge 406, 408 und/oder 410), die ihre eigene Bestimmung hinsichtlich des Standorts des hupenden Fahrzeugs 404 allein anhand von akustischer Trilateration durchführen, darauffolgend entsprechende Informationen aussenden, die mit den anderen Fahrzeugen geteilt werden Die offenbarten Systeme können die Werte dieser bestimmten Standorte mitteln, um die Genauigkeit und die Konfidenz der Standortbestimmung weiter zu erhöhen.
  • 5 zeigt einen beispielhaften Prozessablauf, der ein Verfahren zum Erzeugen einer benutzerdefinierten akustischen Umgebung in einem Fahrzeug gemäß beispielhaften Ausführungsformen der Offenbarung beschreibt. Bei Block 502 kann das Verfahren das Erfassen von Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs und Bestimmen mindestens eines ersten Klangs aus den Umgebungsklängen beinhalten, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren. In einigen Beispielen kann das Bestimmen des ersten Klangs das Bestimmen einer Vielzahl von Klängen und jeweiligen Klangarten aus Umgebungsklängen und Herausfiltern von Klängen mit vorbestimmten Klangarten aus den Umgebungsklängen beinhalten. Ferner kann das Bestimmen der Klangarten das Zuweisen jeweiliger Prioritäten zu den Klängen beinhalten. Zum Beispiel umfasst das Herausfiltern von Klängen ferner das Herausfiltern von Klängen, deren Prioritäten unter den jeweiligen Schwellenwerten liegen.
  • Bei Block 504 kann das Verfahren das Bestimmen von Standortinformationen einschließlich einer Richtung und einer Entfernung des ersten Klangs in Bezug auf das Fahrzeug beinhalten. In einigen Beispielen kann das Bestimmen der Standortinformationen Durchführen von akustischer Trilateration unter Verwendung von Car2Car-Kommunikationen mit anderen Fahrzeugen, die dazu konfiguriert sind, Umgebungsklänge zu erfassen, beinhalten. Darüber hinaus kann das Bestimmen der Standortinformationen das Bestimmen einer Doppler-Verschiebung, die mit dem ersten Klang assoziiert ist, beinhalten.
  • Bei Block 506 kann das Verfahren Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert, beinhalten. In einem Beispiel können spektrale Merkmale frequenzbasierte Merkmale eines Signals beinhalten. Insbesondere können solche spektralen Merkmale durch Umwandeln des zeitbasierten Signals (z. B. ein Audiosignal) in die Frequenzdomäne unter Verwendung eines Fourier-Transformations-Algorithmus bestimmt werden. Nicht einschränkende Beispiele für derartige spektrale Merkmale können eine Grundfrequenz, eine oder mehrere Frequenzkomponenten, eine Spektraldichte, ein spektraler Roll-off und/oder dergleichen beinhalten. Verschiedene Kombinationen der spektralen Merkmale können verwendet werden, um Noten, Tonhöhe, Klangfarbe, Bass, Rhythmus, Melodie usw. eines bestimmten Teils eines Audiosignals zu identifizieren.
  • In anderen Ausführungsformen kann das Erzeugen des zweiten Klangs das Reduzieren des mit dem ersten Klang assoziierten Geräuschs um einen Betrag, der auf einer Benutzerpräferenz basiert, beinhalten.
  • Bei Block 508 kann das Verfahren das Veranlassen, dass mindestens ein Teil des zweiten Klangs über einen Fahrgastraumlautsprecher abgespielt wird, beinhalten. In einigen Beispielen kann das Veranlassen, dass mindestens der Teil des zweiten Klangs abgespielt wird, das Projizieren des zweiten Klangs beinhalten, sodass der zweite Klang einen wahrgenommenen Standort aufweist, der ähnlich dem ersten Klang ist. Darüber hinaus kann das Verfahren das Veranlassen, ein auf dem zweiten Klang basierendes Bild auf einer mit dem Fahrgastraum assoziierten Anzeige zu präsentieren, beinhalten. In anderen Beispielen kann das Verfahren das Erhalten von Bildern einer Umgebung außerhalb des Fahrgastraums und das Bestimmen eines Zustands (z. B. eines Notfallzustands) basierend auf einer Analyse der Bilder beinhalten. Dementsprechend können die offenbarten Systeme die Wiedergabe des Teils des zweiten Klangs stoppen und basierend auf den Bildern einen dritten Klang über den Lautsprecher abspielen.
  • Wie erwähnt, können Ausführungsformen von Vorrichtungen und Systemen (und ihren verschiedenen Komponenten), die hierin beschrieben werden, KI verwenden, um die Automatisierung eines oder mehrerer hierin beschriebener Merkmale zu erleichtern, beispielsweise beim Durchführen der Klangerfassung und -erkennung von Audio, das von dem/den Mikrofon(en) eines Fahrzeugs aufgenommen wird, und beim Durchführen einer Klanglokalisierung. Die Komponenten können verschiedene KI-basierte Verfahren einsetzen, um verschiedene in dieser Schrift offenbarte Ausführungsformen und/oder Beispiele auszuführen. Um die in der vorliegenden Schrift beschriebenen zahlreichen Bestimmungen zu gewährleisten oder diese zu unterstützen (z. B. bestimmen, feststellen, ableiten, berechnen, vorhersagen, prognostizieren, schätzen, herleiten, voraussagen, erfassen, berechnen), können die in der vorliegenden Schrift beschriebenen Komponenten die Gesamtheit oder eine Teilmenge der Daten untersuchen, zu denen Zugang gewährt wird, und aus einer Reihe von Beobachtungen, die über Ereignisse und/oder Daten erfasst wurden, Überlegungen zu System-, Umgebungszuständen usw. anstellen oder diese bestimmen. Bestimmungen können eingesetzt werden, um einen konkreten Kontext oder eine konkrete Handlung zu identifizieren, oder können zum Beispiel eine Wahrscheinlichkeitsverteilung über Zustände erzeugen. Die Bestimmungen können probabilistisch sein; was das Errechnen einer Wahrscheinlichkeitsverteilung über Zustände von Interesse basierend auf einer Berücksichtigung von Daten und Ereignissen bedeutet. Bestimmungen können sich zudem auf Techniken beziehen, die zum Zusammensetzen von Ereignissen höherer Ebene aus einer Reihe von Ereignissen und/oder Daten verwendet werden.
  • Derartige Bestimmungen können zur Konstruktion neuer Ereignisse oder Handlungen aus einem Satz von beobachteten Ereignissen und/oder gespeicherten Ereignisdaten führen, ob die Ereignisse in großer zeitlicher Nähe korreliert sind und ob die Ereignisse und Daten aus einer oder mehreren Ereignis- und Datenquellen (z. B. unterschiedlichen Sensoreingängen) stammen. Hierin offenbarte Komponenten können verschiedene Schemata zur Klassifizierung (explizit trainiert (z. B. über Trainingsdaten) sowie implizit trainiert (z. B. über das Beobachten von Verhalten, Präferenzen, historischen Informationen, Empfangen von extrinsischen Informationen usw.)) und/oder Systeme (z. B. Support-Vektor-Maschinen, neuronale Netze, Expertensysteme, Bayessche Netze, Fuzzylogik, Datenfusions-Engines usw.) in Verbindung mit dem Durchführen einer automatischen und/oder bestimmten Handlung in Verbindung mit dem beanspruchten Gegenstand einsetzen. Derartige Klassifizierungsschemata und/oder - systeme können zum automatischen Lernen und Ausführen einer Reihe von Funktionen, Handlungen, und/oder Bestimmungen verwendet werden.
  • Ein Klassifikator kann einen Eingabeattributvektor abbilden, z = (z1, z2, z3, z4,..., zn), zu der Gewissheit, dass die Eingabe zu einer Klasse gehört, wie durch f (z) = Konfidenz (Klasse). Eine derartige Klassifizierung kann eine probabilistische und/oder statistikbasierte Analyse (z. B. Einkalkulierung in die Analyseeinrichtungen und -kosten) einsetzen, um eine Handlung zu bestimmen, die automatisch durchgeführt werden soll. Eine Stützvektormaschine (SVM) kann ein Beispiel für einen Klassifikator sein, der verwendet werden kann. Die SVM arbeitet, indem sie eine Hyperoberfläche in dem Raum der möglichen Eingaben findet, wo die Hyperoberfläche versucht, die auslösenden Kriterien von den nicht auslösenden Ereignissen zu trennen. Dies macht die Klassifizierung zum Testen von Daten, die nahe bei den Trainingsdaten liegen, mit diesen jedoch nicht identisch sind, intuitiv korrekt. Andere gerichtete und ungerichtete Modellklassifizierungsansätze beinhalten zum Beispiel naive Bayes, Bayessche Netze, Entscheidungsbäume, neuronale Netze, Fuzzylogik-Modelle und/oder probabilistische Klassifizierungsmodelle, die unterschiedliche Muster von Unabhängigkeit bereitstellen, die eingesetzt werden können. Klassifizierung schließt im hierin verwendeten Sinne auch statistische Regression ein, die verwendet wird, um Prioritätsmodelle zu entwickeln.
  • 6 ist eine schematische Veranschaulichung einer beispielhaften Serverarchitektur für einen oder mehrere Server 600 in Übereinstimmung mit einer oder mehreren Ausführungsformen der Offenbarung. Der Server 600, der in dem Beispiel aus 6 dargestellt ist, kann einem Server entsprechen, der von einem Fahrzeug (zum Beispiel Fahrzeug 102, wie vorstehend in Verbindung mit 1 gezeigt und beschrieben) in einem mit dem Fahrzeug assoziierten Netz verwendet werden kann. In einer Ausführungsform kann der Server 600 einen cloudbasierten Server beinhalten, der zum Speichern und Übertragen von Informationen (zum Beispiel HD-Karteninformationen, einschließlich des Standorts von Lichtquellen wie Lichtsignalanlagen, Verkehrsinformationen und dergleichen) dienen kann. Einige oder alle der einzelnen Komponenten können in verschiedenen Ausführungsformen optional und/oder unterschiedlich sein. In einigen Ausführungsformen kann sich mindestens einer der in 6 beschriebenen Server an einem autonomen Fahrzeug befinden.
  • Der Server 600 kann mit einem AV 640 und einer oder mehreren Benutzervorrichtungen 650 in Kommunikation stehen. Das AV 640 kann mit der einen oder den mehreren Benutzervorrichtungen 650 in Kommunikation 646 stehen. Ferner können der Server 600, das AV 640 und/oder die Benutzervorrichtungen 650 dazu konfiguriert sein, über ein oder mehrere Netze 642 zu kommunizieren. Das AV 640 kann zusätzlich über ein oder mehrere Netz(e) 642 mit den Benutzervorrichtungen 650 über ein Verbindungsprotokoll wie etwa Bluetooth oder NFC drahtlos in drahtloser Kommunikation stehen. Ein derartiges Netz bzw. derartige Netze 642 kann bzw. können unter anderem eine oder mehrere beliebige unterschiedliche Arten von Kommunikationsnetzen beinhalten, wie etwa Kabelnetze, öffentliche Netze (zum Beispiel das Internet), private Netze (zum Beispiel Frame-Relay-Netze), drahtlose Netze, Mobilfunknetze, Telefonnetze (zum Beispiel ein öffentliches Fernsprechnetz) oder beliebige andere geeignete private oder öffentliche paketvermittelte oder leitungsvermittelte Netze. Ferner kann ein derartiges Netz bzw. können derartige Netze einen beliebigen geeigneten, damit assoziierten Kommunikationsbereich aufweisen. Zusätzlich kann ein derartiges Netz bzw. können derartige Netze Kommunikationsverbindungen und assoziierte Vernetzungsvorrichtungen (zum Beispiel Switches auf der Sicherungsschicht, Router usw.) zum Übertragen von Netzverkehr über eine beliebige geeignete Art von Medium beinhalten, einschließlich unter anderem Koaxialkabel, Kabel mit verdrillten Adernpaaren (zum Beispiel Kupferkabel mit verdrillten Adernpaaren), Lichtleitfaser, eines HFC-Mediums, eines Mikrowellenmediums, eines Hochfrequenzkommunikationsmediums, eines Satellitenkommunikationsmediums oder einer beliebigen Kombination davon.
  • In einer veranschaulichenden Konfiguration kann der Server 600 einen oder mehrere Prozessoren 602, eine oder mehrere Speichervorrichtungen 604 (in dieser Schrift auch als Speicher 604 bezeichnet), eine oder mehrere Eingangs-/Ausgangs-(E/A-)Schnittstelle(n) 606, eine oder mehrere Netzschnittstelle(n) 608, einen oder mehrere Sensor(en) oder eine oder mehrere Sensorschnittstelle(n) 610, einen oder mehrere Transceiver 612, eine oder mehrere optionale Anzeigekomponenten 614, ein(-e/-en) oder mehrere optionale Lautsprecher/Kamera(s)/Mikrofon(e) 616 und Datenspeicher 620 beinhalten. Der Server 600 kann ferner einen oder mehrere Bus(se) 618 beinhalten, die verschiedene Komponenten des Servers 600 funktionell koppeln. Der Server 600 kann ferner eine oder mehrere Antenne(n) 630 beinhalten, zu denen unter anderem eine Mobilfunkantenne zum Übertragen oder Empfangen von Signalen an eine/von einer Mobilfunknetzinfrastruktur, eine GNSS-Antenne zum Empfangen von GNSS-Signalen von einem GNSS-Satelliten, eine Bluetooth-Antenne zum Übertragen oder Empfangen von Bluetooth-Signalen, eine NFC-Antenne zum Übertragen oder Empfangen von NFC-Signalen und so weiter gehören können. Diese verschiedenen Komponenten werden nachstehend genauer beschrieben.
  • Der bzw. die Bus(se) 618 kann bzw. können mindestens eines von einem Systembus, einem Speicherbus, einem Adressbus oder einem Nachrichtenbus beinhalten und den Austausch von Informationen (zum Beispiel Daten (einschließlich computerausführbarer Codes), Signalisierung usw.) zwischen verschiedenen Komponenten des Servers 600 ermöglichen. Der/Die Bus(se) 618 kann/können unter anderem einen Speicherbus oder eine Speichersteuerung, einen Peripheriebus, einen Accelerated Graphics Port und so weiter beinhalten. Der/Die Bus(se) 618 kann bzw. können mit einer beliebigen geeigneten Busarchitektur assoziiert sein.
  • Der Speicher 604 des Servers 600 kann flüchtigen Speicher (Speicher, der seinen Zustand beibehält, wenn er mit Leistung versorgt wird), wie etwa RAM, und/oder nichtflüchtigen Speicher (Speicher, der seinen Zustand beibehält, auch wenn er nicht mit Leistung versorgt wird), wie etwa Festwertspeicher (read-only memory - ROM), Flash-Speicher, ferroelektrischen RAM (FRAM) und so weiter, beinhalten. Dauerhafter Datenspeicher kann im hierin verwendeten Sinne des Ausdrucks nichtflüchtigen Speicher beinhalten. In gewissen Ausführungsbeispielen kann ein flüchtiger Speicher einen schnelleren Lese-/Schreibzugriff als ein nichtflüchtiger Speicher ermöglichen. In bestimmten anderen Ausführungsbeispielen können bestimmte Arten von nichtflüchtigem Speicher (zum Beispiel FRAM) jedoch einen schnelleren Lese-/Schreibzugriff als bestimmte Arten von flüchtigem Speicher ermöglichen.
  • Der Datenspeicher 620 kann wechselbaren Speicher und/oder nicht wechselbaren Speicher beinhalten, der unter anderem Magnetspeicher, optischen Plattenspeicher und/oder Bandspeicher beinhaltet. Der Datenspeicher 620 kann nichtflüchtige Speicherung von computerausführbaren Anweisungen und anderen Daten bereitstellen.
  • Der Datenspeicher 620 kann computerausführbaren Code, Anweisungen oder dergleichen speichern, die in den Speicher 604 geladen und durch den/die Prozessor(en) 602 ausgeführt werden können, um den/die Prozessor(en) 602 dazu zu veranlassen, verschiedene Vorgänge durchzuführen oder einzuleiten. Der Datenspeicher 620 kann zusätzlich Daten speichern, die zur Verwendung durch den/die Prozessor(en) 602 während der Ausführung der computerausführbaren Anweisungen in den Speicher 604 kopiert werden können. Konkreter kann der Datenspeicher 620 ein oder mehrere Betriebssysteme (operating systems - O/S) 622; ein oder mehrere Datenbankverwaltungssysteme (database management systems - DBMS) 624; und ein(e) oder mehrere Programmmodul(e), Anwendungen, Engines, computerausführbaren Code, Skripte oder dergleichen speichern. Einige oder alle dieser Komponenten können Unterkomponenten sein. Beliebige der als in dem Datenspeicher 620 gespeichert dargestellten Komponenten können eine beliebige Kombination aus Software, Firmware und/oder Hardware beinhalten. Die Software und/oder Firmware kann computerausführbaren Code, Anweisungen oder dergleichen beinhalten, die zur Ausführung durch einen oder mehrere des Prozessors/der Prozessoren 602 in den Speicher 604 geladen werden können. Beliebige der Komponenten, die als in dem Datenspeicher 620 gespeichert dargestellt sind, können Funktionen unterstützen, die unter Bezugnahme auf entsprechende Komponenten beschrieben sind, die an früherer Stelle in dieser Offenbarung benannt sind.
  • Der/Die Prozessor(en) 602 kann/können dazu konfiguriert sein, auf den Speicher 604 zuzugreifen und die darin geladenen computerausführbaren Anweisungen auszuführen. Zum Beispiel kann/können der/die Prozessor(en) 602 dazu konfiguriert sein, die computerausführbaren Anweisungen der verschiedenen Programmmodule, Anwendungen, Engines oder dergleichen des Servers 600 auszuführen, um das Durchführen verschiedener Vorgänge in Übereinstimmung mit einer oder mehreren Ausführungsformen der Offenbarung zu veranlassen oder zu erleichtern. Der/Die Prozessor(en) 602 kann/können eine beliebige geeignete Verarbeitungseinheit beinhalten, die zum Aufnehmen von Daten als Eingabe, Verarbeiten der eingegebenen Daten gemäß gespeicherten computerausführbaren Anweisungen und Erzeugen von Ausgabedaten in der Lage ist. Der/Die Prozessor(en) 602 kann/können eine beliebige Art von geeigneter Verarbeitungseinheit beinhalten.
  • Unter Bezugnahme auf andere veranschaulichte Komponenten, die als in dem Datenspeicher 620 gespeichert dargestellt sind, kann das O/S 622 von dem Datenspeicher 620 in den Speicher 604 geladen werden und eine Schnittstelle zwischen anderer Anwendungssoftware, die auf dem Server 600 ausgeführt wird, und den Hardwareressourcen des Servers 600 bereitstellen.
  • Das DBMS 624 kann in den Speicher 604 geladen werden und Funktionen zum Zugreifen, Abrufen, Speichern und/oder Bearbeiten von Daten, die in dem Speicher 604 gespeichert sind, und/oder Daten, die in dem Datenspeicher 620 gespeichert sind, unterstützen. Das DBMS 624 kann beliebige von vielfältigen Datenbankmodellen (zum Beispiel relationales Modell, Objektmodell usw.) verwenden und beliebige von vielfältigen Abfragesprachen unterstützen.
  • Unter Bezugnahme auf andere veranschaulichte Komponenten des Servers 600 kann/können die Eingangs-/Ausgangs-(E/A-)Schnittstelle(n) 606 den Empfang von Eingabeinformationen durch den Server 600 von einer oder mehreren E/A-Vorrichtungen sowie die Ausgabe von Informationen von dem Server 600 an die eine oder mehreren E/A-Vorrichtungen erleichtern. Die E/A-Vorrichtungen können beliebige von vielfältigen Komponenten beinhalten, wie etwa eine Anzeige oder einen Anzeigebildschirm, der eine Berührungsfläche oder einen Touchscreen aufweist; eine Audioausgabevorrichtung zum Erzeugen von Klängen, wie etwa einen Lautsprecher; eine Audioaufnahmevorrichtung, wie etwa ein Mikrofon; eine Bild- und/oder Videoaufnahmevorrichtung, wie etwa eine Kamera; eine haptische Einheit; und so weiter. Die E/A-Schnittstelle(n) 606 kann/können zudem eine Verbindung mit einer oder mehreren der Antenne(n) 630 beinhalten, um über ein Funkgerät für ein drahtloses lokales Netzwerk (WLAN) (wie etwa WiFi), Bluetooth, ZigBee und/oder ein Funkgerät für ein drahtloses Netzwerk, wie etwa ein Funkgerät, das zur Kommunikation mit einem drahtlosen Kommunikationsnetzwerk in der Lage ist, wie etwa einem Long-Term-Evolution-Netzwerk (LTE-Netzwerk), WiMAX-Netzwerk, 3G-Netz, ZigBee-Netzwerke usw., eine Verbindung mit einem oder mehreren Netzwerken herzustellen.
  • Der Server 600 kann ferner eine oder mehrere Netzschnittstelle(n) 608 beinhalten, über die der Server 600 mit beliebigen von vielfältigen anderen Systemen, Plattformen, Netzen, Vorrichtungen und so weiter kommunizieren kann. Die Netzschnittstelle(n) 608 kann/können Kommunikation zum Beispiel mit einem oder mehreren drahtlosen Routern, einem oder mehreren Host-Servern, einem oder mehreren Web-Servern und dergleichen über ein oder mehrere Netze ermöglichen.
  • Der/Die Sensor(en) bzw. die Sensorschnittstelle(n) 610 kann/können eine beliebige Art von Erfassungsvorrichtung, wie zum Beispiel Inertialsensoren, Kraftsensoren, Wärmesensoren, Fotozellen und so weiter, beinhalten oder dazu in der Lage sein, damit eine Schnittstelle zu bilden.
  • Die Anzeigekomponente(n) 614 kann bzw. können eine oder mehrere Anzeigeschichten, wie etwa LED- oder LCD-Schichten, Touchscreen-Schichten, Schutzschichten und/oder andere Schichten beinhalten. Die optionale(n) Kamera(s) des bzw. der Lautsprecher(s)/Kamera(s)/Mikrofon(-s/-e) 616 kann bzw. können eine beliebige Vorrichtung sein, die zum Aufnehmen von Umgebungslicht oder Bildern konfiguriert ist/sind. Das bzw. die optionale(n) Mikrofon(e) des bzw. der Lautsprecher(s)/Kamera(s)/Mikrofon(-s/-e) 616 kann bzw. können eine beliebige Vorrichtung sein, die zum Empfangen von analogen Klangeingaben oder Sprachdaten konfiguriert ist/sind. Das bzw. die Mikrofon(e) des bzw. der Lautsprecher(s)/Kamera(s)/Mikrofon(-s/-e) 616 kann bzw. können Mikrofone beinhalten, die zum Aufnehmen von Klang verwendet werden.
  • Es versteht sich, dass das/der/die Programmmodul(e), Anwendungen, computerausführbaren Anweisungen, Code oder dergleichen, die in 6 als in dem Datenspeicher 620 gespeichert dargestellt sind, lediglich veranschaulichend und nicht erschöpfend sind und dass Verarbeitung, die als durch ein beliebiges konkretes Modul unterstützt beschrieben ist, alternativ auf mehrere Module verteilt sein kann oder durch ein anderes Modul durchgeführt werden kann.
  • Es versteht sich ferner, dass der Server 600 alternative und/oder zusätzliche Hardware-, Software- oder Firmwarekomponenten beinhalten kann, die über die beschriebenen oder dargestellten hinausgehen, ohne vom Schutzumfang der Offenbarung abzuweichen.
  • Die Benutzervorrichtung 650 kann einen oder mehrere Computerprozessor(en) 652, eine oder mehrere Speichervorrichtungen 654 und eine oder mehrere Anwendungen, wie etwa eine Fahrzeug-Anwendung 656, beinhalten. Andere Ausführungsformen können unterschiedliche Komponenten beinhalten.
  • Der/Die Prozessor(en) 652 kann/können dazu konfiguriert sein, auf den Speicher 654 zuzugreifen und die darin geladenen computerausführbaren Anweisungen auszuführen. Der/die Prozessor(en) 652 kann/können zum Beispiel dazu konfiguriert sein, die computerausführbaren Anweisungen der verschiedenen Programmmodul(e), Anwendungen, Engines oder dergleichen des Servers auszuführen, um das Durchführen verschiedener Vorgänge gemäß einer oder mehreren Ausführungsformen der Offenbarung zu veranlassen oder zu erleichtern. Der/die Prozessor(en) 652 können eine beliebige geeignete Verarbeitungseinheit beinhalten, die in der Lage ist, Daten als Eingabe zu akzeptieren, die Eingangsdaten gemäß gespeicherten, vom Computer ausführbaren Anweisungen zu verarbeiten und Ausgangsdaten zu erzeugen. Der/die Prozessor(en) 652 kann/können eine beliebige Art von geeigneter Verarbeitungseinheit beinhalten.
  • Der Speicher 654 kann einen flüchtigen Speicher (Speicher, der seinen Zustand beibehält, wenn er mit Strom versorgt wird) beinhalten. Dauerhafter Datenspeicher kann im hierin verwendeten Sinne des Ausdrucks nichtflüchtigen Speicher beinhalten. In gewissen Ausführungsbeispielen kann ein flüchtiger Speicher einen schnelleren Lese-/Schreibzugriff als ein nichtflüchtiger Speicher ermöglichen. In bestimmten anderen Ausführungsbeispielen können bestimmte Arten von nichtflüchtigem Speicher (zum Beispiel FRAM) jedoch einen schnelleren Lese-/Schreibzugriff als bestimmte Arten von flüchtigem Speicher ermöglichen.
  • Nun unter Bezugnahme auf die Funktionalität, die von der Benutzervorrichtung 650 unterstützt wird, kann die Anwendung 656 eine mobile Anwendung sein, die von dem Prozessor 652 ausführbar ist und zum Darstellen von Optionen und/oder Empfangen von Benutzereingaben von Informationen in Bezug auf die offenbarten Ausführungsformen verwendet werden kann. Zusätzlich kann die Benutzervorrichtung 650 mit dem AV 640 über das Netz 642 und/oder eine direkte Verbindung kommunizieren, die eine drahtlose oder drahtgebundene Verbindung sein kann. Die Benutzervorrichtung 650 kann eine Kamera, einen Scanner, einen Bioleser oder dergleichen beinhalten, um biometrische Daten eines Benutzers aufzunehmen, gewisse Verarbeitungsschritte an den biometrischen Daten durchzuführen, wie etwa Merkmale aus aufgenommenen biometrischen Daten zu extrahieren, und diese extrahierten Merkmale dann an einen oder mehrere entfernte Server zu kommunizieren, wie etwa einen oder mehrere von cloudbasierten Servern.
  • Es versteht sich, dass das/der/die Programmmodul(e), Anwendungen, computerausführbaren Anweisungen, Code und/oder dergleichen, die in 6 als in dem Datenspeicher 620 gespeichert dargestellt sind, lediglich veranschaulichend und nicht erschöpfend sind und dass Verarbeitung, die als durch ein beliebiges konkretes Modul unterstützt beschrieben ist, alternativ auf mehrere Module verteilt sein kann oder durch ein anderes Modul durchgeführt werden kann.
  • Das autonome Fahrzeug 640 kann einen oder mehrere Computerprozessor(en) 660, eine oder mehrere Speichervorrichtungen 662, einen oder mehrere Sensoren 664, eine oder mehrere Anwendungen, wie etwa eine Anwendung 666 für autonomes Fahren, beinhalten. Andere Ausführungsformen können unterschiedliche Komponenten beinhalten. Eine Kombination oder Unterkombination dieser Komponenten kann in die Steuerung 606 der 6 integriert sein.
  • Der/die Prozessor(en) 660 kann/können dazu konfiguriert sein, auf den Speicher 662 zuzugreifen und die vom Computer ausführbaren Anweisungen, die darin geladen sind, auszuführen. Der/die Prozessor(en) 660 kann/können zum Beispiel dazu konfiguriert sein, die computerausführbaren Anweisungen der verschiedenen Programmmodul(e), Anwendungen, Engines oder dergleichen des Servers auszuführen, um das Durchführen verschiedener Vorgänge gemäß einer oder mehreren Ausführungsformen der Offenbarung zu veranlassen oder zu erleichtern. Der/Die Prozessor(en) 660 kann/können eine beliebige geeignete Verarbeitungseinheit beinhalten, die zum Aufnehmen von Daten als Eingabe, Verarbeiten der eingegebenen Daten gemäß gespeicherten computerausführbaren Anweisungen und Erzeugen von Ausgabedaten in der Lage ist. Der/die Prozessor(en) 660 kann/können eine beliebige Art von geeigneter Verarbeitungseinheit beinhalten.
  • Der Speicher 662 kann flüchtigen Speicher (Speicher, der seinen Zustand beibehält, wenn er mit Strom versorgt wird), wie etwa Direktzugriffsspeicher (RAM), und/oder nichtflüchtigen Speicher (Speicher, der seinen Zustand beibehält, auch wenn er nicht mit Strom versorgt wird), wie etwa Festwertspeicher (ROM), Flash-Speicher, ferroelektrischer RAM (FRAM) und so fort beinhalten. Dauerhafter Datenspeicher kann im hierin verwendeten Sinne des Ausdrucks nichtflüchtigen Speicher beinhalten. In gewissen Ausführungsbeispielen kann ein flüchtiger Speicher einen schnelleren Lese-/Schreibzugriff als ein nichtflüchtiger Speicher ermöglichen. In bestimmten anderen Ausführungsbeispielen können bestimmte Arten von nichtflüchtigem Speicher (z. B. FRAM) jedoch einen schnelleren Lese-/Schreibzugriff als bestimmte Arten von flüchtigem Speicher ermöglichen.
  • Es versteht sich ferner, dass der Server 600 alternative und/oder zusätzliche Hardware-, Software- oder Firmwarekomponenten beinhalten kann, die über die beschriebenen oder dargestellten hinausgehen, ohne vom Schutzumfang der Offenbarung abzuweichen.
  • Beispielhafte Ausführungsformen
  • In einigen Fällen können die folgenden Beispiele gemeinsam oder getrennt durch die in dieser Schrift beschriebenen Systeme und Verfahren umgesetzt sein.
  • Beispiel 1 kann eine Vorrichtung beinhalten, umfassend: mindestens eine Speichervorrichtung, die computerausführbare Anweisungen speichert, und mindestens einen Prozessor, der dazu konfiguriert ist, auf die mindestens eine Speichervorrichtung zuzugreifen, wobei der mindestens eine Prozessor dazu konfiguriert ist, die computerausführbaren Anweisungen auszuführen zum: Bestimmen mindestens eines ersten Klangs aus Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; Erzeugen eines zweiten Klangs basierend auf dem ersten Geräusch und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert, und Veranlassen, dass mindestens ein Teil des zweiten Klangs über einen Fahrgastraumlautsprecher abgespielt wird.
  • Beispiel 2 kann die Vorrichtung aus Beispiel 1 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Erzeugen des zweiten Klangs das Reduzieren des mit dem ersten Klang assoziierten Geräuschs um einen Betrag umfasst, der auf einer Benutzerpräferenz basiert.
  • Beispiel 3 kann die Vorrichtung aus Beispiel 1 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen des ersten Klangs Folgendes umfasst: Bestimmen einer Vielzahl von Klängen und jeweiligen Klangarten aus Umgebungsklängen; und Herausfiltern von Klängen mit vorbestimmten Klangarten aus den Umgebungsklängen.
  • Beispiel 4 kann die Vorrichtung aus Beispiel 3 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen der Klangarten das Zuweisen jeweiliger Prioritäten zu den Klängen umfasst, und wobei das Herausfiltern von Klängen ferner das Herausfiltern von Klängen umfasst, die Prioritäten unterhalb jeweiliger Schwellenwerte aufweisen.
  • Beispiel 5 kann die Vorrichtung aus Beispiel 1 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen der Standortinformationen das Durchführen von akustischer Trilateration unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikationen (Car2Car-Kommunikation) mit anderen Fahrzeugen umfasst, die dazu konfiguriert sind, Umgebungsklänge zu erfassen.
  • Beispiel 6 kann die Vorrichtung aus Beispiel 1 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen der Standortinformationen das Bestimmen einer Doppler-Verschiebung, die mit dem ersten Klängen assoziiert ist, umfasst.
  • Beispiel 7 kann die Vorrichtung aus Beispiel 1 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Veranlassen, dass mindestens der Teil des zweiten Klangs abgespielt wird, das Projizieren des zweiten Klangs umfasst, sodass der zweite Klang einen wahrgenommenen Standort hat, der ähnlich dem ersten Klang ist.
  • Beispiel 8 kann die Vorrichtung aus Beispiel 1 und/oder ein anderes Beispiel dieser Schrift beinhalten, ferner umfassend das Veranlassen, ein auf dem zweiten Klang basierendes Bild auf einer mit dem Fahrgastraum assoziierten Anzeige zu präsentieren.
  • Beispiel 9 kann die Vorrichtung aus Beispiel 1 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei die computerausführbaren Anweisungen ferner computerausführbare Anweisungen umfassen, um: mindestens ein Bild einer Umgebung außerhalb des Fahrgastraums zu erhalten; einen Notfallzustand basierend auf einer Analyse des Bilds zu bestimmen; zu veranlassen, den Teil des zweiten Klangs nicht mehr abzuspielen; und zu veranlassen, basierend auf dem Bild einen dritten Klang über den Lautsprecher abzuspielen.
  • Beispiel 10 kann ein Verfahren beinhalten, umfassend: Erfassen von Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs und Bestimmen mindestens eines ersten Klangs aus den Umgebungsklängen, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; und Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert.
  • Beispiel 11 kann das Verfahren aus Beispiel 10 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Erzeugen des zweiten Klangs das Reduzieren des mit dem ersten Klang assoziierten Geräuschs um einen Betrag umfasst, der auf einer Benutzerpräferenz basiert.
  • Beispiel 12 kann das Verfahren aus Beispiel 10 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen des ersten Klangs Folgendes umfasst: Bestimmen einer Vielzahl von Klängen und jeweiliger Klangarten aus Umgebungsklängen; und Herausfiltern von Klängen mit vorbestimmten Klangarten aus den Umgebungsklängen.
  • Beispiel 13 kann das Verfahren aus Beispiel 10 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen der Standortinformationen das Durchführen von akustischer Trilateration unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikationen (Car2Car-Kommunikation) mit anderen Fahrzeugen umfasst, die dazu konfiguriert sind, Umgebungsklänge zu erfassen.
  • Beispiel 14 kann das Verfahren aus Beispiel 10 und/oder ein anderes Beispiel dieser Schrift beinhalten, ferner umfassend das Veranlassen, ein auf dem zweiten Klang basierendes Bild auf einer mit dem Fahrgastraum assoziierten Anzeige zu präsentieren.
  • Beispiel 15 kann das Verfahren aus Beispiel 10 und/oder ein anderes Beispiel dieser Schrift beinhalten, ferner umfassend: Erhalten mindestens eines Bilds einer Umgebung außerhalb des Fahrgastraums; Bestimmen eines Zustands basierend auf einer Analyse des Bilds; Veranlassen, den Teil des zweiten Klangs nicht mehr abzuspielen; und Veranlassen, basierend auf dem Bild einen dritten Klang über den Lautsprecher abzuspielen.
  • Beispiel 16 kann ein nichttransitorisches computerlesbares Medium beinhalten, das computerausführbare Anweisungen speichert, die, wenn sie durch einen Prozessor ausgeführt werden, den Prozessor dazu veranlassen, Vorgänge durchzuführen, umfassend: Bestimmen mindestens eines ersten Klangs aus Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; und Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert.
  • Beispiel 17 kann das nichttransitorische computerlesbare Medium aus Beispiel 16 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Erzeugen des zweiten Klangs das Reduzieren des mit dem ersten Klang assoziierten Geräuschs um einen Betrag umfasst, der auf einer Benutzerpräferenz basiert.
  • Beispiel 18 kann das nichttransitorische computerlesbare Medium aus Beispiel 16 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen des ersten Klangs Folgendes umfasst: Bestimmen einer Vielzahl von Klängen und jeweiliger Klangarten aus Umgebungsklängen; und Herausfiltern von Klängen mit vorbestimmten Klangarten aus den Umgebungsklängen.
  • Beispiel 19 kann das nichttransitorische computerlesbare Medium aus Beispiel 16 und/oder ein anderes Beispiel dieser Schrift beinhalten, wobei das Bestimmen der Standortinformationen das Durchführen von akustischer Trilateration unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikationen (Car2Car-Kommunikation) mit anderen Fahrzeugen umfasst, die dazu konfiguriert sind, Umgebungsklänge zu erfassen.
  • Beispiel 20 kann das nichttransitorische computerlesbare Medium aus Beispiel 16 und/oder ein anderes Beispiel dieser Schrift beinhalten, ferner computerlesbare Anweisungen, um: mindestens ein Bild einer Umgebung außerhalb des Fahrgastraums zu erhalten; einen Zustand basierend auf einer Analyse des Bilds zu bestimmen; zu veranlassen, den Teil des zweiten Klangs nicht mehr abzuspielen; und zu veranlassen, basierend auf dem Bild einen dritten Klang über den Lautsprecher abzuspielen.
  • Obwohl konkrete Ausführungsformen der Offenbarung beschrieben wurden, wird der Durchschnittsfachmann erkennen, dass zahlreiche andere Modifikationen und alternative Ausführungsformen innerhalb des Umfangs der Offenbarung liegen. Beispielsweise können beliebige der Funktionen und/oder Verarbeitungsmöglichkeiten, die in Bezug auf eine konkrete Vorrichtung oder Komponente beschrieben wurden, durch eine beliebige andere Vorrichtung oder Komponente durchgeführt werden. Zudem wird der Durchschnittsfachmann, auch wenn verschiedene veranschaulichende Umsetzungen und Architekturen gemäß den Ausführungsformen der Offenbarung beschrieben wurden, anerkennen, dass zahlreiche andere Modifikationen an den veranschaulichenden Umsetzungen und Architekturen, die in der vorliegenden Schrift beschrieben sind, ebenfalls innerhalb des Umfangs der Offenbarung liegen.
  • Blöcke der Blockdiagramme und Ablaufdiagramme unterstützen Kombinationen von Mitteln zum Durchführen der angegebenen Funktionen, Kombinationen von Elementen oder Schritten zum Durchführen der angegebenen Funktionen und Programmanweisungsmittel zum Durchführen der angegebenen Funktionen. Es versteht sich zudem, dass jeder Block der Blockdiagramme und Ablaufdiagramme und Kombinationen aus Blöcken in den Blockdiagrammen und/oder Ablaufdiagrammen durch speziell dazu dienende hardwarebasierte Computersysteme, die die angegebenen Funktionen, Elemente oder Schritte durchführen, oder Kombinationen von speziell dazu dienender Hardware und Computeranweisungen, umgesetzt werden können.
  • Eine Softwarekomponente kann in einer beliebigen einer Vielzahl von Programmiersprachen kodiert sein. Eine veranschaulichende Programmiersprache kann eine niederrangige Programmiersprache sein, wie etwa eine Assembler-Sprache, die mit einer konkreten Hardwarearchitektur und/oder Betriebssystemplattform assoziiert ist. Eine Softwarekomponente, die Assembler-Sprachanweisungen umfasst, kann eine Umwandlung in ausführbaren Maschinencode durch einen Assembler vor Ausführung durch die Hardwarearchitektur und/oder Plattform erfordern.
  • Eine Softwarekomponente kann als eine Datei oder ein anderes Datenspeicherkonstrukt gespeichert sein. Softwarekomponenten einer ähnlichen Art oder verwandter Funktionalität können zusammen gespeichert sein, wie etwa beispielsweise in einem konkreten Verzeichnis, Ordner oder einer Programmbibliothek. Softwarekomponenten können statisch (zum Beispiel voreingestellt oder fest) oder dynamisch (zum Beispiel zum Zeitpunkt der Ausführung erstellt oder modifiziert) sein.
  • Softwarekomponenten können durch einen beliebigen einer großen Vielfalt von Mechanismen andere Softwarekomponenten aufrufen oder durch diese aufgerufen werden. Aufgerufene oder aufrufende Softwarekomponenten können weitere vom Kunden entwickelte Anwendungssoftware, Betriebssystemfunktionen (zum Beispiel Vorrichtungstreiber, Routinen der Datenspeicher (zum Beispiel Dateiverwaltung), andere übliche Routinen und Dienste usw.) oder Softwarekomponenten Dritter (zum Beispiel Middleware, Verschlüsselung oder andere Sicherheitssoftware, Datenbankverwaltungssoftware, Datentransfer- oder andere Netzkommunikationssoftware, mathematische oder statistische Software, Bildverarbeitungssoftware und Formatübersetzungssoftware) umfassen.
  • Softwarekomponenten, die mit einer konkreten Lösung oder einem konkreten System assoziiert sind, können auf einer einzelnen Plattform liegen und ausgeführt werden oder können über mehrere Plattformen verteilt sein. Die mehreren Plattformen können mit mehr als einem Hardwarehersteller, zugrundeliegender Chiptechnologie oder Betriebssystem assoziiert sein. Des Weiteren können Softwarekomponenten, die einer bestimmten Lösung oder einem bestimmten System zugeordnet sind, zunächst in einer oder mehreren Programmiersprachen geschrieben sein, aber Softwarekomponenten aufrufen, die in anderen Programmiersprachen geschrieben sind.
  • Die computerausführbaren Programmanweisungen können in einen Spezialcomputer oder eine andere konkrete Maschine, einen Prozessor oder andere programmierbare Datenverarbeitungsvorrichtung geladen werden, um eine konkrete Maschine zu erzeugen, sodass die Ausführung der Anweisungen auf dem Computer, dem Prozessor oder der anderen programmierbaren Datenverarbeitungsvorrichtung veranlasst, dass eine oder mehrere Funktionen oder ein oder mehrere Vorgänge, die in den Ablaufdiagrammen angegeben sind, durchgeführt werden. Diese Computerpogrammanweisungen können auch in einem computerlesbaren Speichermedium (computer-readable storage medium - CRSM) gespeichert sein, das einen Computer oder eine andere programmierbare Datenverarbeitungsvorrichtung anweisen kann, in einer bestimmten Weise zu funktionieren, sodass die in dem computerlesbaren Speichermedium gespeicherten Anweisungen einen Fertigungsgegenstand mit Anweisungsmitteln erzeugen, der eine oder mehrere Funktionen oder einen oder mehrere Vorgänge, die in den Ablaufdiagrammen angegeben sind, umsetzt. Die Computerprogrammanweisungen können zudem in einen Computer oder eine andere programmierbare Datenverarbeitungsvorrichtung geladen werden, um zu veranlassen, dass eine Reihe von funktionsfähigen Elementen oder Schritten auf dem Computer oder der anderen programmierbaren Vorrichtung durchgeführt wird, um einen computerimplementierten Prozess herzustellen.
  • Auch wenn die Ausführungsformen in für Strukturmerkmale oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass die Offenbarung nicht notwendigerweise auf die beschriebenen spezifischen Merkmale oder Handlungen beschränkt ist. Die spezifischen Merkmale und Handlungen werden vielmehr als veranschaulichende Formen der Umsetzung der Ausführungsformen offenbart. Konditionalsprache, wie etwa unter anderem „kann“, „könnte“, „würde“ oder „möchte“, soll, sofern nicht spezifisch anders angegeben oder im verwendeten Kontext anders zu verstehen, allgemein vermitteln, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte umfassen könnten, während andere Ausführungsformen diese nicht umfassen. Somit soll solche Sprache, die konditionale Zusammenhänge ausdrückt, im Allgemeinen nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind oder dass eine oder mehrere Ausführungsformen unbedingt Logik beinhalten, die mit oder ohne Eingabe oder Aufforderung durch einen Benutzer entscheidet, ob diese Merkmale, Elemente und/oder Schritte in einer beliebigen konkreten Ausführungsform enthalten oder durchzuführen sind.
  • Gemäß der vorliegenden Erfindung, ist ein nichttransitorisches computerlesbares Medium, das computerausführbare Anweisungen speichert, die, wenn sie durch einen Prozessor ausgeführt werden, den Prozessor dazu veranlassen, Vorgänge durchzuführen, bereitgestellt, aufweisend: Bestimmen mindestens eines ersten Klangs aus Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; und Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert.
  • Gemäß einer Ausführungsform umfasst das Erzeugen des zweiten Klangs das Reduzieren des mit dem ersten Klang assoziierten Geräuschs um einen Betrag, der auf einer Benutzerpräferenz basiert.
  • Gemäß einer Ausführungsform umfasst das Bestimmen des ersten Klangs: Bestimmen einer Vielzahl von Klängen und jeweiliger Klangarten aus Umgebungsklängen; und Herausfiltern von Klängen mit vorbestimmten Klangarten aus den Umgebungsklängen.
  • Gemäß einer Ausführungsform umfasst das Bestimmen der Standortinformationen Durchführen von akustischer Trilateration unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikationen (Car2Car-Kommunikation) mit anderen Fahrzeugen, die dazu konfiguriert sind, Umgebungsklänge zu erfassen.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch computerlesbare Anweisungen, um: mindestens ein Bild einer Umgebung außerhalb des Fahrgastraums zu erhalten; einen Zustand basierend auf einer Analyse des Bilds zu bestimmen; zu veranlassen, den Teil des zweiten Klangs nicht mehr abzuspielen; und zu veranlassen, basierend auf dem Bild einen dritten Klang über den Lautsprecher abzuspielen.

Claims (15)

  1. Vorrichtung, umfassend: mindestens eine Speichervorrichtung, die computerausführbare Anweisungen speichert; und mindestens einen Prozessor, der dazu konfiguriert ist, auf die mindestens eine Speichervorrichtung zuzugreifen, wobei der mindestens eine Prozessor dazu konfiguriert ist, die computerausführbaren Anweisungen auszuführen zum: Bestimmen mindestens eines ersten Klangs aus Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert; und Veranlassen, dass mindestens ein Teil des zweiten Klangs über einen Fahrgastraumlautsprecher abgespielt wird.
  2. Vorrichtung nach Anspruch 1, wobei das Erzeugen des zweiten Klangs das Reduzieren des mit dem ersten Klang assoziierten Geräuschs um einen Betrag umfasst, der auf einer Benutzerpräferenz basiert.
  3. Vorrichtung nach Anspruch 1, wobei das Bestimmen des ersten Klangs Folgendes umfasst: Bestimmen einer Vielzahl von Klängen und jeweiliger Klangarten aus den Umgebungsklängen; und Herausfiltern von Klängen mit vorbestimmten Klangarten aus den Umgebungsklängen.
  4. Vorrichtung nach Anspruch 3, wobei das Bestimmen der Klangarten das Zuweisen jeweiliger Prioritäten zu den Klängen umfasst, und wobei das Herausfiltern von Klängen ferner das Herausfiltern von Klängen umfasst, die Prioritäten unterhalb jeweiliger Schwellenwerte aufweisen.
  5. Vorrichtung nach Anspruch 1, wobei das Bestimmen der Standortinformationen das Durchführen von akustischer Trilateration unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikationen (Car2Car-Kommunikation) mit anderen Fahrzeugen umfasst, die dazu konfiguriert sind, Umgebungsklänge zu erfassen.
  6. Vorrichtung nach Anspruch 1, wobei das Bestimmen der Standortinformationen das Bestimmen einer Doppler-Verschiebung, die mit dem ersten Klang assoziiert ist, umfasst.
  7. Vorrichtung nach Anspruch 1, wobei das Veranlassen, dass mindestens der Teil des zweiten Klangs abgespielt wird, das Projizieren des zweiten Klangs umfasst, sodass der zweite Klang einen wahrgenommenen Standort hat, der ähnlich dem ersten Klang ist.
  8. Vorrichtung nach Anspruch 1, ferner umfassend das Veranlassen, ein auf dem zweiten Klang basierendes Bild auf einer mit dem Fahrgastraum assoziierten Anzeige zu präsentieren.
  9. Vorrichtung nach Anspruch 1, wobei die computerausführbaren Anweisungen ferner computerausführbare Anweisungen umfassen, um: mindestens ein Bild einer Umgebung außerhalb des Fahrgastraums zu erhalten; einen Notfallzustand basierend auf einer Analyse des Bilds zu bestimmen; zu veranlassen, den Teil des zweiten Klangs nicht mehr abzuspielen; und zu veranlassen, basierend auf dem Bild einen dritten Klang über den Lautsprecher abzuspielen.
  10. Verfahren, umfassend: Erfassen von Umgebungsklängen außerhalb eines Fahrgastraums eines Fahrzeugs und Bestimmen mindestens eines ersten Klangs aus den Umgebungsklängen, wobei der Fahrgastraum dazu konfiguriert ist, eine Lautstärke der Umgebungsklänge unter einen Schwellenwert zu reduzieren; Bestimmen von Standortinformationen, umfassend eine Richtung und eine Entfernung des ersten Klangs in Bezug auf das Fahrzeug; und Erzeugen eines zweiten Klangs basierend auf dem ersten Klang und den Standortinformationen, der ein spektrales Merkmal des ersten Klangs reproduziert.
  11. Verfahren nach Anspruch 10, wobei das Erzeugen des zweiten Klangs das Reduzieren des mit dem ersten Klang assoziierten Geräuschs um einen Betrag umfasst, der auf einer Benutzerpräferenz basiert.
  12. Verfahren nach Anspruch 10, wobei das Bestimmen des ersten Klangs Folgendes umfasst: Bestimmen einer Vielzahl von Klängen und jeweiliger Klangarten aus den Umgebungsklängen; und Herausfiltern von Klängen mit vorbestimmten Klangarten aus den Umgebungsklängen.
  13. Verfahren nach Anspruch 10, wobei das Bestimmen der Standortinformationen das Durchführen von akustischer Trilateration unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikationen (Car2Car-Kommunikation) mit anderen Fahrzeugen umfasst, die dazu konfiguriert sind, Umgebungsklänge zu erfassen.
  14. Verfahren nach Anspruch 10, ferner umfassend das Veranlassen, ein auf dem zweiten Klang basierendes Bild auf einer mit dem Fahrgastraum assoziierten Anzeige zu präsentieren.
  15. Verfahren nach Anspruch 10, ferner umfassend: Erhalten mindestens eines Bilds einer Umgebung außerhalb des Fahrgastraums; Bestimmen eines Zustands basierend auf einer Analyse des Bilds; Veranlassen, den Teil des zweiten Klangs nicht mehr abzuspielen; und Veranlassen, basierend auf dem Bild einen dritten Klang über den Lautsprecher abzuspielen.
DE102020113756.7A 2019-05-21 2020-05-20 Systeme und verfahren zur akustischen steuerung eines fahrzeuginnenraums Pending DE102020113756A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/418,849 US10755691B1 (en) 2019-05-21 2019-05-21 Systems and methods for acoustic control of a vehicle's interior
US16/418,849 2019-05-21

Publications (1)

Publication Number Publication Date
DE102020113756A1 true DE102020113756A1 (de) 2020-11-26

Family

ID=72140777

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020113756.7A Pending DE102020113756A1 (de) 2019-05-21 2020-05-20 Systeme und verfahren zur akustischen steuerung eines fahrzeuginnenraums

Country Status (3)

Country Link
US (1) US10755691B1 (de)
CN (1) CN111986640A (de)
DE (1) DE102020113756A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200333429A1 (en) * 2017-12-29 2020-10-22 Ubicquia Iq Llc Sonic pole position triangulation in a lighting system
DE102021119125B3 (de) 2021-07-23 2022-10-27 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Elektrisch oder teilelektrisch angetriebenes Fahrzeug mit einer Einrichtung zur aktiven Klanggestaltung
DE102022103057B3 (de) 2022-02-09 2023-05-11 Cariad Se Verfahren zum Bereitstellen einer Geräuschunterdrückungsfunktion in einem Kraftfahrzeug und Kraftfahrzeug

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD950587S1 (en) * 2018-08-31 2022-05-03 Zoox, Inc. Display screen or portion thereof having a graphical user interface
US11100346B2 (en) * 2018-12-26 2021-08-24 Here Global B.V. Method and apparatus for determining a location of a shared vehicle park position
KR20200143965A (ko) * 2019-06-17 2020-12-28 현대자동차주식회사 음향 통신 시스템 및 그의 데이터 송수신 방법
US20210097727A1 (en) * 2019-09-27 2021-04-01 Audio Analytic Ltd Computer apparatus and method implementing sound detection and responses thereto
JP2023548675A (ja) * 2020-11-18 2023-11-20 グーグル エルエルシー ナビゲーションセッション中の運転イベント音の検出と処理
US11722820B2 (en) * 2021-03-01 2023-08-08 Tymphany Worldwide Enterprises Limited Reproducing directionality of external sound in an automobile
US11768283B2 (en) 2021-05-03 2023-09-26 Waymo Llc Sound source distance estimation
GB2614539B (en) * 2022-01-05 2024-05-08 Sony Interactive Entertainment Inc Content generation system and method
US11914914B2 (en) 2022-04-29 2024-02-27 Ford Global Technologies, Llc Vehicle interface control
CN115104142A (zh) * 2022-05-16 2022-09-23 广东逸动科技有限公司 一种船舶报警方法、装置、电子设备及存储介质
JP2023179143A (ja) * 2022-06-07 2023-12-19 トヨタ自動車株式会社 異音の発生要因特定方法、及び異音の発生要因特定装置
US11691632B1 (en) * 2022-12-06 2023-07-04 Mercedes-Benz Group AG Vehicle simulating method and system
CN117571184B (zh) * 2024-01-17 2024-03-19 四川省公路规划勘察设计研究院有限公司 一种基于滑窗和聚类分析的桥梁结构索力识别方法及设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102481878A (zh) * 2009-09-10 2012-05-30 先锋株式会社 噪音降低设备
US9368096B2 (en) * 2011-12-20 2016-06-14 Texas Instruments Incorporated Method and system for active noise cancellation according to a type of noise
DE102014226026A1 (de) 2014-12-16 2016-06-16 Continental Automotive Gmbh Fahrassistenzsystem zur Erfassung eines Ereignisses im Umfeld außerhalb eines Fahrzeugs
JP6653957B2 (ja) * 2016-01-13 2020-02-26 アルパイン株式会社 電子装置、ノイズ低減プログラムおよびノイズ低減方法
US10403141B2 (en) 2016-08-19 2019-09-03 Sony Corporation System and method for processing traffic sound data to provide driver assistance
US10275662B1 (en) * 2016-09-30 2019-04-30 Zoox, Inc. Estimating friction based on image data
KR101892028B1 (ko) 2016-10-26 2018-08-27 현대자동차주식회사 음향 추적 정보 제공 방법, 차량용 음향 추적 장치, 및 이를 포함하는 차량
US20180335503A1 (en) 2017-05-19 2018-11-22 Magna Electronics Inc. Vehicle system using mems microphone module
US10210756B2 (en) 2017-07-24 2019-02-19 Harman International Industries, Incorporated Emergency vehicle alert system
KR102465970B1 (ko) 2017-08-11 2022-11-10 삼성전자주식회사 주변 상황에 기초하여 음악을 재생하는 방법 및 장치
US10424176B2 (en) * 2017-09-27 2019-09-24 Harman International Industries, Incorporated AMBER alert monitoring and support
US10629081B2 (en) * 2017-11-02 2020-04-21 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for backup assistance in a vehicle
US11475351B2 (en) * 2017-11-15 2022-10-18 Uatc, Llc Systems and methods for object detection, tracking, and motion prediction
DE112019001605T5 (de) * 2018-03-27 2020-12-17 Nvidia Corporation Trainieren, testen und verifizieren von autonomen maschinen unter verwendung simulierter umgebungen

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200333429A1 (en) * 2017-12-29 2020-10-22 Ubicquia Iq Llc Sonic pole position triangulation in a lighting system
DE102021119125B3 (de) 2021-07-23 2022-10-27 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Elektrisch oder teilelektrisch angetriebenes Fahrzeug mit einer Einrichtung zur aktiven Klanggestaltung
DE102022103057B3 (de) 2022-02-09 2023-05-11 Cariad Se Verfahren zum Bereitstellen einer Geräuschunterdrückungsfunktion in einem Kraftfahrzeug und Kraftfahrzeug

Also Published As

Publication number Publication date
US10755691B1 (en) 2020-08-25
CN111986640A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
DE102020113756A1 (de) Systeme und verfahren zur akustischen steuerung eines fahrzeuginnenraums
DE102020104360A1 (de) Fahrzeug mit externem audio-lautsprecher und mikrofon
DE102018121595B4 (de) Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen
US20190369391A1 (en) Three dimensional augmented reality involving a vehicle
DE102018125713A1 (de) Identifikation von Audiosignalen in umgebenden Tönen und Führung eines autonomen Fahrzeugs als Reaktion darauf
CN107806884A (zh) 用于车辆导航的水深检测
DE102017113135A1 (de) Fußgängerwarnsystem
DE102016118902A1 (de) Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten
DE102019120461A1 (de) Verfahren und system zur bewertung einer fehlerhaften bedrohungserfassung
DE102018117708A1 (de) Implementierungsentscheidung zum bereitstellen einer adas-funktionsaktualisierung für ein fahrzeug
DE102013204798A1 (de) Umgebungsinformationsmitteilungsvorrichtung
US11282383B1 (en) Deploying an emergency vehicle
US20210325901A1 (en) Methods and systems for automated driving system monitoring and management
DE102020100736A1 (de) Betrieb eines akustischen wandlers eines fahrzeugs
DE102020131859A1 (de) Proaktive objektfusion in echtzeit zur objektverfolgung
DE112017005228T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
KR20210082321A (ko) 인공지능형 모빌리티 디바이스 제어 방법 및 인공지능형 모빌리티를 제어하는 지능형 컴퓨팅 디바이스
CN110115024A (zh) 图像处理装置、图像处理方法和程序
WO2020120754A1 (en) Audio processing device, audio processing method and computer program thereof
DE102019114578A1 (de) Wahrnehmungsunsicherheitsmodellierung aus tatsächlichen wahrnehmungssystemen für autonomes fahren
EP3595331A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
CN111191980A (zh) 一种证据的生成方法、装置、设备及存储介质
DE102017105762A1 (de) System und verfahren für die virtuelle umwandlung von standard- oder nicht-verbundenen fahrzeugen
DE112021001660T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahrenund computerprogramm
DE102022127739A1 (de) Intelligente fahrzeugsysteme und steuerlogik für die vorhersage von vorfällen und die unterstützung bei fahrten im gelände

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE