DE102016114413A1 - Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum - Google Patents

Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum Download PDF

Info

Publication number
DE102016114413A1
DE102016114413A1 DE102016114413.4A DE102016114413A DE102016114413A1 DE 102016114413 A1 DE102016114413 A1 DE 102016114413A1 DE 102016114413 A DE102016114413 A DE 102016114413A DE 102016114413 A1 DE102016114413 A1 DE 102016114413A1
Authority
DE
Germany
Prior art keywords
vehicle
information
systems
sensors
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016114413.4A
Other languages
English (en)
Inventor
Axel Torschmied
Alexander van Laack
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Priority to DE102016114413.4A priority Critical patent/DE102016114413A1/de
Priority to US15/669,511 priority patent/US20180041854A1/en
Publication of DE102016114413A1 publication Critical patent/DE102016114413A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers without distortion of the input signal
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/32Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/16Automatic control
    • H03G5/165Equalizers; Volume or gain control in limited frequency bands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Abstract

Die Erfindung betrifft eine Vorrichtung zur Erzeugung von objektabhängigen Audiodaten umfassend eine Vielzahl von Fahrerassistenzsystemen und deren Sensoren (2), eine Datenbank (19) mit Audiodaten, einen objektbasierten Audiomanager (17), einen Renderer (22) und eine Vielzahl von Lautsprechern (11), wobei die Vielzahl von Fahrerassistenzsystemen und/oder deren Sensoren (2), mit dem objektbasierten Audiomanager (17) im Datenaustausch stehen, wobei der objektbasierte Audiomanager (17) mit dem Renderer (22) im Datenaustausch steht und wobei der Renderer (22) mit den Lautsprechern (11) verbunden ist.

Description

  • Die Erfindung betrifft ein Vorrichtung zur Erzeugung von objektabhängigen Audiodaten.
  • Des Weiteren betrifft die Erfindung ein Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum.
  • Fahrzeuge weisen heutzutage eine Vielzahl von Fahrerassistenzsystemen (Advanced Driver Assistance Systems – ADAS) und deren Sensoren auf, die einem Fahrer beim Fahren unterstützen und ihn vor Gefahren warnen. Da fast alle ADAS-Informationen visuell dargestellt werden, ist der visuelle Kanal mit Informationen überladen. Durch die Flut von Informationen wird die Konzentration des Fahrers beeinträchtigt, da die Vielzahl der Bildschirme und Warnleuchten den Fahrer von der Beobachtung des Geschehens um das Fahrzeug herum ablenken.
  • Bisher werden nur im geringen Umfang Geräusche verwendet, um den Fahrer über Gefahrensituationen zu informieren. So ist aus der DE 10 2014 221 301 A1 ein System bekannt, bei dem ein Audiopanorama mit Mikrophonen aufgenommen und zur Anzeige des Vorliegens von Gefahren oder anderen interessierenden Ereignissen einem Benutzer angezeigt wird.
  • Die Aufgabe der Erfindung besteht daher darin, ohne zusätzliche Sensoren am Fahrzeug, dem Fahrer eines Fahrzeuges Informationen über in der Umgebung des Fahrzeuges vorhandene bewegliche und statische Objekte oder sonstige Warnmeldungen akustisch zu vermitteln.
  • Die Aufgabe der vorliegenden Erfindung wird durch eine Vorrichtung, beziehungsweise eine akustische Mensch-Maschine-Schnittstelle (MMI), zur Erzeugung von objektabhängigen Audiodaten gelöst, umfassend eine Vielzahl von Fahrerassistenzsystemen und deren Sensoren, eine Datenbank mit Audiodaten, einen objektbasierten Audiomanager, einen Renderer (ein Mehrkanaltonsystem) und eine Vielzahl von Lautsprechern, wobei die Vielzahl von Fahrerassistenzsystemen und/oder deren Sensoren mit der Datenbank und dem objektbasierten Audiomanager im Datenaustausch stehen, wobei der objektbasierte Audiomanager mit dem Renderer im Datenaustausch steht und wobei der Renderer mit den Lautsprechern verbunden ist.
  • Vorteil dieser Vorrichtung ist, dass auf bereits bestehende Fahrerassistenzsysteme und deren Sensoren zugegriffen wird, so dass der Einbau von weiteren Sensoren nicht notwendig ist. Im Fahrzeug bereits vorhandene Sensordaten/ADAS-Informationen zur Erzeugung von objektbasierten Audioausgaben können so genutzt werden.
  • Dabei kann jedes detektierte Objekt als räumliches Klangobjekt, basierend auf der Verwendung objektbasierter Audiotechnologie, erzeugt werden.
  • Hierbei wird ein „objektbasiertes Audio“ genutzt, um dem Benutzer eine gerichtete Wahrnehmung der Audio-Signale zu ermöglichen.
  • Um das volle Potential zu nutzen, sollte das audiobasierte System innerhalb des Fahrzeuges möglichst gut mit andern Geräten vernetzt sein, mit Zugang zu allen Fahrzeug- und Sensormodulen, um die notwendigen Informationen für die Erzeugung einer erweiterten Realität zu erhalten.
  • Die Vorrichtung stellt ein objektbasiertes Audiosystem dar, das der Erfassung der Umwelt über Sensoren und deren richtungs- und abstandsrichtigen Wiedergabe im Fahrzeuginnenraum dient.
  • Die Vielzahl von Fahrzeugassistenzsystemen und/oder deren Sensoren, die Datenbank und der objektbasierte Audiomanager stehen vorzugsweise mit einem Effektgerät und einem Equalizer im Datenaustausch.
  • Die Fahrerassistenzsysteme und deren Sensoren sind vorzugsweise ausgewählt aus der Gruppe umfassend V2X-Kommunikationssysteme, wie Fahrzeug-Fahrzeug-Kommunikationssysteme (V2V-Kommunikationssysteme) und Fahrzeug-Infrastruktur-Kommunikationssysteme (V2I-Kommunikationssysteme), Abstandssensoren, Mikrofone, Kommunikationssysteme (beispielsweise Mobilfunksysteme und drahtlose Kommunikationssysteme) für die Kommunikation zwischen mehreren Fahrzeugen, Positionsbestimmungssysteme, Ortsbestimmungssysteme, wie beispielsweise GPS, (Video-)Kamerasysteme, Ultraschallsysteme, Laserentfernungsmesssysteme, Radarsysteme und Navigationssysteme.
  • Die Sensoren sind vorzugsweise in oder an einem Fahrzeug angeordnet, so dass sie die gesamte oder zumindest den für den Fahrer relevanten Teil der Umgebung des Fahrzeuges abdecken.
  • In einer bevorzugten Ausführungsform der Erfindung sind die Lautsprecher im Innenraum eines Fahrzeugs angeordnet.
  • Die objektbasierten Sounds, die durch die Vielzahl der Lautsprecher ausgebbar sind, sind vorzugsweise auf Basis einer Wellenfeldsynthese erzeugbar.
  • In einer weiteren bevorzugten Ausführungsform der Erfindung sind die Lautsprecher in den Kopfstützen eines Fahrzeugsitzes angeordnet.
  • Die objektbasierten Sounds, die durch Lautsprecher in den Kopfstützen eines Fahrzeugsitzes ausgebbar sind, sind vorzugsweise binaural erzeugbar.
  • Eine Ausführungsform, bei der die Lautsprecher in den Kopfstützen eines Fahrzeugsitzes angeordnet sind, ermöglicht es nur einer bestimmten Person oder nur einem bestimmten Personenkreis von Insassen die objektbasierten Audiosignale (Sounds) zu übermitteln, während bei anderen Anordnungsmöglichkeiten der Lautsprecher, beispielsweise durch eine Vielzahl von Lautsprechern, die im Innenraum eines Fahrzeuges, wie der Verkleidung des Fahrzeuginnenraumes oder dem Fahrzeugdach, angeordnet sind, die objektbasierten Audiosignale so wiedergegeben werden, dass alle Fahrzeuginsassen sie hören können. Ein Algorithmus im Audiogenerator bestimmt, ob die ausgegebenen Informationen und/oder Warnungen allen oder nur einem eingeschränkten Personenkreis beziehungsweise nur einer Person im Fahrzeuginnenraum wiedergegeben werden.
  • Der Renderer ist vorzugsweise ein objektbasiertes Audiosystem, das Wellenfelder erzeugt, so das ein räumlicher Klangeindruck beim Fahrer und/oder weiteren Fahrzeuginsassen im Fahrzeuginnenraum erzeugt wird. Die so erhaltene objektbezogene Audioausgabe enthält Informationen über die Position eines Objekts und dessen Geschwindigkeit und Richtung oder über Betriebszustände des Fahrzeuges. Je nach Art des Objektes können aber auch weitere Informationen über das Objekt ausgegeben werden. Die Objekte können dabei dynamisch zwischen den Lautsprechern erstellt werden. Dies erfolgt durch eine Vielzahl von Lautsprechern, die an verschiedenen Positionen im Fahrzeuginnenraum angeordnet sind.
  • Des Weiteren wird die Erfindung durch ein Verfahren der eingangs genannten Art gelöst, bei dem Informationen und Warnsignale, die von Fahrerassistenzsystemen und/oder deren Sensoren stammen, von einem objektbasierten Audiogenerator, der mit einer Datenbank mit Audiodaten im Datenaustausch steht, zu objektbasierten Sounds (Tönen) verarbeitet und diese durch im Innenraum des Fahrzeuges angeordnete Lautsprecher, durch Superposition der Signale (Summensignale), wiedergegeben werden.
  • Ein Algorithmus erstellt die Klangobjekte während der Laufzeit und siedelt sie als innerhalb oder außerhalb des Fahrzeuges, abhängig vom vorliegenden Anwendungsfall der Sound-Augmentation, an. Um eine möglichst optimale Sound-Augmentation zu erzielen, werden Wellenfeldsynthesen- oder binaurale Algorithmen verwendet.
  • Dabei werden Sounds (Töne/akustische Signale) und Geräusche so wiedergegeben, dass der Fahrer das Gefühl hat, sie kämen tatsächlich von einem Objekt (z.B. einem anderen Verkehrsteilnehmer). Dabei werden die von der Position der objektbasierten Sounds (Töne) im Raum ausgehenden Wellenfronten berechnet und entsprechend über Lautsprecher im Fahrzeuginnenraum wiedergegeben. Hierbei werden tatsächliche und künstliche (oder reale) Sounds (Töne) mit der Position und Geschwindigkeit anderer Objekte überlagert. Die Position einer Gefahr außerhalb des Fahrzeuges wird bestimmt und der Sound (Ton) genau auf diese Position gelegt, so dass es sich für den Fahrer und alle anderen Insassen anhört als käme der Sound von diesem Objekt.
  • Dabei wird auf interne Systeme zugegriffen, die die Position von Hindernissen oder anderen Verkehrsteilnehmern mitteilen und diese als akkurate Raumwiedergabe im Fahrzeuginneren wiedergeben.
  • Erfindungsgemäß sind Sounds akustische Signale in Form von Tönen, Geräuschen, Stimmen, etc.
  • Informationen und Warnsignale, die von Fahrerassistenzsystemen und/oder deren Sensoren stammen, werden vorzugsweise von einem Effektgerät und einem Equalizer, der mit der Datenbank mit Audiodaten im Datenaustausch steht, zu objektbasierten Sounds verarbeitet und an den objektbasierten Audiomanager weitergeleitet.
  • Die Informationen und Warnsignale umfassen vorzugsweise Positionsangaben des Fahrzeuges oder eines anderen Fahrzeuges, Navigationsangaben, Informationen von Verkehrszeichen, Verkehrswarnsignale, lokalen Diensten, Spurinformationen, mit dem Fahrzeug verbundenen Diensten, Fahrzeuginformationen, Serviceinformationen, Abstandsangaben zu anderen beweglichen oder ortsgebundenen Objekten, Informationen über andere Fahrzeuge innerhalb einer ausgewählten Gruppe von Fahrzeugen und Sprachinformationen der Fahrer innerhalb der ausgewählten Gruppe von Fahrzeugen.
  • Außerdem ist auch eine Soundmodulation basierend auf Fahrzeugparametern in diesem Zusammenhang denkbar. Beispielsweise um den Fahrer zu warnen, dass Betriebsstoffe nachgefüllt werden müssen, Defekte vorliegen, der Reifendruck nicht optimal ist oder sonstige Störungen am Fahrzeug vorliegen.
  • Die Informationen und Warnsignale werden vorzugsweise über einen Renderer (beziehungsweise ein Mehrkanaltonsystem), der eine Vielzahl von Lautsprechern aufweist, im Innenraum des Fahrzeuges wiedergegeben, so dass eine objektbezogene Audioausgabe erfolgt, die Informationen über die Position des Objekts und dessen Geschwindigkeit und Richtung beinhaltet.
  • In einer bevorzugten Ausführungsform der Erfindung werden die objektbasierten Sounds, die durch die Vielzahl der Lautsprecher ausgegeben werden, auf Basis einer Wellenfeldsynthese erzeugt. Hierzu sind im Fahrzeuginnenraum, zum Beispiel der Fahrzeuginnenraumverkleidung oder dem Fahrzeugdach, eine Anzahl von Lautsprechern angeordnet.
  • In einer weiteren bevorzugten Ausführungsform der Erfindung werden die objektbasierten Sounds binaural durch Lautsprecher in den Kopfstützen eines Fahrzeugsitzes ausgegeben.
  • Weitere Einzelheiten, Merkmale und Vorteile von Ausgestaltungen der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Beispielen mit Bezugnahme auf die zugehörigen Figuren. Im Einzelnen zeigt
  • 1 ein Fließschema des Verfahrens zur Erzeugung von objektabhängigen Audiodaten eines Fahrzeuges,
  • 2 eine schematische Darstellung der Positionen von Objekten und deren Bewegung außerhalb eines Fahrzeuges in Bezug auf das Fahrzeug,
  • 3 eine schematische Darstellung der Positionen von Objekten und deren Bewegung außerhalb eines Fahrzeuges in Bezug auf den Fahrer des Fahrzeuges beziehungsweise einen Fahrzeuginsassen,
  • 4 eine schematische Darstellung eines Fahrzeuges mit Lautsprechern,
  • 5 eine schematische Darstellung der Anordnung von Lautsprechern an einem Fahrzeugsitz und
  • 6 eine schematische Darstellung einer Vorrichtung zur Erzeugung von objektabhängigen Audiodaten.
  • 1 zeigt ein Fließschema des Verfahrens zur Erzeugung objektabhängiger Audiodaten in einem Fahrzeug 1, bei dem zunächst auf bereits in Fahrzeugassistenzsystemen des Fahrzeuges 1 vorhandene Daten zugegriffen wird oder durch deren Sensoren 2 die Umgebung des Fahrzeuges 1 detektiert und identifiziert wird (A). Räumliche Informationen, wie Position, Geschwindigkeit und Richtung, werden ermittelt (B). Außerdem können Umfeldinformationen, wie Art des Objekts, Sound (des Objekts), ermittelt werden (C). Anschließend werden aus den in den Schritten B und C ermittelten Daten virtuelle Soundobjekte in einem Audio-MMI-Erzeuger erstellt (D) und diese virtuellen Soundobjekte werden in Bezug zu dem realen Objekt erstellt/gerendert (Position und Umfeld) (E). Die so gewonnenen Audiohinweise werden räumlich im Fahrzeuginneren mit einer Vielzahl von Lautsprechern, durch Wellenfeldsynthese, oder binaural mit Lautsprechern an den Kopfstützen 12 des Fahrersitzes 3, abgespielt (F).
  • 2 zeigt eine schematische Darstellung der Datenermittlung außerhalb des Fahrzeuges 1. Der Kreis um das Fahrzeug 1 stellt die Sensorreichweite 4 dar. Innerhalb der Sensorreichweite 4 befinden sich zwei reale dynamische Objekte 5 in der Umgebung, deren Typ, Position, Geschwindigkeit und Richtung (in der 2 verdeutlicht durch die Pfeile 6) bestimmt werden. Durch einen weiteren Pfeil 7 wird die Richtung des Fahrzeuges 1 dargestellt.
  • In der Anwendung eines Kopfstützeneinbaus wird um die Fahrersitze 3 ein persönlicher Audiobereich 8 für Informationen und/oder Warnungen (beziehungsweise virtuelle MMI-Sounds) gebildet. In diesem persönlichen Audiobereich 8 werden nur Informationen und/oder Warnungen wiedergegeben, die sich an einen bestimmten Fahrzeuginsassen, beispielsweise den Fahrer, richten, der auf dem Sitz 3 innerhalb des persönlichen Audiobereichs 8 sitzt.
  • Alternativ werden die objektbasierten Sounds (beziehungsweise Informationen), die mittels Wellenfeldsynthese erzeugt werden, im Fahrzeuginnenraum für alle Fahrzeuginsassen zur Verfügung gestellt.
  • Informationen und/oder Warnungen (beziehungsweise virtuelle MMI-Sounds), die sich an alle Fahrzeuginsassen richten, werden innerhalb eines Innenraum-Audiobereichs 9 wiedergegeben.
  • Die Vorrichtung zur Erzeugung von ortsabhängigen Audiodaten kann somit Informationen und/oder Warnungen direkt an einen Fahrzeuginsassen oder an alle Fahrzeuginsassen übermitteln, je nachdem welcher Audiobereich angesteuert wird (persönlicher Audiobereich 8 oder Innenraum-Audiobereich 9).
  • In der 3 ist ein Benutzer 10, beispielsweise der Fahrer, innerhalb des persönlichen Bereichs 8 dargestellt. Über Lautsprecher 11 an seiner Kopfstütze 12 werden virtuelle dynamische Objekte 13 wiedergegeben, die dem Benutzer 10 objektbasierte (objektabhängige) Sounds (Töne) der Objekte 5 mit Informationen über Art, Geschwindigkeit und Richtung der Objekte 5 vermitteln. Die Audiowiedergabe erfolgt dabei beispielsweise binaural.
  • In der 4 ist eine schematische Darstellung eines Fahrzeuges 1 gezeigt.
  • In dem Fahrzeug 1 ist eine Vielzahl von Lautsprechern 11 zur Wiedergabe virtueller dynamischer Objekte 13 und damit von Daten über die Art, Geschwindigkeit und Richtung von durch Sensoren 2 ermittelte Objekte 5 außerhalb des Fahrzeuges 1, angeordnet. Die virtuellen dynamischen Objekte 13 werden dabei beispielsweise durch Wellenfeldsynthese (WFS) erzeugt.
  • In der 5 wird ein Sitz 3 mit einer Audiokopfstütze gezeigt, bei der in eine Kopfstütze 12 Lautsprecher 11 integriert sind.
  • In der 6 ist eine Vorrichtung zur Erzeugung von objektabhängigen Audiodaten schematisch dargestellt. Das MMI-System 14 umfasst einen objektbasierenden Audiomanager 17 in dem ein Effektgerät und ein Equalizer 16 (Audio FX) und ein Audioobjektkontrollmodul 15 angeordnet sind, der Sounds plaziert und parametrisiert, wobei das Effektgerät und der Equalizer 16 digitale Audiodaten aus einer Vielzahl von Audioquellen 18 und mindestens einer (Audio-)Datenbank 19 empfangen. Des Weiteren empfängt der objektbasierte Audiomanager 17 Metadaten von einem OBA-Kontrollmodul 20 (objektbasiertes Audio – OBA), das mit einem MMI-Server und einem ADAS-Zugangsmodul (Advanced Driver Assistance System) verbunden ist, wobei die von den Sensoren 2 ermittelten ADAS-Daten 21 an das ADAS-Zugangsmodul übermittelt werden.
  • Das OBA-Kontrollmodul 20 steht mit der Datenbank 19, dem Effektgerät/Equalizer 16 und dem Audioobjektkontrollmodul 15, beziehungsweise mit dem objektbasierten Audiogenerator 17 im (Meta-)Datenaustausch.
  • Der objektbasierte Audiomanager 17 liefert digitale Audiodaten an einen Renderer 22, der eine Vielzahl von Lautsprechern 11 steuert und im (Meta-)Datenaustausch mit dem objektbasierten Audiomanager 17 steht. In den Renderer 22 gehen Daten über die Parameter des Aufbaus der Lautsprecher 11 und die Architektur des Raumes (beziehungsweise des Fahrzeuginnenraumes) ein.
  • Jedes durch die Sensoren des Fahrzeuges 1 detektierte Objekt 5 kann unter Verwendung einer objektbasierten Audiotechnologie als räumliches Soundobjekt dargestellt werden.
  • Als Eingangssignal dienen Signal und Metadaten, die als reproduziertes Audiosignal der virtuellen Schallquelle ausgegeben werden.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    (Fahrzeug-)Sensor
    3
    (Fahrer-)Sitz
    4
    Sensorreichweite
    5
    Objekt
    6
    Pfeil
    7
    Pfeil
    8
    persönlicher Audiobereich
    9
    Innenraum-Audiobereich
    10
    Benutzer
    11
    Lautsprecher
    12
    Kopfstütze
    13
    virtuelles dynamisches Objekt
    14
    MMI-System
    15
    Audioobjektkontrollmodul
    16
    Effektgerät und Equalizer
    17
    objektbasierter Audiomanager
    18
    Audioquelle
    19
    (Audio-)Datenbank
    20
    Kontrollmodul
    21
    ADAS-Daten
    22
    Renderer
    A
    Fahrzeugsensoren detektieren und identifizieren die Umgebung
    B
    Ermitteln von räumlichen Informationen (Position, Geschwindigkeit, Richtung)
    C
    Ermitteln von Umfeldinformationen (Art des Objekts, Sound)
    D
    virtuelle Soundobjekte werden in einem Audio-MMI-Erzeuger erstellt
    E
    virtuelle Soundobjekte werden in Bezug zu dem realen Objekt erstellt/gerendert (Position und Umfeld)
    F
    Audiohinweise werden räumlich an den Kopfstützen abgespielt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014221301 A1 [0004]

Claims (14)

  1. Vorrichtung zur Erzeugung von objektabhängigen Audiodaten umfassend eine Vielzahl von Fahrerassistenzsystemen und deren Sensoren (2), eine Datenbank (19) mit Audiodaten, einen objektbasierten Audiomanager (17), einen Renderer (22) und eine Vielzahl von Lautsprechern (11), wobei die Vielzahl von Fahrerassistenzsystemen und/oder deren Sensoren (2) mit der Datenbank (19) und dem objektbasierten Audiomanager (17) im Datenaustausch stehen, wobei der objektbasierte Audiomanager (17) mit dem Renderer (22) im Datenaustausch steht und wobei der Renderer (22) mit den Lautsprechern (11) verbunden ist.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Vielzahl von Fahrzeugassistenzsystemen und/oder deren Sensoren (2), die Datenbank (19) und der objektbasierte Audiomanager (17) mit einem Effektgerät und einem Equalizer (16) im Datenaustausch stehen.
  3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Fahrerassistenzsysteme und deren Sensoren (2) ausgewählt sind aus der Gruppe umfassend Fahrzeug-Fahrzeug-Kommunikationssysteme, Fahrzeug-Infrastruktur-Kommunikationssysteme, Abstandssensoren, Mikrofone, Kommunikationssysteme, Positionsbestimmungssysteme, Ortsbestimmungssysteme, Kamerasysteme, Ultraschallsysteme, Laserentfernungsmesssysteme, Radarsysteme und Navigationssysteme.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Sensoren (2) in oder an einem Fahrzeug (1) angeordnet sind.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Lautsprecher (11) im Innenraum eines Fahrzeugs (1) angeordnet sind.
  6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die objektbasierten Sounds, die durch die Vielzahl der Lautsprecher (11) ausgebbar sind, auf Basis einer Wellenfeldsynthese erzeugbar sind.
  7. Vorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Lautsprecher (11) in den Kopfstützen (12) eines Fahrzeugsitzes (3) angeordnet sind.
  8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die objektbasierten Sounds, die durch die Lautsprecher (11) in den Kopfstützen (12) eines Fahrzeugsitzes (3) ausgebbar sind, binaural erzeugbar sind.
  9. Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum, dadurch gekennzeichnet, dass Informationen und Warnsignale, die von Fahrerassistenzsystemen und/oder deren Sensoren (2) stammen, von einem objektbasierten Audiogenerator (17), der mit einer Datenbank (19) mit Audiodaten im Datenaustausch steht, zu objektbasierten Sounds verarbeitet und durch im Innenraum des Fahrzeuges (1) angeordnete Lautsprecher (11) wiedergegeben werden.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass Informationen und Warnsignale, die von Fahrerassistenzsystemen und/oder deren Sensoren (2) stammen, von einem Effektgerät und einem Equalizer (16), der mit einer Datenbank (19) mit Audiodaten im Datenaustausch steht, zu objektbasierten Sounds verarbeitet und an den objektbasierten Audiomanager (17) weitergeleitet werden.
  11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Informationen und Warnsignale Positionsangaben des Fahrzeuges (1) oder eines anderen Fahrzeuges, Navigationsangaben, Informationen von Verkehrszeichen, Verkehrswarnsignale, lokalen Diensten, Spurinformationen, mit dem Fahrzeug (1) verbundenen Diensten, Fahrzeuginformationen, Serviceinformationen, Abstandsangaben zu anderen beweglichen oder ortsgebundenen Objekten, Informationen über andere Fahrzeuge innerhalb einer ausgewählten Gruppe von Fahrzeugen und Sprachinformationen der Fahrer innerhalb der ausgewählten Gruppe von Fahrzeugen umfassen.
  12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass die Informationen und Warnsignale über einen Renderer (22) im Innenraum des Fahrzeuges (1) wiedergegeben werden.
  13. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass die objektbasierten Sounds, die durch die Vielzahl der Lautsprecher (11) ausgegeben werden, auf Basis einer Wellenfeldsynthese erzeugt werden.
  14. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass die objektbasierten Sounds binaural durch Lautsprecher (11) in den Kopfstützen (12) eines Fahrzeugsitzes (3) ausgegeben werden.
DE102016114413.4A 2016-08-04 2016-08-04 Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum Ceased DE102016114413A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016114413.4A DE102016114413A1 (de) 2016-08-04 2016-08-04 Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum
US15/669,511 US20180041854A1 (en) 2016-08-04 2017-08-04 Device for creation of object dependent audio data and method for creating object dependent audio data in a vehicle interior

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016114413.4A DE102016114413A1 (de) 2016-08-04 2016-08-04 Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum

Publications (1)

Publication Number Publication Date
DE102016114413A1 true DE102016114413A1 (de) 2018-03-22

Family

ID=61069698

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016114413.4A Ceased DE102016114413A1 (de) 2016-08-04 2016-08-04 Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum

Country Status (2)

Country Link
US (1) US20180041854A1 (de)
DE (1) DE102016114413A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7155991B2 (ja) * 2018-12-17 2022-10-19 トヨタ自動車株式会社 報知装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011083770A1 (de) 2011-09-29 2013-04-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur rechnergestützten Verarbeitung des Nahfeldes eines Fahrzeugs
DE102014221301A1 (de) 2013-10-21 2015-04-23 Harman International Industries, Inc. Modifizieren eines Audiopanoramas zur Anzeige des Vorliegens von Gefahr oder anderer interessierender Ereignisse
DE102014222076A1 (de) 2014-10-29 2016-05-04 Robert Bosch Gmbh Objektmerkmale auf Signalform codiert
GB2534163A (en) 2015-01-14 2016-07-20 Jaguar Land Rover Ltd Vehicle interface device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2689792B2 (ja) * 1991-10-30 1997-12-10 日産自動車株式会社 立体音場警報装置
US8892356B1 (en) * 2003-06-19 2014-11-18 Here Global B.V. Method and system for representing traffic signals in a road network database
JP4423114B2 (ja) * 2004-06-02 2010-03-03 アルパイン株式会社 ナビゲーション装置およびその交差点案内方法
US20070015485A1 (en) * 2005-07-14 2007-01-18 Scosche Industries, Inc. Wireless Media Source for Communication with Devices on Data Bus of Vehicle
US20080288406A1 (en) * 2007-05-16 2008-11-20 The Marketing Store Worldwide Llc System and method for telematic marketing
KR100943215B1 (ko) * 2007-11-27 2010-02-18 한국전자통신연구원 음장 합성을 이용한 입체 음장 재생 장치 및 그 방법
JP4557054B2 (ja) * 2008-06-20 2010-10-06 株式会社デンソー 車載用立体音響装置
US9165196B2 (en) * 2012-11-16 2015-10-20 Intel Corporation Augmenting ADAS features of a vehicle with image processing support in on-board vehicle platform
JP2016120892A (ja) * 2014-12-25 2016-07-07 富士通株式会社 立体物検出装置、立体物検出方法および立体物検出プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011083770A1 (de) 2011-09-29 2013-04-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur rechnergestützten Verarbeitung des Nahfeldes eines Fahrzeugs
DE102014221301A1 (de) 2013-10-21 2015-04-23 Harman International Industries, Inc. Modifizieren eines Audiopanoramas zur Anzeige des Vorliegens von Gefahr oder anderer interessierender Ereignisse
DE102014222076A1 (de) 2014-10-29 2016-05-04 Robert Bosch Gmbh Objektmerkmale auf Signalform codiert
GB2534163A (en) 2015-01-14 2016-07-20 Jaguar Land Rover Ltd Vehicle interface device

Also Published As

Publication number Publication date
US20180041854A1 (en) 2018-02-08

Similar Documents

Publication Publication Date Title
WO2021023667A1 (de) System und verfahren zur unterstützung von selektivem hören
DE102013204798A1 (de) Umgebungsinformationsmitteilungsvorrichtung
DE112015006772T5 (de) System und Verfahren für Geräuschrichtungsdetektion in einem Fahrzeug
DE102018107756A1 (de) Systeme zum ausgeben eines warnsignals von einem fahrzeug, um in der nähe befindliche entitäten zu warnen
EP2255359B1 (de) Vorrichtung und verfahren zur akustischen anzeige
CN107985225A (zh) 提供声音追踪信息的方法、声音追踪设备及具有其的车辆
DE112013005844B4 (de) Fahrunterstützungseinrichtung
DE102014221301A1 (de) Modifizieren eines Audiopanoramas zur Anzeige des Vorliegens von Gefahr oder anderer interessierender Ereignisse
DE102014223881B4 (de) Warnsystem für ein Fahrzeug, Verfahren zum Betreiben eines Warnsystems
DE102016221646A1 (de) Verbesserte Geräuscherzeugung für leise Fahrzeuge
WO2014032886A1 (de) Multisensuelle aufmerksamkeitslenkung
DE102018209962A1 (de) Privataudiosystem für ein 3D-artiges Hörerlebnis bei Fahrzeuginsassen und ein Verfahren zu dessen Erzeugung
DE102014226026A1 (de) Fahrassistenzsystem zur Erfassung eines Ereignisses im Umfeld außerhalb eines Fahrzeugs
DE102009057981B4 (de) Verfahren zur Steuerung der akustischen Wahrnehmbarkeit eines Fahrzeugs
DE102016103331A1 (de) Vorrichtung und Verfahren zur Wiedergabe von Audiosignalen in einem Kraftfahrzeug
DE102012218482A1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102015223223A1 (de) Verfahren zur Anpassung der Geräuschemission eines Fahrzeugs
DE102017204895A1 (de) Verfahren und Vorrichtung zum Unterhalten eines Nutzers eines Fahrzeugs
DE102017100628A1 (de) System und Verfahren zum Bereitstellen einer personenbezogenen Audiowiedergabe
EP4189974A2 (de) System und verfahren zur kopfhörerentzerrung und raumanpassung zur binauralen wiedergabe bei augmented reality
DE102015015130A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102020213185A1 (de) Unterstützung eines Fahrers bei der Wahrnehmung von Außengeräuschen
DE102021110593A1 (de) Systeme und Verfahren für die Erfassung und Wiedergabe der äußeren Umgebung
DE102016114413A1 (de) Vorrichtung zur Erzeugung von objektabhängigen Audiodaten und Verfahren zur Erzeugung von objektabhängigen Audiodaten in einem Fahrzeuginnenraum
DE102018211127A1 (de) Audioeinrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Audioeinrichtung für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

R003 Refusal decision now final
R011 All appeals rejected, refused or otherwise settled