DE102010030534A1 - Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion - Google Patents

Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion Download PDF

Info

Publication number
DE102010030534A1
DE102010030534A1 DE102010030534A DE102010030534A DE102010030534A1 DE 102010030534 A1 DE102010030534 A1 DE 102010030534A1 DE 102010030534 A DE102010030534 A DE 102010030534A DE 102010030534 A DE102010030534 A DE 102010030534A DE 102010030534 A1 DE102010030534 A1 DE 102010030534A1
Authority
DE
Germany
Prior art keywords
audio
directional function
scene
metadata
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102010030534A
Other languages
English (en)
Inventor
Frank Melchior
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IOSONO GmbH
Original Assignee
IOSONO GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IOSONO GmbH filed Critical IOSONO GmbH
Priority to DE102010030534A priority Critical patent/DE102010030534A1/de
Priority to EP11743965.3A priority patent/EP2596648B1/de
Priority to EP13174950.9A priority patent/EP2648426B1/de
Priority to PCT/EP2011/003122 priority patent/WO2011160850A1/en
Priority to KR1020137021384A priority patent/KR101435016B1/ko
Priority to KR1020137001875A priority patent/KR101507901B1/ko
Priority to CN201180031607.0A priority patent/CN103109549B/zh
Priority to CN201310379633.3A priority patent/CN103442325B/zh
Publication of DE102010030534A1 publication Critical patent/DE102010030534A1/de
Priority to US13/722,568 priority patent/US9402144B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image

Abstract

Eine Vorrichtung zum Verändern einer Audioszene umfasst einen Richtungsbestimmer und eine Audioszenenbearbeitungsvorrichtung. Die Audioszene weist wenigstens ein Audioobjekt auf, das ein Audiosignal und zugehörige Metadaten umfasst. Der Richtungsbestimmer bestimmt eine Richtung einer Position des Audioobjekts bezüglich eines Bezugspunktes basierend auf den Metadaten des Audioobjekts. Des Weiteren bearbeitet die Audioszenenbearbeitungsvorrichtung das Audiosignal, ein von dem Audiosignal abgeleitetes, verarbeitetes Audiosignal oder die Metadaten des Audioobjekts basierend auf einer festgelegten Richtungsfunktion und der bestimmten Richtung der Position des Audioobjekts.

Description

  • Ausführungsbeispiele gemäß der Erfindung beziehen sich auf die Bearbeitung von Audioszenen und insbesondere auf eine Vorrichtung und ein Verfahren zum Verändern einer Audio-Szene und auf eine Vorrichtung und ein Verfahren zum Erzeugen einer Richtungsfunktion.
  • Der Herstellungsprozess von Audioinhalt besteht aus drei wichtigen Schritten: Aufzeichnen, Mischen und Mastering. Während des Aufzeichnungsprozesses werden die Musiker aufgezeichnet und eine große Anzahl von separaten Audiodateien wird erzeugt. Um ein Format zu erzeugen, das verbreitet werden kann, werden diese Audiodaten in ein Standardformat kombiniert, so wie z. B. Stereo oder 5.1 Surround. Während des Mischprozesses sind eine große Anzahl von Verarbeitungsvorrichtungen beteiligt, um die gewünschten Signale zu erzeugen, die über ein gegebenes Lautsprechersystem abgespielt werden. Nach dem Mischen der Signale der Musiker können diese nicht mehr getrennt oder separat verarbeitet werden. Der letzte Schritt ist das Mastering des Endaudiodatenformats. Bei diesem Schritt wird der Gesamteindruck eingestellt, oder wenn mehrere Quellen für ein einzelnes Medium kompiliert werden (z. B. CD), werden während dieses Schrittes die Eigenschaften der Quellen untereinander abgestimmt.
  • In dem Kontext einer kanalbasierten Audiorepräsentation ist das Mastering eine Verarbeitung, die die Endaudiosignale für die unterschiedlichen Lautsprecher aufbereitet. Im Vergleich dazu wird bei dem vorangehenden Herstellungsschritt des Mischens eine große Anzahl von Audiosignalen verarbeitet und editiert, um eine lautsprecherbasierte Wiedergabe bzw. Darstellung zu erreichen, z. B. links und rechts. Auf der Mastering-Stufe werden nur die zwei Signale links und rechts verarbeitet. Dieser Prozess ist wichtig, um das Gesamtgleichgewicht oder die Frequenzverteilung des Inhalts einzustellen.
  • In dem Kontext einer objektbasierten Szenendarstellung werden die Lautsprechersignale auf der Wiedergabeseite erzeugt. Dies bedeutet, ein Master im Hinblick auf Lautsprecheraudiosignale existiert nicht. Trotzdem ist der Herstellungsschritt des Mastering erforderlich, um den Inhalt anzupassen und zu optimieren.
  • Es existieren verschiedene Audio-Effekt-Verarbeitungsschemata, die ein Merkmal eines Audiosignals extrahieren und die Verarbeitungsstufe unter Verwendung dieses Merkmals modifizieren. In „Dynamic Panner: An Adaptive Digital Audio Effect for Spatical Audio, Morrell, Martin; Reis, Joshua presented at the 127th AES Cenvention, 2009” ist ein Verfahren zum automatischen Panning (das akustische Platzieren eines Klangs in der Ausdioszene) von Audiodaten unter Verwendung des extrahierten Merkmals beschrieben. Die Merkmale werden dabei aus dem Audiostrom extrahiert. Ein anderer spezifischer Effekt dieser Art wurde in „Concept, Design, and Implementation of a Genreal Dynamic Parametric Equalizer, Wise, Duane K., JAES Volume 57 Issue ½ pp. 16–28; Januar 2009” veröffentlicht. In diesem Fall wird ein Equalizer durch Merkmale gesteuert, die aus einem Audiostrom extrahiert sind. Im Hinblick auf die objektbasierte Szenenbeschreibung wurden ein System und ein Verfahren in „System and method for transmitting/receiving object-based audio, Patent application US 2007/0101249 ” veröffentlicht. Bei diesem Dokument wurde eine komplette Inhaltskette für eine objektbasierte Szenenbeschreibung offenbart. Eine dedizierte Mastering-Verarbeitung ist z. B. in ”Multichannel surround sound mastering and reproduction techniques that preserve spatial harmonics in three dimensions, Patent application US2005/0141728 ” offenbart. Bei dieser Patentanmeldung ist die Anpassung einer Anzahl von Audioströmen an ein gegebenes Lautsprecherlayout durch Einstellen der Verstärkungen der Lautsprecher und der Matrix der Signale beschrieben.
  • Allgemein ist eine flexible Bearbeitung, insbesondere von objektbasierten Audioinhalten wünschenswert, um Audioszenen zu verändern oder Audioeffekte zu erzeugen, zu bearbeiten oder zu verstärken.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein verbessertes Konzept zum Verändern von Audioszenen zu schaffen, das es ermöglicht, die Flexibilität und/oder die Geschwindigkeit der Bearbeitung von Audioszenen zu erhöhen und/oder den Aufwand zur Bearbeitung von Audioszenen zu reduzieren.
  • Diese Aufgabe wird durch eine Vorrichtung gemäß Anspruch 1 oder ein Verfahren gemäß Anspruch 15 gelöst.
  • Ein Ausführungsbeispiel gemäß der Erfindung schafft eine Vorrichtung zum Verändern einer Audioszene, die einen Richtungsbestimmer und eine Audioszenebearbeitungsvorrichtung aufweist. Die Audioszene umfasst wenigstens ein Audioobjekt, das ein Audiosignal und die zugehörigen Metadaten aufweist. Der Richtungsbestimmer ist ausgelegt, um eine Richtung der Position des Audioobjekts bezüglich eines Bezugspunktes basierend auf den Metadaten des Audioobjekts zu bestimmen. Des Weiteren ist die Audioszenenbearbeitungsvorrichtung ausgelegt, um das Audiosignal, ein von dem Audiosignal abgeleitetes, verarbeitetes Audiosignal oder die Metadaten des Audioobjekts basierend auf einer festgelegten Richtungsfunktion und der bestimmten Richtung der Position des Audioobjekts zu bearbeiten.
  • Ausführungsbeispiele gemäß der Erfindung basieren auf dem Kerngedanken, eine Audioszene richtungsabhängig bezüglich eines Bezugspunktes basierend auf einer Richtungsfunktion zu verändern, um eine schnelle, unkomplizierte und flexible Bearbeitung solcher Audioszenen zu ermöglichen. Dazu wird zuerst aus den Metadaten eine Richtung einer Position des Audioobjekts bezüglich des Bezugspunktes ermittelt. Basierend auf der ermittelten Richtung kann die Richtungsfunktion (z. B. richtungsabhängige Verstärkung oder Unterdrückung) auf einen zu verändernden Parameter der Metadaten, auf das Audiosignal oder auf ein von dem Audiosignal abgeleitetes, verarbeitetes Audiosignal angewendet werden. Die Nutzung einer Richtungsfunktion ermöglicht eine flexible Bearbeitung der Audioszene. Im Vergleich zu bekannten Methoden kann die Anwendung einer Richtungsfunktion schneller und/oder mit geringerem Aufwand realisiert werden.
  • Einige Ausführungsbeispiele gemäß der Erfindung beziehen sich auf eine Vorrichtung zum Erzeugen einer Richtungsfunktion, die eine graphische Benutzerschnittstelle und einen Richtungsfunktionsbestimmer aufweist. Die graphische Benutzerschnittstelle umfasst eine Mehrzahl von Eingabeknöpfen, die bezüglich eines Referenzpunktes in unterschiedlichen Richtungen angeordnet sind. Ein Abstand jedes Eingabeknopfes der Mehrzahl von Eingabeknöpfen von dem Referenzpunkt ist individuell einstellbar. Des Weiteren legt der Abstand eines Eingabeknopfes von dem Referenzpunkt einen Wert der Richtungsfunktion in der Richtung des Eingabeknopfes fest. Ferner ist der Richtungsfunktionsbestimmer ausgelegt, um basierend auf den Abständen der Mehrzahl von Eingabeknöpfen von dem Referenzpunkt die Richtungsfunktion zu erzeugen, so dass eine physikalische Größe von der Richtungsfunktion beeinflussbar ist.
  • Optional kann die Vorrichtung zum Erzeugen einer Richtungsfunktion auch einen Modifizierer aufweisen, der die physikalische Größe, basierend auf der Richtungsfunktion modifiziert.
  • Weitere Ausführungsbeispiele gemäß der Erfindung beziehen sich auf eine Vorrichtung zum Verändern einer Audioszene mit einer Vorrichtung zum Erzeugen einer Richtungsfunktion. Die Vorrichtung zum Erzeugen einer Richtungsfunktion legt dabei die Richtungsfunktion für die Audioszenenbearbeitungsvorrichtung der Vorrichtung zum Verändern einer Audioszene fest.
  • Ausführungsbeispiele gemäß der Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert. Es zeigen:
  • 1 ein Blockdiagramm einer Vorrichtung zum Verändern einer Audioszene;
  • 2a, 2b, 2c weitere Blockdiagramme von Vorrichtungen zum Verändern einer Audioszene;
  • 3 ein Blockdiagramm einer weiteren Vorrichtung zum Verändern einer Audioszene;
  • 4 ein Blockdiagramm einer Vorrichtung zum Verändern einer Audioszene;
  • 5 eine schematische Darstellung einer Vorrichtung zum Erzeugen einer Richtungsfunktion;
  • 6 eine schematische Darstellung einer graphischen Benutzerschnittstelle;
  • 7 ein Beispiel für Azimut-abhängige Parameterwertinterpolation;
  • 8 ein Flussdiagramm eines Verfahrens zum Verändern einer Audioszene; und
  • 9 ein Flussdiagramm einer Vorrichtung zum Erzeugen einer Richtungsfunktion.
  • Im Folgenden werden teilweise für Objekte und Funktionseinheiten, die gleiche oder ähnliche funktionelle Eigenschaften aufweisen, gleiche Bezugszeichen verwendet. Des Weiteren können optionale Merkmale der verschiedenen Ausführungsbeispiele miteinander kombinierbar oder zueinander austauschbar sein.
  • 1 zeigt ein Blockdiagramm einer Vorrichtung 100 zum Verändern einer Audioszene, entsprechend eines Ausführungsbeispiels gemäß der Erfindung. Die Audioszene umfasst wenigstens ein Audioobjekt, das ein Audiosignal 104 und zugehörige Metadaten 102 aufweist. Die Vorrichtung 100 zum Verändern einer Audioszene umfasst einen Richtungsbestimmer 110 verbunden mit einer Audioszenebearbeitungsvorrichtung 120. Der Richtungsbestimmer 110 bestimmt eine Richtung 112 einer Position des Audioobjekts bezüglich eines Bezugspunktes basierend auf den Metadaten 102 des Audioobjekts. Des Weiteren bearbeitet die Audioszenenbearbeitungsvorrichtung 120 das Audiosignal 104, ein von dem Audiosignal 104 abgeleitetes, verarbeitetes Audiosignal 106 oder die Metadaten 102 des Audioobjekts basierend einer festgelegten Richtungsfunktion 108 und der bestimmten Richtung 112 der Position des Audioobjekts.
  • Durch die Bearbeitung des Audiosignals 104, eines von dem Audiosignal 104 abgeleiteten, verarbeiteten Audiosignals 106 oder der Metadaten 102 des Audioobjekts basierend auf der festgelegten Richtungsfunktion 108 kann eine sehr flexible Möglichkeit zur Veränderung der Audioszene realisiert werden. Beispielsweise kann bereits durch eine Festlegung von wenigen Punkten der Richtungsfunktion und optional Interpolation von Zwischenpunkten eine deutliche Richtungsabhängigkeit beliebiger Parameter des Audioobjekts erreicht werden. Dementsprechend kann eine schnelle Verarbeitung unter geringem Aufwand mit hoher Flexibilität erreicht werden.
  • Die Metadaten 102 des Audioobjekts können z. B. Parameter für eine zweidimensionale oder dreidimensionale Positionsbestimmung (z. B. kartesische Koordinaten oder Polarkoordinaten eines zweidimensionalen oder dreidimensionalen Koordinatensystems) enthalten. Der Richtungsbestimmer 110 kann basierend auf diesen Positionsparametern eine Richtung bestimmen, in der das Audioobjekt bezüglich des Bezugspunktes bei einer Wiedergabe durch eine Lautsprecheranordnung lokalisiert ist. Der Bezugspunkt kann beispielsweise eine Referenzhörerposition oder allgemein der Nullpunkt des den Positionsparametern zugrundeliegenden Koordinatensystems sein. Alternativ können die Metadaten 102 die Richtung des Audioobjekts bezüglich eines Bezugspunkts bereits enthalten, sodass der Richtungsbestimmer 110 diese nur aus den Metadaten 102 extrahieren muss und optional auf einen anderen Bezugspunkt abbilden kann. Ohne eine Beschränkung der Allgemeinheit wird im Folgenden von einer zweidimensionalen Positionsbeschreibung des Audioobjekts durch die Metadaten ausgegangen.
  • Die Audioszenenbearbeitungsvorrichtung 120 verändert die Audioszene, basierend auf der festgelegten Richtungsfunktion 108 und der bestimmten Richtung 112 der Position des Audioobjekts. Dabei definiert die Richtungsfunktion 108 z. B. für unterschiedliche Richtungen einer Position eines Audioobjekts einen Gewichtungsfaktor, der angibt, wie stark das Audiosignal 104, ein von dem Audiosignal 104 abgeleitetes, verarbeitetes Audiosignal 106 oder ein Parameter der Metadaten 102 des Audioobjekts, das sich in der bestimmten Richtung bezüglich des Bezugspunktes befindet, verändert wird. Zum Beispiel kann die Lautstärke von Audioobjekten richtungsabhängig geändert werden. Dazu kann entweder das Audiosignal 104 des Audioobjekts und/oder ein Lautstärkeparameter der Metadaten 102 des Audioobjekts verändert werden. Alternativ können auch bereits aus dem Audiosignal des Audioobjekts erzeugte Lautsprechersignale, die von dem Audiosignal 104 abgeleiteten, verarbeiteten Audiosignale 106 entsprechen, verändert werden. In anderen Worten, ein von dem Audiosignal 104 abgeleitetes, verarbeitetes Audiosignal 106 kann jegliches Audiosignal sein, das durch Verarbeitung des ursprünglichen Audiosignals 104 erhalten wird. Beispielsweise kann es sich dabei um Lautsprechersignale handeln, die basierend auf dem Audiosignal 104 und den dazugehörigen Metadaten 102 erzeugt wurden, oder um Signale, die als Zwischenstufen zur Erzeugung der Lautsprechersignale generiert wurden. Die Bearbeitung durch die Audioszenenbearbeitungsvorrichtung 120 kann also vor, während oder nach dem Audio-Rendering (Audioaufbereitung, Erzeugung von Lautsprechersignalen der Audioszene) erfolgen.
  • Die festgelegte Richtungsfunktion 108 kann von einem Speichermedium (z. B. in Form einer Lookup-Table (Nachschlagtabelle)) oder von einer Benutzerschnittstelle bereitgestellt werden.
  • Passend zu den erwähnten Möglichkeiten der Bearbeitung von Audioszenen zeigen die 2a, 2b und 2c Blockdiagramme von Vorrichtungen 200, 202, 204 zum Verändern einer Audioszene als Ausführungsbeispiele. Dabei weist jede Vorrichtung 200, 202, 204 zum Verändern der Audioszene neben dem Richtungsbestimmer 110 und der Audioszenenbearbeitungsvorrichtung 120 einen Kontrollsignalbestimmer 210 auf. Der Kontrollsignalbestimmer 210 (auch Steuersignalbestimmer genannt) bestimmt zur Steuerung der Audioszenenbearbeitungsvorrichtung 120 ein Kontrollsignal 212, basierend auf der bestimmten Position 112 und der festgelegten Richtungsfunktion 108. Der Richtungsbestimmer 110 ist mit dem Kontrollsignalbestimmer 210 verbunden und der Kontrollsignalbestimmer 210 ist mit der Audioszenenbearbeitungsvorrichtung 120 verbunden.
  • In 2a ist eine Blockvorrichtung einer Vorrichtung 200 zum Verändern einer Audioszene gezeigt, bei der die Audioszenenbearbeitungsvorrichtung 120 einen Metadatenmodifizierer 220 aufweist, der einen Parameter der Metadaten 102 des Audioobjekts, basierend auf dem Kontrollsignal 212 verändert. Dadurch wird eine modifizierte Szenenbeschreibung in Form von geänderten Metadaten 222 erzeugt, die von einem herkömmlichen Audio-Renderer (Audioaufbereitungsvorrichtung) verarbeitet werden kann, um Lautsprechersignale zu erzeugen. Dadurch kann die Audioszene unabhängig von der späteren Audioverarbeitung verändert werden. Das Kontrollsignal 212 kann dazu z. B. dem neuen Parameterwert entsprechen, der gegen den alten Parameterwert in den Metadaten 102 ausgetauscht wird, oder das Kontrollsignal 212 kann einen Gewichtungsfaktor entsprechen, der mit dem ursprünglichen Parameter multipliziert oder zu dem ursprünglichen Parameter addiert (oder subtrahiert) wird.
  • Der Richtungsbestimmter 110 kann basierend auf den Positionsparametern der Metadaten 102 die Richtung der Position des Audioobjekts berechnen. Alternativ können die Metadaten 102 bereits einen Richtungsparameter enthalten, so dass der Richtungsbestimmer 110 diesen nur aus den Metadaten 102 extrahieren muss. Gegebenenfalls kann der Richtungsbestimmer 110 auch berücksichtigen, dass sich die Metadaten 102 möglicherweise auf einen anderen Bezugspunkt als die Vorrichtung 100 zum Verändern einer Audioszene bezieht.
  • Alternativ kann eine Vorrichtung 202 zum Verändern einer Audioszene eine Audioszenenbearbeitungsvorrichtung mit einem Audiosignalmodifizierer 230 aufweisen, wie es in 2b gezeigt ist. In diesem Fall werden nicht die Metadaten 102 des Audioobjekts, sondern das Audiosignal 104 des Audioobjekts verändert. Der Audiosignalmodifzierer 230 verändert dazu das Audiosignal 104 basierend auf dem Kontrollsignal 212. Das bearbeitete Audiosignal 224 kann dann wiederum mit den zugehörigen Metadaten 102 des Audioobjekts von einem herkömmlichen Audio-Renderer verarbeitet werden, um Lautsprechersignale zu erzeugen. Beispielsweise kann durch das Kontrollsignal 212 die Lautstärke des Audiosignals 104 skaliert werden oder das Audiosignal 104 frequenzabhängig bearbeitet werden.
  • Allgemein kann durch eine frequenzabhängige Bearbeitung in durch die festgelegte Richtungsfunktion 108 bestimmten Richtungen hohe oder niedrige Frequenzen oder ein vordefiniertes Frequenzband verstärkt oder gedämpft werden. Dazu kann die Audioszenenbearbeitungsvorrichtung 120 beispielsweise ein Filter aufweisen, das basierend auf der festgelegten Richtungsfunktion 108 und der Richtung 112 des Audioobjekts seine Filtercharakteristik ändert.
  • Alternativ können beispielsweise sowohl die Metadaten 102 des Audioobjekts als auch das Audiosignal 104 des Audioobjekts bearbeitet werden. In anderen Worten, die Audioszenenbearbeitungsvorrichtung 120 kann einen Metadatenmodifzierer 220 und einen Audiosignalmodifizierer 230 umfassen.
  • Eine weitere Möglichkeit ist in 2c gezeigt. Die Vorrichtung 204 zum Verändern einer Audioszene umfasst eine Audioszenenbearbeitungsvorrichtung 240, die basierend auf dem Audiosignal 104 des Audioobjekts, den Metadaten 102 des Audioobjekts und dem Kontrollsignal 212 eine Mehrzahl von Lautsprechersignalen 226 zur Wiedergabe der veränderten Audioszene durch eine Lautsprecheranordnung erzeugt. In diesem Zusammenhang kann die Audioszenenbearbeitungsvorrichtung 240 auch als Audio-Renderer (Audioaufbereitungsvorrichtung) bezeichnet werden. Das Verändern der Audioszene erfolgt dabei während oder nach der Erzeugung der Lautsprechersignale. In anderen Worten, es wird ein von dem Audiosignal 104 abgeleitetes, verarbeitetes Audiosignal in Form der Lautsprechersignale oder in Form eines zur Erzeugung der Lautsprechersignale verwendeten Zwischensignals oder Hilfssignals bearbeitetet.
  • In diesem Beispiel kann die Audioszenenbearbeitungsvorrichtung 120 beispielsweise ein Mehrkanal-Renderer, ein Wellenfeldsynthese-Renderer oder ein Binaural-Renderer sein.
  • Das beschriebene Konzept kann somit vor, während oder nach Erzeugung der Lautsprechersignale für eine Wiedergabe durch eine Lautsprecheranordnung zur Veränderung der Audioszene angewandt werden. Dies unterstreicht die Flexibilität des beschriebenen Konzepts.
  • Des Weiteren kann durch das vorgeschlagene Konzept sowohl jedes Audioobjekt der Audioszene individuell richtungsabhängig bearbeitet werden, als auch eine szenenübergreifende Bearbeitung aller Audioobjekte der Audioszene oder aller Audioobjekte einer Audioobjektgruppe der Audioszene erfolgen. Eine Aufteilung der Audioobjekte in Audioobjektgruppen kann beispielsweise durch einen eigens dafür vorgesehenen Parameter in den Metadaten erfolgen oder eine Einteilung kann z. B. aufgrund von Audioobjekttypen (z. B. Punktquelle oder ebene Welle) erfolgen.
  • Zusätzlich kann die Audioszenenbearbeitungsvorrichtung 120 ein adaptives Filter aufweisen, dessen Filtercharakteristik durch das Kontrollsignal 212 veränderbar ist. Dadurch kann eine frequenzabhängige Veränderung der Audioszene realisiert werden.
  • 3 zeigt ein weiteres Blockdiagramm einer Vorrichtung 300 zum Verändern einer Audioszene entsprechend eines Ausführungsbeispiels gemäß der Erfindung. Die Vorrichtung 300 zum Verändern einer Audioszene umfasst einen Richtungsbestimmer 110 (nicht gezeigt) eine Audioszenenbearbeitungsvorrichtung 120, einen Kontrollsignalbestimmer 310, auch Metadaten-abhängige Parameter-Gewichtungs-Vorrichtung genannt, und einen Gewichtungskontroller 320, auch Richtungskontroller genannt. Die Vorrichtung 300 zum Verändern der Audioszene kann dabei für jedes Audioobjekt der Audioszene (in diesem Beispiel auch räumliche Audioszene genannt) eine Audioszenenbearbeitungsvorrichtung 120 aufweisen, wie in 3 gezeigt, oder nur eine Audioszenenbearbeitungsvorrichtung 120 aufweisen, die alle Audioobjekte der Audioszene parallel, teilweise parallel oder seriell verarbeitet. Der Richtungskontroller 320 ist mit dem Kontrollsignalbestimmer 310 verbunden und der Kontrollsignalbestimmer 310 ist mit den Audioszenenbearbeitungsvorrichtungen 120 verbunden. Der nicht-gezeigte Richtungsbestimmer 110 bestimmt aus den Positionsparametern der Metadaten 102 der Audioobjekte (1 bis N) die Richtungen der Audioobjekte bezüglich des Bezugspunktes und stellt diese dem Kontrollsignalbestimmer 310 zur Verfügung. Des Weiteren erzeugt der Richtungskontroller 320 (Gewichtungskontroller, Vorrichtung zum Erzeugen einer Richtungsfunktion) eine Richtungsfunktion 108 (oder Gewichtungsfunktion) und stellt diese dem Kontrollsignalbestimmer 310 bereit. Der Kontrollsignalbestimmer 310 bestimmt, basierend auf der festgelegten Richtungsfunktion 108 und den bestimmten Positionen für jedes Audioobjekt ein Kontrollsignal 312 (z. B. basierend auf Kontrollparametern) und stellt diese den Audioszenenbearbeitungsvorrichtungen 120 zur Verfügung. Optional kann der Kontrollsignalbestimmer 310 auch eine neue Position der Audioobjekte bestimmen und diese in den Metadaten 102 entsprechend ändern. Durch die Audioszenenbearbeitungsvorrichtungen 120 können die Audiodaten 104 (Audiosignale) der Audioobjekte, basierend auf dem Kontrollsignal 312 bearbeitet und modifizierte Audiodaten 224 bereitgestellt werden.
  • Passend dazu zeigt 4 ein Beispiel eines Kontrollsignalbestimmers 400 zur metadatenabhängigen Parametergewichtung. Der Kontrollsignalbestimmer 400 umfasst eine Parameterauswähler 301, eine Parametergewichtungsvorrichtung 302 und einen Richtungsfunktionsanpasser 303, sowie optional einen Metadatenmodifizierer 304. Der Parameterauswähler 301 und der Richtungsfunktionsanpasser 303 sind mit der Parametergewichtungsvorrichtung 302 verbunden und die Parametergewichtungsvorrichtung 302 ist mit dem Metadatenmodifizierer 304 verbunden.
  • Der Parameterauswähler 301 wählt einen Parameter aus den Metadaten des Audioobjekts oder einer Szenenbeschreibung 311 der Audioszene aus, der verändert werden soll. Beispielsweise kann es sich bei dem zu ändernden Parameter um die Lautstärke des Audioobjekts, um einen Parameter eines Hall-Effekts oder um einen Verzögerungsparameter handeln. Dieser Einzelparameter 312 oder auch mehrere Parameter werden vom Parameterauswähler 301 der Parametergewichtungsvorrichtung 302 bereitgestellt. Der Parameterauswähler 301 kann, wie in 4 gezeigt, Teil des Kontrollsignalbestimmers 400 sein.
  • Der Kontrollsignalbestimmer 400 kann mit Hilfe der Parametergewichtungsvorrichtung 302 die festgelegte Richtungsfunktion basierend auf der durch den Richtungsbestimmer (in 4 nicht gezeigt) bestimmten Richtung des Audioobjekts auf den zu ändernden Parameter 312 (oder die Mehrzahl von zu ändernden Parametern) anwenden, um das Kontrollsignal 314 zu bestimmen.
  • Das Kontrollsignal 314 kann geänderte Parameter für einen Parameteraustausch in den Metadaten oder der Szenenbeschreibung 311 enthalten oder einen Kontrollparameter oder Kontrollwert 314 zur Steuerung einer Audioszenenbearbeitungsvorrichtung, wie sie beispielsweise zuvor beschrieben wurde.
  • Der Parameteraustausch in den Metadaten oder der Szenenbeschreibung 311 kann durch den optionalen Metadatenmodifizierer 304 des Kontrollsignalbestimmers 400 erfolgen oder, wie bei 2a beschrieben, durch einen Metadatenmodifizierer der Audiodatenbearbeitungsvorrichtung. Dadurch kann der Metadatenmodifizierer 304 eine veränderte Szenenbeschreibung 315 erzeugen.
  • Der Richtungsfunktionsanpasser 303 kann einen Wertebereich der festgelegten Richtungsfunktion an einen Wertebereich des zu ändernden Parameters anpassen. Der Kontrollsignalbestimmer 400 kann mit Hilfe der Parametergewichtungsvorrichtung 302, basierend auf der angepassten Richtungsfunktion 316 das Kontrollsignal 314 bestimmen. Beispielsweise kann die festgelegte Richtungsfunktion 313 definiert sein, so dass ihr Wertebereich zwischen 0 und 1 (oder einem anderen Minimal- und Maximalwert) schwankt. Würde man diesen Wertebereich beispielsweise auf den Lautstärkeparameter eines Audioobjekts anwenden, könnte dieser zwischen Null und einer maximalen Lautstärke schwanken. Es kann jedoch auch wünschenswert sein, dass der zu ändernde Parameter nur in einem bestimmten Bereich verändert werden kann. Beispielsweise soll die Lautstärke nur um maximal +/–20% verändert werden. Dann kann der beispielhaft erwähnte Wertebereich zwischen 0 und 1 auf dem Wertebereich zwischen 0,8 und 1,2 abgebildet werden und diese angepasste Richtungsfunktion auf den zu ändernden Parameter 312 angewendet werden.
  • Durch die in 4 gezeigte Realisierung kann durch den Kontrollsignalbestimmer 400 eine metadatenabhängige Parametergewichtung realisiert werden. Dadurch können bei einer objektbasierten Szenenbeschreibung spezifische Parameter von Audioobjekten gespeichert werden. Solche Parameter bestehen z. B. aus Position oder Richtung einer Audioquelle (Audioobjekt). Diese Daten können während der Szene entweder dynamisch oder statisch sein. Diese Daten können durch die metadatenabhängige Parametergewichtung (MDDPW; meta data dependent parameter weighting) durch Extrahieren eines spezifischen Satzes aus Metadaten und Erzeugen eines modifizierten Satzes sowie eines Steuerwerts für eine Audioverarbeitungseinheit verarbeitet werden. 4 zeigt ein detailliertes Blockdiagramm der metadatenabhängige Parametergewichtung.
  • Die metadatenabhängige Parametergewichtung empfängt die Szenenbeschreibung 311 und extrahiert einen einzelnen (oder mehrere) Parameter 312 unter Verwendung des Parameterselektors 301. Diese Auswahl kann durch einen Benutzer ausgeführt werden oder kann durch eine spezifische, feste Konfiguration der metadatenabhängige Parametergewichtung gegeben sein. Bei einem bevorzugten Ausführungsbeispiel kann dies der Azimutwinkel α sein. Eine Richtungsfunktion 313 ist durch den Richtungskontroller (Richtungssteuerung) gegeben, die durch den Anpassungsfaktor 303 skaliert oder angepasst werden kann und für die Erzeugung eines Kontrollwerts 314 (oder Steuerwert) durch die Parametergewichtung 302 verwendet werden kann. Der Kontrollwert kann verwendet werden, um eine spezifische Audioverarbeitung zu steuern und um einen Parameter bei der Szenenbeschreibung unter Verwendung des Parameteraustauschs 304 zu ändern. Dies kann zu einer modifizierten Szenenbeschreibung führen.
  • Ein Beispiel für die Modifikation der Szenenbeschreibung kann gegeben sein durch Berücksichtigung des Parameterwerts einer Audioquelle. In diesem Fall wird der Azimutwinkel einer Quelle verwendet, um den gespeicherten Lautstärkewert der Szenenbeschreibung in Abhängigkeit von der Richtungsfunktion zu skalieren. Bei diesem Szenario wird die Audioverarbeitung auf der Aufbereitungsseite ausgeführt. Eine alternative Implementierung kann eine Audioverarbeitungseinheit (Audioszenenbearbeitungsvorrichtung) verwenden, um die Audiodaten direkt abhängig von der erforderlichen Lautstärke zu modifizieren. Der Lautstärkewert in der Szenenbeschreibung muss dann nicht verändert werden.
  • Der Richtungsbestimmer 110, die Audioszenenbearbeitungsvorrichtung 120, der Kontrollsignalbestimmer 210, der Metadatenmodifizierer 220, der Audiosignalmodifizierer 230, der Parameterauswähler 301 und/oder der Richtungsfunktionsanpasser 303 können z. B. unabhängige Hardwareeinheiten oder Teil eines Computers, Mikrokontrollers oder digitalen Signalprozessors sowie Computerprogramme oder Softwareprodukte zur Ausführung auf einem Mikrokontroller, Computer oder digitalen Signalprozessor sein.
  • Einige Ausführungsbeispiele gemäß der Erfindung beziehen sich auf eine Vorrichtung zum Erzeugen einer Richtungsfunktion. 5 zeigt dazu eine schematische Darstellung einer Vorrichtung 500 zum Erzeugen einer Richtungsfunktion 522 entsprechend eines Ausführungsbeispiels gemäß der Erfindung. Die Vorrichtung 500 zum Erzeugen einer Richtungsfunktion 522 umfasst eine graphische Benutzerschnittstelle 510 und einen Richtungsfunktionsbestimmer 520. Die graphische Benutzerschnittstelle 510 weist eine Mehrzahl von Eingabeknöpfen 512 auf, die bezüglich eines Referenzpunktes 514 in unterschiedlichen Richtungen angeordnet sind. Ein Abstand 516 jedes Eingabeknopfes 512 der Mehrzahl von Eingabeknöpfen 512 von dem Referenzpunkt 514 ist individuell einstellbar. Der Abstand 516 eines Eingabeknopfes 512 von dem Referenzpunkt 514 legt einen Wert der Richtungsfunktion 522 in der Richtung des Eingabeknopfes 512 fest. Des Weiteren erzeugt der Richtungsfunktionsbestimmer 520 die Richtungsfunktion 522 basierend auf den Abständen 516 der Mehrzahl von Eingabeknöpfen 512 von dem Referenzpunkt 514, so dass eine physikalische Größe von der Richtungsfunktion 522 beeinflussbar ist.
  • Durch die beschriebene Vorrichtung 500 kann basierend auf wenigen einzugebenden Informationen (Einstellen der Abstände und optional Richtungen der Eingabeknöpfe) eine Richtungsfunktion erzeugt werden. Dadurch kann eine einfache, flexible, schnelle und/oder benutzerfreundliche Eingabe und Erzeugung einer Richtungsfunktion ermöglicht werden.
  • Die graphische Benutzerschnittstelle 510 ist beispielsweise eine Wiedergabe der Mehrzahl von Eingabeknöpfen 512 und des Referenzpunktes 514 auf einem Bildschirm oder durch einen Projektor. Der Abstand 516 der Eingabeknöpfe 512 und/oder der Richtung bezüglich des Referenzpunktes 514 können beispielsweise mit einem Eingabegerät (z. B. eine Computermaus) verändert werden. Alternativ kann der Abstand 516 und/oder die Richtung eines Eingabeknopfes 512 auch durch Eingabe von Werten verändert werden. Die Eingabeknöpfe 512 können z. B. in beliebigen unterschiedlichen Richtungen angeordnet sein oder symmetrisch um den Referenzpunkt 514 (z. B. bei vier Knöpfen jeweils um 90° voneinander entfernt oder bei sechs Knöpfen jeweils um 60° voneinander entfernt) angeordnet sein.
  • Der Richtungsfunktionsbestimmer 520 kann beispielsweise durch Interpolation von basierend auf den Abständen 516 der Mehrzahl von Eingabeknöpfen 512 erhaltenen Funktionswerten weitere Funktionswerte der Richtungsfunktion berechnen. Beispielsweise kann der Richtungsfunktionsbestimmer Richtungsfunktionswerte in 1°-Abständen, 5°-Abständen, 10°-Abständen oder in einem Bereich zwischen 0,1°-Abständen und 20°-Abständen berechnen. Die Richtungsfunktion 522 wird dann beispielsweise durch die berechneten Richtungsfunktionswerte dargestellt. Der Richtungsfunktionsbestimmer kann beispielsweise zwischen den durch die Abstände 516 der Mehrzahl von Eingabeknöpfen 512 erhaltenen Richtungsfunktionswerte linear interpolieren. Dies kann jedoch in den Richtungen, in denen die Eingabeknöpfe 512 angeordnet sind, zu diskontinuierlichen Werteänderungen führen. Daher kann alternativ auch ein Polynom höherer Ordnung angepasst werden, um einen kontinuierlichen Verlauf der Ableitung der Richtungsfunktion 522 zu erhalten. Alternativ zur Repräsentation der Richtungsfunktion 522 durch Richtungsfunktionswerte kann die Richtungsfunktion 522 auch als mathematische Rechenregel bereitgestellt werden, die für einen Winkel als Eingabewert einen entsprechenden Richtungsfunktionswert ausgibt.
  • Die Richtungsfunktion kann auf physikalische Größen, wie beispielsweise die Lautstärke eines Audiosignals, auf Signalverzögerungen oder Audioeffekte angewendet werden, um diese zu beeinflussen. Alternativ kann die Richtungsfunktion 522 auch für andere Anwendungen, wie z. B. in der Bildbearbeitung oder in der Nachrichtentechnik, verwendet werden. Dazu kann die Vorrichtung 500 zum Erzeugen einer Richtungsfunktion 522 beispielsweise einen Modifizierer aufweisen, der die physikalische Größe, basierend auf der Richtungsfunktion 522 modifiziert. Der Richtungsfunktionsbestimmer 520 kann dazu die Richtungsfunktion 522 in einem Format zur Verfügung stellen, das der Modifizierer verarbeiten kann. Beispielsweise werden Richtungsfunktionswerte für äquidistante Winkel bereitgestellt. Der Modifizierer kann dann beispielsweise eine Richtung eines Audioobjekts demjenigen Richtungsfunktionswert zuordnen, der für den nächstgelegenen vorberechneten Winkel (Winkel mit kleinster Differenz zur Richtung des Audioobjekts) bestimmt wurde.
  • Beispielsweise kann eine festgelegte Richtungsfunktion in Form einer Lookup-Table (Nachschlagtabelle) von einer Speichereinheit gespeichert werden und beispielsweise auf Audiosignale, Metadaten oder Lautsprechersignale einer objektbasierten Audioszene angewendet werden, um einen durch die Richtungsfunktion festgelegten Audioeffekt hervorzurufen.
  • Eine Vorrichtung 500 zum Erzeugen einer Richtungsfunktion 522, wie sie in 5 gezeigt und beschrieben ist, kann beispielsweise verwendet werden, um die festgelegte Richtungsfunktion der zuvor beschriebenen Vorrichtung zum Verändern einer Audioszene bereitzustellen. In diesem Zusammenhang wird die Vorrichtung zum Erzeugen einer Richtungsfunktion auch als Richtungskontroller oder Gewichtungskontroller bezeichnet. Des Weiteren entspricht der Modifizierer in diesem Beispiel dem Kontrollsignalbestimmer.
  • In anderen Worten, eine Vorrichtung zum Verändern einer Audioszene, wie sie zuvor beschrieben wurde, kann eine Vorrichtung zum Erzeugen einer Richtungsfunktion aufweisen. Die Vorrichtung zum Erzeugen einer Richtungsfunktion stellt dabei die festgelegte Richtungsfunktion der Vorrichtung zum Verändern einer Audioszene bereit.
  • Zusätzlich kann die graphische Benutzerschnittstelle 510 einen Drehknopf aufweisen, der bei einer Drehung eine gleichgroße Veränderung der Richtung aller Eingabeknöpfe 512 der Mehrzahl von Eingabeknöpfen 512 bewirkt. Dadurch kann die Richtung der Eingabeknöpfe 512 bezüglich. des Referenzpunktes 514 für alle Eingabeknöpfe 512 gleichzeitig geändert werden und muss nicht für jeden Eingabeknopf 512 separat gemacht werden.
  • Optional kann die graphische Benutzerschnittstelle 510 auch die Eingabe eines Verschiebungsvektors ermöglichen. Dadurch kann der Abstand bezüglich des Referenzpunktes 514 von zumindest einem Eingabeknopf 512 der Mehrzahl von Eingabeknöpfen 512 basierend auf einer Richtung und einer Länge des Verschiebungsvektors und der Richtung des Eingabeknopfes 512 verändert werden. Beispielsweise kann dadurch ein Abstand 516 eines Eingabeknopfes 512, dessen Richtung bezüglich des Referenzpunktes 514 am besten mit der Richtung des Verschiebungsvektors übereinstimmt, am meisten verändert werden, wo hingegen die Abstände 516 der übrigen Eingabeknöpfe 512 entsprechend Ihrer Abweichung von der Richtung des Verschiebungsvektors geringer verändert werden. Die Stärke der Veränderung der Abstände 516 kann beispielsweise durch die Länge des Verschiebungsvektors gesteuert werden.
  • Der Richtungsfunktionsbestimmer 520 und/oder der Modifizierer können z. B. unabhängige Hardwareeinheiten oder Teil eines Computers, Mikrokontrollers oder digitalen Signalprozessors sowie Computerprogramme oder Softwareprodukte zur Ausführung auf einem Mikrokontroller, Computer oder digitalen Signalprozessor sein.
  • 6 zeigt ein Beispiel für eine graphische Benutzerschnittstelle 510 als eine Version eines Gewichtungskontrollers (oder Richtungskontroller) für eine richtungsabhängige Gewichtung (zweidimensional).
  • Die Richtungssteuerung (Richtungskontrolle) ermöglicht es dem Benutzer, die richtungsabhängigen Kontrollwerte zu spezifizieren, die bei der Signalverarbeitungsstufe (Audioszenenbearbeitungsvorrichtung) verwendet werden. In dem Fall einer zweidimensionalen Szenenbeschreibung kann dies unter Verwendung eines Kreises 616 visualisiert werden. In einem dreidimensionalen System ist eine Kugel passender. Die detaillierte Beschreibung ist ohne einen Verlust an Allgemeinheit auf die zweidimensionale Version beschränkt. 6 zeigt eine Richtungssteuerung. Die Knöpfe 512 (Eingabeknöpfe) werden verwendet, um spezifische Werte für eine gegebene Richtung zu definieren. Der Drehknopf 612 wird verwendet, um alle Knöpfe 512 gleichzeitig zu drehen. Der Mittelknopf 614 wird verwendet, um eine spezifische Richtung zu unterstreichen.
  • In dem gezeigten Beispiel sind die Eingabeknöpfe in der initialen Position mit gleichen Abständen zum Referenzpunkt auf einem Referenzkreis 616 angeordnet. Optional kann der Referenzkreis 616 in seinem Radius verändert werden und dadurch der Abstand der Eingabeknöpfe 512 mit einer gemeinsamen Abstandsveränderung belegt werden.
  • Während die Knöpfe 512 spezifische Werte liefern, die durch den Benutzer definiert sind, können alle dazwischenliegenden Werte durch Interpolation berechnet werden. Sind diese Werte beispielsweise für einen Richtungskontroller mit vier Eingabeknöpfen 512 für die Knöpfe r1 bis r4 und ihr Azimutwinkel α1 bis α4 gegeben, ist ein Beispiel für eine lineare Interpolation in 7 gegeben. Der Drehknopf 612 wird verwendet, um einen Versatz αrot zu spezifizieren. Dieser Versatz wird an die Azimutwinkel α1 bis α4 angewendet durch die Gleichung αi = αi + αrot, (Gl. 1) wobei i den Azimutwinkelindex anzeigt.
  • Der Mittelknopf kann die Werte r1 bis r4 der Knöpfe steuern. Abhängig von einem Verschiebungsvektor
    Figure 00150001
    kann ein Skalierungswert rscal unter Verwendung der Gleichung
  • Figure 00150002
  • Berechnet werden und an die Werte für den spezifischen Punkt durch ri = ri·rscal. (Gl. 3) angewendet werden.
  • Eine weitere Möglichkeit ist die Nutzung des Verschiebungsvektors um eine bestimmte Richtung zu betonen. Dazu wird in einem zweistufigen Verfahren der Verschiebungsvektor auf die Knöpfe 512 umgerechnet. Im ersten Schritt wird der Positionsvektor der Knöpfe 512 mit dem Verschiebungsvektor addiert r → ' / i = d + r →i (Gl. 4)
  • In einem zweiten Schritt wird die neue Position des Knopfes r → ' / i auf die fixe Richtung projiziert. Dies kann durch Berechnung des Skalarproduktes zwischen dem Verschiebungsvektor und dem Einheitsvektor e →i in Richtung des zu betrachtenden Knopfs gelöst werden si = r → ' / i·e →i (Gl. 5)
  • Der Wert des Skalarprodukts si repräsentiert den neuen Betrag des betrachteten Knopfs i.
  • Die Ausgabe der Richtungssteuerung ist beispielsweise eine kontinuierliche Parameterfunktion r(α), erzeugt durch eine spezifische Interpolationsfunktion basierend auf den Werten der Knöpfe 512, definiert durch r(α) = interpol(α1, ... αN), (Gl. 6) wobei N die Anzahl der Knöpfe 512 anzeigt, die bei der Steuerung verwendet werden.
  • Wie zuvor erwähnt zeigt 7 eine Azimut-abhängige Parameterwertinterpolation 710 als Beispiel für eine erzeugte Richtungsfunktion unter Verwendung einer graphischen Benutzerschnittstelle mit vier Eingabeknöpfen, die jeweils um 90° voneinander entfernt um den Referenzpunkt angeordnet sind. Die Richtungsfunktion kann beispielsweise zur Berechnung von Kontrollwerten für eine Richtungssteuerung mit vier Knöpfen unter Verwendung einer linearen Interpolation verwendet werden.
  • Einige Ausführungsbeispiele gemäß der Erfindung beziehen sich auf eine Vorrichtung und/oder Gerät zum Verarbeiten einer objektbasierten Audioszene und von Signalen.
  • Das erfindungsgemäße Konzept beschreibt unter anderem ein Verfahren zum Mastering von objektbasiertem Audioinhalt ohne Erzeugen der Wiedergabesignale für dedizierte Lautsprecherlayouts. Während der Prozess des Masterings an einen objektbasierten Audioinhalt angepasst ist, kann er auch verwendet werden, um neue Raumwirkungen zu erzeugen.
  • Dadurch ist ein System zum Simulieren des Herstellungsschritts des Mastering im Kontext einer objektbasierten Audioherstellung beschrieben. Bei einem bevorzugten Ausführungsbeispiel der Erfindung ist eine richtungsabhängige Audioverarbeitung von objektbasierten Audioszenen realisiert. Dies ermöglicht eine Abstraktion von den separaten Signalen oder Objekten einer Mischung, berücksichtigt aber die richtungsabhängige Modifikation des wahrgenommenen Eindrucks. Bei anderen Ausführungsbeispielen kann die Erfindung auch im Bereich eines räumlichen Audio-Effekts verwendet werden, sowie als ein neues Werkzeug für Hörszenendarstellungen.
  • Das erfindungsgemäße Konzept kann z. B. eine gegebene Hörszenenbeschreibung, die aus Audiosignalen und entsprechenden Metadaten besteht, in einen neuen Satz aus Audiosignalen umwandeln, die demselben oder einem unterschiedlichen Metadatensatz entsprechen. Bei diesem Prozess kann eine willkürliche Audioverarbeitung zum Transformieren der Signale verwendet werden. Die Verarbeitungsvorrichtungen können durch eine Parametersteuerung gesteuert werden.
  • Durch das beschriebene Konzept können z. B. eine interaktive Modifikation und eine Szenenbeschreibung zum Extrahieren von Parametern verwendet werden.
  • Alle verfügbaren oder zukünftigen Audioverarbeitungsalgorithmen (Audioszenenbearbeitungsvorrichtungen, wie z. B. Mehrkanal-Renderer, ein Wellenfeldsynthese-Renderer oder ein Binaural-Renderer) können in dem Kontext der Erfindung verwendet werden. Dazu kann eine Verfügbarkeit eines Parameters, der in Echtzeit geändert werden kann, notwendig sein.
  • 8 zeigt ein Flussdiagramm eines Verfahrens 800 zum Verändern einer Audioszene entsprechend eines Ausführungsbeispiels gemäß der Erfindung. Die Audioszene umfasst wenigstens ein Audioobjekt, das ein Audiosignal und zugehörige Metadaten aufweist. Das Verfahren 800 umfasst ein Bestimmen 810 einer Richtung einer Position des Audioobjekts bezüglich eines Bezugspunktes basierend auf den Metadaten des Audioobjekts. Des Weiteren umfasst das Verfahren 800 ein Bearbeiten 820 des Audiosignals, ein von dem Audiosignal abgeleitetes, verarbeitetes Audiosignal oder der Metadaten des Audioobjekts basierend auf einer festgelegten Richtungsfunktion und der bestimmten Richtung der Position des Audioobjekts.
  • 9 zeigt ein Flussdiagramm eines Verfahrens 900 zum Erzeugen einer Richtungsfunktion entsprechend eines Ausführungsbeispiels gemäß der Erfindung. Das Verfahren 900 umfasst ein Bereitstellen 910 einer graphischen Benutzerschnittstelle, die eine Mehrzahl von Eingabeknöpfen aufweist, die bezüglich eines Referenzpunktes in unterschiedlichen Richtungen angeordnet sind. Dabei ist ein Abstand jedes Eingabeknopfes der Mehrzahl von Eingabeknöpfen von dem Referenzpunkt individuell einstellbar. Der Abstand eines Eingabeknopfes von dem Referenzpunkt legt einen Wert der Richtungsfunktion in der Richtung des Eingabeknopfes fest. Des Weiteren umfasst das Verfahren 900 ein Erzeugen 920 der Richtungsfunktion basierend auf den Abständen der Mehrzahl von Eingabeknöpfen von dem Referenzpunkt, so dass eine physikalische Größe von der Richtungsfunktion beeinflussbar ist.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein. Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft. Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2007/0101249 [0005]
    • US 2005/0141728 [0005]
  • Zitierte Nicht-Patentliteratur
    • Dynamic Panner: An Adaptive Digital Audio Effect for Spatical Audio, Morrell, Martin; Reis, Joshua presented at the 127th AES Cenvention, 2009 [0005]
    • Concept, Design, and Implementation of a Genreal Dynamic Parametric Equalizer, Wise, Duane K., JAES Volume 57 Issue ½ pp. 16–28; Januar 2009 [0005]

Claims (17)

  1. Vorrichtung (100, 200, 202, 204, 300) zum Verändern einer Audioszene, wobei die Audioszene wenigstens ein Audioobjekt aufweist, das ein Audiosignal 104 und zugehörige Metadaten (102) aufweist, mit folgenden Merkmalen: einem Richtungsbestimmer (110), der ausgelegt ist, um eine Richtung einer Position des Audioobjekts bezüglich eines Bezugspunktes basierend auf den Metadaten (102) des Audioobjekts zu bestimmen; und einer Audioszenenbearbeitungsvorrichtung (120), die ausgelegt ist, um das Audiosignal (104), ein von dem Audiosignal (104) abgeleitetes, verarbeitetes Audiosignal (106) oder die Metadaten (102) des Audioobjekts basierend auf einer festgelegten Richtungsfunktion (108) und der bestimmten Richtung (112) des Audioobjekts zu bearbeiten.
  2. Vorrichtung gemäß Anspruch 1, die einen Kontrollsignalbestimmer (210) aufweist, der ausgelegt ist, um basierend auf der bestimmten Position (112) und der festgelegten Richtungsfunktion (108) ein Kontrollsignal (212) zur Steuerung der Audioszenenbearbeitungsvorrichtung (120) zu bestimmen.
  3. Vorrichtung gemäß Anspruch 2, wobei die Audioszenenbearbeitungsvorrichtung (120) einen Metadatenmodifizierer (220) aufweist, der ausgelegt ist, um einen Parameter der Metadaten (102) des Audioobjekts basierend auf dem Kontrollsignal (212) zu verändern.
  4. Vorrichtung gemäß Anspruch 2 oder 3, wobei die Audioszenenbearbeitungsvorrichtung (120) einen Audiosignalmodifizierer (230) aufweist, der ausgelegt ist, um das Audiosignal (104) des Audioobjekts basierend auf dem Kontrollsignal (212) zu verändern.
  5. Vorrichtung gemäß einem der Ansprüche 2 bis 4, wobei die Audioszenenbearbeitungsvorrichtung (120) ausgelegt ist, um basierend auf dem Audiosignal 104 des Audioobjekts, den Metadaten (102) des Audioobjekts und dem Kontrollsignal (212) eine Mehrzahl von Lautsprechersignalen 226 zur Wiedergabe der veränderten Audioszene durch eine Lautsprecheranordnung zu erzeugen.
  6. Vorrichtung gemäß einem der Ansprüche 2 bis 5, die einen Parameterauswähler (301) aufweist, der ausgelegt ist, tun einen zu ändernden Parameter aus den Metadaten (102) des Audioobjekts oder einer Szenenbeschreibung (311) der Audioszene auszuwählen, wobei der Kontrollsignalbestimmer (210) ausgelegt ist, um die festgelegte Richtungsfunktion (108, 313) basierend auf der bestimmten Richtung des Audioobjekts auf den zu ändernden Parameter anzuwenden, um das Kontrollsignal (212, 314) zu bestimmen.
  7. Vorrichtung gemäß einem der Ansprüche 2 bis 6, die einen Richtungsfunktionsanpasser (303) aufweist, der ausgelegt ist, um einen Wertebereich der festgelegten Richtungsfunktion (108, 313) an einen Wertebereich eines zu ändernden Parameters (312) anzupassen, wobei der Kontrollsignalbestimmer (210) ausgelegt ist, um das Kontrollsignal (212, 314) basierend auf der angepassten Richtungsfunktion (316) zu bestimmen.
  8. Vorrichtung gemäß einem der Ansprüche 1 bis 7, die ausgelegt ist, um alle Audioobjekte der Audioszene oder alle Audioobjekte einer Audioobjektgruppe der Audioszene zu verändern.
  9. Vorrichtung gemäß einem der Ansprüche 1 bis 8, wobei die Audioszenenbearbeitungsvorrichtung (120) ausgelegt ist, um das Audiosignal (104) oder das von dem Audiosignal (104) abgeleitete, verarbeitete Audiosignal (106) basierend auf der festgelegten Richtungsfunktion (108) und der bestimmten Richtung der Position des Audioobjekts frequenzabhängig zu bearbeiten.
  10. Vorrichtung (500) zum Erzeugen einer Richtungsfunktion, mit folgenden Merkmalen: einer graphischen Benutzerschnittstelle (510), die eine Mehrzahl von Eingabeknöpfen (512) aufweist, die bezüglich eines Referenzpunktes (514) in unterschiedlichen Richtungen angeordnet sind, wobei ein Abstand (516) jedes Eingabeknopfes (512) der Mehrzahl von Eingabeknöpfen (512) von dem Referenzpunkt (514) individuell einstellbar ist, wobei der Abstand (516) eines Eingabeknopfes (512) von dem Referenzpunkt (514) einen Wert der Richtungsfunktion in der Richtung des Eingabeknopfes (512) festlegt; und einem Richtungsfunktionsbestimmer (520), der ausgelegt ist, um basierend auf den Abständen (516) der Mehrzahl von Eingabeknöpfen (512) von dem Referenzpunkt (514) die Richtungsfunktion (522) zu erzeugen, so dass eine physikalische Größe von der Richtungsfunktion (522) beeinflussbar ist.
  11. Vorrichtung gemäß Anspruch 10, die einen Modifizierer aufweist, der ausgelegt ist, um die physikalische Größe basierend auf der Richtungsfunktion zu verändern.
  12. Vorrichtung gemäß Anspruch 10 oder 11, wobei die graphische Benutzerschnittstelle (510) einen Drehknopf (612) aufweist, wobei eine Drehung des Drehknopfes eine gleichgroße Veränderung der Richtungen aller Eingabeknöpfe (512) der Mehrzahl von Eingabeknöpfen (512) bewirkt.
  13. Vorrichtung gemäß einem der Ansprüche 10 bis 12, wobei die graphische Benutzerschnittstelle (510) eine Eingabe eines Verschiebungsvektors ermöglicht, wobei der Abstand (516) bezüglich des Referenzpunktes (514) von zumindest einem Eingabeknopf (512) der Mehrzahl von Eingabeknöpfen (512) basierend auf einer Richtung und einer Länge des Verschiebungsvektors und der Richtung des Eingabeknopfes (512) verändert wird.
  14. Vorrichtung zum Verändern einer Audioszene gemäß einem der Ansprüche 1 bis 9, die eine Vorrichtung zum Erzeugen einer Richtungsfunktion gemäß einem der Ansprüche 10 bis 13 aufweist, wobei die Vorrichtung zum Erzeugen einer Richtungsfunktion die festgelegte Richtungsfunktion (108) bereitstellt.
  15. Verfahren (800) zum Verändern einer Audioszene, wobei die Audioszene wenigstens ein Audioobjekt aufweist, das ein Audiosignal und zugehörige Metadaten aufweist, mit folgenden Schritten: Bestimmen (810) einer Richtung einer Position des Audioobjekts bezüglich eines Bezugspunktes basierend auf den Metadaten des Audioobjekts; und Bearbeiten (820) des Audiosignals, ein von dem Audiosignal abgeleitetes, verarbeitetes Audiosignal oder der Metadaten des Audioobjekts basierend auf einer festgelegten Richtungsfunktion und der bestimmten Richtung der Position des Audioobjekts.
  16. Verfahren (900) zum Erzeugen einer Richtungsfunktion, mit folgenden Schritten: Bereitstellen (910) einer graphischen Benutzerschnittstelle, die eine Mehrzahl von Eingabeknöpfen aufweist, die bezüglich eines Referenzpunktes in unterschiedlichen Richtungen angeordnet sind, wobei ein Abstand jedes Eingabeknopfes der Mehrzahl von Eingabeknöpfen von dem Referenzpunkt individuell einstellbar ist, wobei der Abstand eines Eingabeknopfes von dem Referenzpunkt einen Wert der Richtungsfunktion in der Richtung des Eingabeknopfes festlegt; und Erzeugen (920) der Richtungsfunktion basierend auf den Abständen der Mehrzahl von Eingabeknöpfen von dem Referenzpunkt, so dass eine physikalische Größe von der Richtungsfunktion beeinflussbar ist.
  17. Computerprogramm mit einem Programmcode zur Durchführung eines Verfahrens gemäß Anspruch 15 oder 16, wenn das Computerprogramm auf einem Computer oder Mikrocontroller abläuft.
DE102010030534A 2010-06-25 2010-06-25 Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion Ceased DE102010030534A1 (de)

Priority Applications (9)

Application Number Priority Date Filing Date Title
DE102010030534A DE102010030534A1 (de) 2010-06-25 2010-06-25 Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion
EP11743965.3A EP2596648B1 (de) 2010-06-25 2011-06-24 Vorrichtung zur änderung einer audioszene und vorrichtung zur erzeugung einer richtungsabhängige funktion
EP13174950.9A EP2648426B1 (de) 2010-06-25 2011-06-24 Vorrichtung zur änderung einer audioszene und verfahren dafür
PCT/EP2011/003122 WO2011160850A1 (en) 2010-06-25 2011-06-24 Apparatus for changing an audio scene and an apparatus for generating a directional function
KR1020137021384A KR101435016B1 (ko) 2010-06-25 2011-06-24 오디오 신을 변환하기 위한 장치 및 방향 함수를 발생시키기 위한 장치
KR1020137001875A KR101507901B1 (ko) 2010-06-25 2011-06-24 오디오 신을 변환하기 위한 장치 및 방향 함수를 발생시키기 위한 장치
CN201180031607.0A CN103109549B (zh) 2010-06-25 2011-06-24 用于改变音频场景的装置和用于生成方向函数的装置
CN201310379633.3A CN103442325B (zh) 2010-06-25 2011-06-24 用于改变音频场景的装置和用于生成方向函数的装置
US13/722,568 US9402144B2 (en) 2010-06-25 2012-12-20 Apparatus for changing an audio scene and an apparatus for generating a directional function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010030534A DE102010030534A1 (de) 2010-06-25 2010-06-25 Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion

Publications (1)

Publication Number Publication Date
DE102010030534A1 true DE102010030534A1 (de) 2011-12-29

Family

ID=44545617

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010030534A Ceased DE102010030534A1 (de) 2010-06-25 2010-06-25 Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion

Country Status (6)

Country Link
US (1) US9402144B2 (de)
EP (2) EP2596648B1 (de)
KR (2) KR101507901B1 (de)
CN (2) CN103442325B (de)
DE (1) DE102010030534A1 (de)
WO (1) WO2011160850A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2733964A1 (de) 2012-11-15 2014-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Segmentweise Anpassung eines räumliche Audiosignals an verschiedene Einstellungen der Wiedergabelautsprecher
WO2019158750A1 (de) * 2018-02-19 2019-08-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren für objektbasiertes, räumliches audio-mastering

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101935020B1 (ko) * 2012-05-14 2019-01-03 한국전자통신연구원 오디오 데이터 제공 방법 및 장치, 오디오 메타데이터 제공 방법 및 장치, 오디오 데이터 재생 방법 및 장치
US9190065B2 (en) 2012-07-15 2015-11-17 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for three-dimensional audio coding using basis function coefficients
US9479886B2 (en) 2012-07-20 2016-10-25 Qualcomm Incorporated Scalable downmix design with feedback for object-based surround codec
US9761229B2 (en) 2012-07-20 2017-09-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for audio object clustering
CN104798383B (zh) * 2012-09-24 2018-01-02 巴可有限公司 控制三维多层扬声器装置的方法和在听众区回放三维声音的设备
US10158962B2 (en) 2012-09-24 2018-12-18 Barco Nv Method for controlling a three-dimensional multi-layer speaker arrangement and apparatus for playing back three-dimensional sound in an audience area
US10038957B2 (en) * 2013-03-19 2018-07-31 Nokia Technologies Oy Audio mixing based upon playing device location
WO2014187989A2 (en) 2013-05-24 2014-11-27 Dolby International Ab Reconstruction of audio scenes from a downmix
CN109887516B (zh) 2013-05-24 2023-10-20 杜比国际公司 对音频场景进行解码的方法、音频解码器以及介质
GB2515089A (en) * 2013-06-14 2014-12-17 Nokia Corp Audio Processing
GB2516056B (en) * 2013-07-09 2021-06-30 Nokia Technologies Oy Audio processing apparatus
JP6055576B2 (ja) * 2013-07-30 2016-12-27 ドルビー・インターナショナル・アーベー 任意のスピーカー・レイアウトへのオーディオ・オブジェクトのパン
CN104882145B (zh) 2014-02-28 2019-10-29 杜比实验室特许公司 使用音频对象的时间变化的音频对象聚类
CN104185116B (zh) * 2014-08-15 2018-01-09 南京琅声声学科技有限公司 一种自动确定声辐射模式的方法
WO2016165776A1 (en) 2015-04-17 2016-10-20 Huawei Technologies Co., Ltd. Apparatus and method for driving an array of loudspeakers with drive signals
US9877137B2 (en) * 2015-10-06 2018-01-23 Disney Enterprises, Inc. Systems and methods for playing a venue-specific object-based audio
GB2546504B (en) * 2016-01-19 2020-03-25 Facebook Inc Audio system and method
US9980078B2 (en) 2016-10-14 2018-05-22 Nokia Technologies Oy Audio object modification in free-viewpoint rendering
US11096004B2 (en) 2017-01-23 2021-08-17 Nokia Technologies Oy Spatial audio rendering point extension
US10531219B2 (en) 2017-03-20 2020-01-07 Nokia Technologies Oy Smooth rendering of overlapping audio-object interactions
US11074036B2 (en) 2017-05-05 2021-07-27 Nokia Technologies Oy Metadata-free audio-object interactions
US10165386B2 (en) 2017-05-16 2018-12-25 Nokia Technologies Oy VR audio superzoom
US11395087B2 (en) 2017-09-29 2022-07-19 Nokia Technologies Oy Level-based audio-object interactions
CA3219566A1 (en) * 2017-10-04 2019-04-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for encoding, decoding, scene processing and other procedures related to dirac based spatial audio coding
GB2567172A (en) 2017-10-04 2019-04-10 Nokia Technologies Oy Grouping and transport of audio objects
US10542368B2 (en) 2018-03-27 2020-01-21 Nokia Technologies Oy Audio content modification for playback audio
CN111819627A (zh) * 2018-07-02 2020-10-23 杜比实验室特许公司 用于对沉浸式音频信号进行编码及/或解码的方法及装置
WO2020098961A1 (de) * 2018-11-17 2020-05-22 Ask Industries Gmbh Verfahren zum betreiben einer audioeinrichtung
CN109840093A (zh) * 2018-12-24 2019-06-04 苏州蜗牛数字科技股份有限公司 一种任意函数适配器实现方法
KR20210072388A (ko) 2019-12-09 2021-06-17 삼성전자주식회사 오디오 출력 장치 및 오디오 출력 장치의 제어 방법
GB2594265A (en) * 2020-04-20 2021-10-27 Nokia Technologies Oy Apparatus, methods and computer programs for enabling rendering of spatial audio signals
WO2023034099A1 (en) * 2021-09-03 2023-03-09 Dolby Laboratories Licensing Corporation Music synthesizer with spatial metadata output

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050141728A1 (en) 1997-09-24 2005-06-30 Sonic Solutions, A California Corporation Multi-channel surround sound mastering and reproduction techniques that preserve spatial harmonics in three dimensions
US20060008117A1 (en) * 2004-07-09 2006-01-12 Yasusi Kanada Information source selection system and method
WO2006091540A2 (en) * 2005-02-22 2006-08-31 Verax Technologies Inc. System and method for formatting multimode sound content and metadata
US20070101249A1 (en) 2005-11-01 2007-05-03 Tae-Jin Lee System and method for transmitting/receiving object-based audio

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10211358A (ja) * 1997-01-28 1998-08-11 Sega Enterp Ltd ゲーム装置
GB9726338D0 (en) * 1997-12-13 1998-02-11 Central Research Lab Ltd A method of processing an audio signal
JP2003284196A (ja) 2002-03-20 2003-10-03 Sony Corp 音像定位信号処理装置および音像定位信号処理方法
DE10344638A1 (de) * 2003-08-04 2005-03-10 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Erzeugen, Speichern oder Bearbeiten einer Audiodarstellung einer Audioszene
US7928311B2 (en) * 2004-12-01 2011-04-19 Creative Technology Ltd System and method for forming and rendering 3D MIDI messages
US8698844B1 (en) * 2005-04-16 2014-04-15 Apple Inc. Processing cursor movements in a graphical user interface of a multimedia application
DE102005033239A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Steuern einer Mehrzahl von Lautsprechern mittels einer graphischen Benutzerschnittstelle
US8139780B2 (en) * 2007-03-20 2012-03-20 International Business Machines Corporation Using ray tracing for real time audio synthesis
US8406439B1 (en) * 2007-04-04 2013-03-26 At&T Intellectual Property I, L.P. Methods and systems for synthetic audio placement
US20100223552A1 (en) * 2009-03-02 2010-09-02 Metcalf Randall B Playback Device For Generating Sound Events

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050141728A1 (en) 1997-09-24 2005-06-30 Sonic Solutions, A California Corporation Multi-channel surround sound mastering and reproduction techniques that preserve spatial harmonics in three dimensions
US20060008117A1 (en) * 2004-07-09 2006-01-12 Yasusi Kanada Information source selection system and method
WO2006091540A2 (en) * 2005-02-22 2006-08-31 Verax Technologies Inc. System and method for formatting multimode sound content and metadata
US20070101249A1 (en) 2005-11-01 2007-05-03 Tae-Jin Lee System and method for transmitting/receiving object-based audio

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Concept, Design, and Implementation of a Genreal Dynamic Parametric Equalizer, Wise, Duane K., JAES Volume 57 Issue 1/2 pp. 16-28; Januar 2009
Dynamic Panner: An Adaptive Digital Audio Effect for Spatical Audio, Morrell, Martin; Reis, Joshua presented at the 127th AES Cenvention, 2009
Geier, M. et al.: The SoundScape Renderer: A Unified Spatial Audio Reproduction Framework for Arbitrary Rendering Methods, Audio Engineering Society, Convention Paper 7330, 124th Convention, 2008 May 17, Amsterdam *
Pulkki, V.: Virtual Sound Source Positioning Using Vector Base Amplitude Panning, AES, Vol. 45, No. 6 1997 June *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2733964A1 (de) 2012-11-15 2014-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Segmentweise Anpassung eines räumliche Audiosignals an verschiedene Einstellungen der Wiedergabelautsprecher
WO2019158750A1 (de) * 2018-02-19 2019-08-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren für objektbasiertes, räumliches audio-mastering

Also Published As

Publication number Publication date
KR20130045338A (ko) 2013-05-03
US9402144B2 (en) 2016-07-26
KR101507901B1 (ko) 2015-04-07
CN103109549A (zh) 2013-05-15
KR101435016B1 (ko) 2014-08-28
US20130114819A1 (en) 2013-05-09
WO2011160850A1 (en) 2011-12-29
EP2648426A1 (de) 2013-10-09
EP2648426B1 (de) 2021-08-04
CN103109549B (zh) 2016-12-28
EP2596648A1 (de) 2013-05-29
CN103442325B (zh) 2016-08-31
EP2596648B1 (de) 2020-09-09
KR20130101584A (ko) 2013-09-13
CN103442325A (zh) 2013-12-11

Similar Documents

Publication Publication Date Title
DE102010030534A1 (de) Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion
EP3005737B1 (de) Mischpult, verfahren und computerprogramm zum bereitstellen eines tonsignals
EP3117631B1 (de) Vorrichtung und verfahren zum verarbeiten eines signals im frequenzbereich
EP1652405B1 (de) Vorrichtung und verfahren zum erzeugen, speichern oder bearbeiten einer audiodarstellung einer audioszene
EP1872620B9 (de) Vorrichtung und verfahren zum steuern einer mehrzahl von lautsprechern mittels einer graphischen benutzerschnittstelle
DE60304358T2 (de) Verfahren zur verarbeitung von audiodateien und erfassungsvorrichtung zur anwendung davon
DE102006050068B4 (de) Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm
EP2080411B1 (de) Vorrichtung und Verfahren zum Erzeugen einer Anzahl von Lautsprechersignalen für ein Lautsprecher-Array, das einen Wiedergaberaum definiert
EP3069530B1 (de) Verfahren und vorrichtung zum komprimieren und dekomprimieren von schallfelddaten eines gebiets
EP2891334B1 (de) Erzeugung von mehrkanalton aus stereo-audiosignalen
DE69827775T2 (de) Tonkanalsmischung
DE102005008369A1 (de) Vorrichtung und Verfahren zum Simulieren eines Wellenfeldsynthese-Systems
DE102005010057A1 (de) Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
EP2939445B1 (de) Erzeugung von 3d-audiosignalen
EP2499843B1 (de) Verfahren zum abmischen von mikrofonsignalen einer tonaufnahme mit mehreren mikrofonen
WO2007101498A1 (de) Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften
DE102016101316A1 (de) Informationsverarbeitungsverfahren und elektronisches Gerät
WO2019158750A1 (de) Vorrichtung und verfahren für objektbasiertes, räumliches audio-mastering
CN103118322A (zh) 一种环绕声声像处理系统
DE102011082310A1 (de) Vorrichtung, Verfahren und elektroakustisches System zur Nachhallzeitverlängerung
DE102019135690B4 (de) Verfahren und Vorrichtung zur Audiosignalverarbeitung für binaurale Virtualisierung
DE19900961A1 (de) Verfahren und Vorrichtung zur Wiedergabe von Mehrkanaltonsignalen
DE102023209048A1 (de) Verfahren und system zum verlagern von lautstärkeanpassungen von audiokomponenten
DE112019004193T5 (de) Audiowiedergabevorrichtung, audiowiedergabeverfahren und audiowiedergabeprogramm
DE102017121876A1 (de) Verfahren und vorrichtung zur formatumwandlung eines mehrkanaligen audiosignals

Legal Events

Date Code Title Description
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final