DE69935974T2 - Verfahren und system zur behandlung von gerichtetem schall in einer akustisch-virtuellen umgegung - Google Patents

Verfahren und system zur behandlung von gerichtetem schall in einer akustisch-virtuellen umgegung Download PDF

Info

Publication number
DE69935974T2
DE69935974T2 DE69935974T DE69935974T DE69935974T2 DE 69935974 T2 DE69935974 T2 DE 69935974T2 DE 69935974 T DE69935974 T DE 69935974T DE 69935974 T DE69935974 T DE 69935974T DE 69935974 T2 DE69935974 T2 DE 69935974T2
Authority
DE
Germany
Prior art keywords
sound
filter
sound source
filters
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69935974T
Other languages
English (en)
Other versions
DE69935974D1 (de
Inventor
Jyri Huopaniemi
Riitta VÄÄNÄNEN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of DE69935974D1 publication Critical patent/DE69935974D1/de
Application granted granted Critical
Publication of DE69935974T2 publication Critical patent/DE69935974T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves

Landscapes

  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Steroid Compounds (AREA)
  • Complex Calculations (AREA)
  • Executing Machine-Instructions (AREA)

Description

  • Die Erfindung betrifft ein Verfahren und ein System, mit denen ein künstlicher, hörbarer Eindruck, der einem bestimmten Raum entspricht, für einen Zuhörer erzeugt werden kann. Insbesondere betrifft die Erfindung die Verarbeitung von gerichtetem Klang in einem derartigen hörbaren Eindruck und der Übertragung des resultierenden hörbaren Eindrucks in einem System, in dem die dem Benutzer gebotene Information übertragen, verarbeitet und/oder in ein digitales Format komprimiert wird.
  • Virtuelle akustische Umgebung bedeutet einen hörbaren Eindruck, mit dessen Hilfe sich ein Hörer von elektronisch wiedergegebenem Klang vorstellen kann, sich in einem bestimmten Raum zu befinden. Komplizierte virtuelle akustische Umgebungen beabsichtigen häufig, einen echten Raum zu imitieren, was „Auralization" dieses Raums genannt wird. Dieses Modell ist beispielsweise in dem Artikel M. Kleiner, B.-I. Dalenbäck, P. Svensson: "Auralization – An Overview", 1993, J. Audio Eng. Soc., Vol. 41, Nr. 11, S. 861 bis 875 beschrieben. Auralization kann auf natürliche Art und Weise mit der Erstellung einer virtuellen visuellen Umgebung kombiniert sein, wobei ein Benutzer, der mit geeigneten Displays und Lautsprechern oder einem Headset versehen ist, einen gewünschten, echten oder imaginären Raum untersuchen und sich in diesem Raum sogar „umherwandern", wobei er einen unterschiedlichen visuellen und akustischen Eindruck abhängig davon bekommt, welchen Punkt in der Umgebung er als seinen Untersuchungspunkt aussucht.
  • Die Erzeugung einer virtuellen akustischen Umgebung kann in drei Faktoren eingeteilt werden, nämlich das Modellieren der Klangquelle, das Modellieren des Raums und das Modellieren des Zuhörers. Die vorliegende Erfindung betrifft insbesondere das Modellieren einer Klangquelle und die frühen Reflektionen des Klangs.
  • Die VRML97-Sprache (Virtual Reality Modeling Language 97) wird häufig zum Modellieren und Verarbeiten einer virtuellen visuellen und akustischen Umgebung benutzt, und diese Sprache wird in der Veröffentlichung ISO/IEC JTC/SC24 IS 14772-1, 1997, Information Technology – Computer Graphics and Image Processing – The Virtual Reality Modeling Language (VRML97), April 1997 und auf den entsprechenden Seiten der Internetadresse http://www.vrml.org/Specifications/VRML97/ behandelt. Ein weiterer Regelsatz, der zum Zeitpunkt des Schreibens dieser Patentanmeldung in Entwicklung ist, betrifft Java3D, das die Steuer- und Verarbeitungsumgebung von VRML werden soll und beispielsweise in der Veröffentlichung SUN Inc. 1997: JAVA 3D API Specification 1.0 und an der Internetadresse http://www.javasoft.com/products/java-media/3D/forDevelopers/3Dguide/- beschrieben ist. Ferner hat der in Entwicklung befindliche-MPEG-4-Standard (Motion Picture Experts Group 4) zum Ziel, dass eine über eine digitale Kommunikationsverbindung übertragene Multimediapräsentation echte und virtuelle Objekte enthalten kann, die zusammen eine bestimmte audiovisuelle Umgebung ausbilden. Der MPEG-4-Standard ist in der Veröffentlichung ISO/IEC JTC/SC29 WG11 CD 14496.1997: Information technology – Coding of audiovisual objects, November 1997, und auf den entsprechenden Seiten an der Internetadresse http://www.cselt.it/-mpeg/public/mpe4 cd.htm beschrieben.
  • 1 zeigt ein bekanntes gerichtetes Klangmodell, das in VRML97 und MPEG-4 benutzt wird. Die Klangquelle befindet sich am Punkt 101, und darum sind zwei Ellipsoide 102 und 103, eine in der anderen, gedacht, wobei der Fokus eines Ellipsoiden mit dem Ort der Klangquelle gemeinsam ist, und wobei die Hauptachsen der Ellipsoiden parallel sind. Die Größen der Ellipsoiden 102 und 103 sind durch die in der Richtung der Hauptachse gemessenen Abstände maxBack, maxFront, minBack und minFront dargestellt. Die Dämpfung des Klangs als Funktion der Entfernung ist durch die Kurve 104 dargestellt. Innerhalb des inneren Ellipsoids 102 ist die Klangintensität konstant, und außerhalb des äußeren Ellipsoiden 103 ist die Klangintensität Null. Beim Ablaufen jeglicher Geraden durch den Punkt 101 weg vom Punkt 101 nimmt die Klangintensität linear 20 dB zwischen dem inneren und dem äußeren Ellipsoid ab. Anders ausgedrückt kann die an einem zwischen den Ellipsoiden befindlichen Punkt 105 beobachtete Dämpfung A durch die Formel A = –20 dB·(d'/d'')berechnet werden, wobei d' der Abstand von der Oberfläche des inneren Ellipsoids zum Beobachtungspunkt ist, wie entlang der Geraden gemessen, die die Punkte 101 und 105 verbindet, und d " der Abstand zwischen dem inneren und äußeren Ellipsoid ist, wie entlang derselbe Geraden gemessen.
  • Bei Java3D wird gerichteter Klang mit dem ConeSound-Modell modelliert, das in 2 dargestellt ist. Die Figur zeigt einen Abschnitt einer bestimmten Doppelkegelstruktur entlang einer Ebene, die die gemeinsame Längsachse der Kegel enthält. Die Klangquelle befindet sich am gemeinsamen Scheitel 203 der Kegel 201 und 202. Sowohl in den Bereichen des vorderen Kegels 201 als auch des hinteren Kegels 202 ist der Klang einheitlich gedämpft. In dem Bereich zwischen den Kegeln wird lineare Interpolation angewendet. Zum Berechnen der am Beobachtungspunkt 204 erkannten Dämpfung muss man die Klangintensität ohne Dämpfung, die Breite des vorderen und hinteren Kegels und den Winkel zwischen der Längsachse des vorderen Kegels und der Geraden kennen, die die Punkte 203 und 204 verbindet.
  • Ein bekanntes Verfahren zum Modellieren der Akustik eines Oberflächen umfassenden Raums ist das Bildquellenverfahren, bei dem der Originalklangquelle ein Satz imaginärer Bildquellen zugegeben wird, die Spiegelbilder der Klangquelle bezüglich der Reflektionsoberflächen sind, die untersucht werden sollen: eine Bildquelle wird hinter jeder Reflektionsoberfläche, die untersucht werden soll, angeordnet, wobei die direkt von dieser Bildquelle zum Untersuchungspunkt gemessene Entfernung dieselbe wie die Entfernung von der Originalklangquelle über die Reflektion zu dem Untersuchungspunkt ist. Ferner erreicht der Klang von der Bildquelle aus derselben Richtung wie der echte, reflektierte Klang am Untersuchungspunkt an. Der Höreindruck wird durch Hinzufügen der durch die Bildquellen erstellten Klänge erzielt.
  • Die Verfahren des Stands der Technik sind bezüglich der Berechnung sehr schwerfällig. Wenn man annimmt, dass die virtuelle Umgebung beispielsweise als Rundfunk oder über ein Datennetz an den Benutzer übertragen wird, dann sollte der Empfänger des Benutzers fortlaufend den Klang hinzufügen, der von sogar Tausenden von Bildquellen erzeugt wird. Zudem ändert sich die Basis der Berechnung stets, wenn der Benutzer beschließt, den Ort des Untersuchungspunkts zu wechseln. Ferner ignorieren die bekannten Lösungen die Tatsache völlig, dass neben dem Richtungswinkel die Richtcharakteristik des Klangs stark von seiner Wellenlänge abhängt, d.h. Klänge mit einer unterschiedlichen Tonlage unterschiedlich gerichtet werden.
  • Aus der nicht veröffentlichten PCT-Veröffentlichung WO 99/21164, die unter Artikel 54(3) EPC fällt, ist ein Verfahren und ein System zum Verarbeiten einer virtuellen akustischen Umgebung bekannt. Dort sind die Oberflächen der Umgebung, die modelliert werden soll, durch Filter mit einem bestimmten Freguenzgang dargestellt. Zum Übertragen der modellierten Umgebung in digitaler Übertragungsform genügt es, die Übertragungsfunktionen aller wesentlichen Oberflächen, die zu der Umgebung gehören, auf irgendeine Weise zu präsentieren. Diese Schrift offenbart außerdem eine Filterstufe, die die Richtcharakteristik der Klangquelle durch Berücksichtigen, wie der durch die Klangquelle übertragene Klang von der Klangquelle in verschiedene Richtungen in dem Raum gerichtet wird, der modelliert werden soll, berücksichtigt.
  • Die UK-Patentveröffentlichung Nr. GB-A-2305092 offenbart ein Verfahren für die Simulation der akustischen Qualität, die durch eine virtuelle Klangquelle erzeugt ist, und für die Lokalisierung dieser Quelle bezüglich einem oder mehreren Zuhörern und einer oder mehreren Originalklangquellen.
  • Gemäß der Erfindung ist ein Verfahren zum Verarbeiten einer virtuellen akustischen Umgebung in einer akustischen Umgebung bereitgestellt, wobei die virtuelle akustische Umgebung zumindest eine virtuelle Klangquelle umfasst, wobei eine bestimmte Bezugsrichtung und ein Satz Richtungen, die von der bestimmten Bezugsrichtung abweichen, für die Klangquelle definiert werden, wobei zum Modellieren, wie der Klang von der zumindest einen Klangquelle gerichtet wird, der Klangquelle eine richtungsabhängige Filteranordnung zugeordnet wird, wobei ein Filter jeder Richtung zugeordnet wird, die von der bestimmten Bezugsrichtung abweicht, sodass die Wirkung der Filteranordnung auf den Klang von vorgegebenen Parametern bezüglich jeden Filters abhängt, wobei die Parameter bezüglich jeden Filters Verstärkungsfaktoren sind, um die relative Verstärkung des Klangs, der in verschiedene Richtungen von der Klangquelle gerichtet wird, zu bestimmen.
  • Gemäß einem zweiten Aspekt der Erfindung ist ein System zum Verarbeiten der virtuellen akustischen Umgebung bereitgestellt, umfassend zumindest eine virtuelle Klangquelle, wobei eine bestimmte Bezugsrichtung und ein Satz Richtungen, die von der bestimmten Bezugsrichtung abweichen, für die Klangquelle definiert sind, wobei das System Mittel zum Erzeugen einer richtungsabhängigen Filteranordnung umfasst, die der Klangquelle zugeordnet sind, umfassend parametrisierte Filter, deren Wirkung auf die Klangquelle von vorgegebenen Parametern bezüglich jeden Filters abhängt, wobei der Filter jeder Richtung zugeordnet ist, die von der bestimmten Bezugsrichtung abweicht, um zu modellieren, wie der Klang von der zumindest einen Klangquelle, die zu der virtuellen akustischen Umgebung gehört, gerichtet wird, wobei die Parameter bezüglich jeden Filters Verstärkungsfaktoren sind zum Bestimmen der relativen Verstärkung des Klangs, der in verschiedene Richtungen von der Klangquelle gerichtet ist.
  • Es ist die Aufgabe von Ausführungsformen der vorliegenden Erfindung, ein Verfahren und System vorzulegen, mit dem eine virtuelle akustische Umgebung mit einer annehmbaren Rechenlast an den Benutzer übertragen werden kann. Es ist eine weitere Aufgabe der Erfindung, ein Verfahren und ein System vorzulegen, die imstande sind zu berücksichtigen, wie Tonlage und Ankunftsrichtung des Klangs die Richtung des Klangs beeinflussen.
  • Die Aufgaben von Ausführungsformen der Erfindung werden durch Modellieren der Klangquelle oder ihrer frühen Reflektion durch eine parametrisierte Systemfunktion gelöst, wobei es möglich ist, mithilfe verschiedener Parameter eine gewünschte Richtung des Klangs einzustellen und zu berücksichtigen, wie die Richtung von der Frequenz und dem Richtungswinkel abhängt.
  • Das Verfahren gemäß Ausführungsformen der Erfindung ist dadurch gekennzeichnet, dass zum Modellieren, wie der Klang gerichtet wird, der Klangquelle einer virtuellen akustischen Umgebung eine richtungsabhängige Filteranordnung zugeordnet wird, sodass die Wirkung der Filteranordnung auf den Klang von vorgegebenen Parametern abhängt.
  • Die Ausführungsformen der Erfindung betreffen außerdem ein System, das dadurch gekennzeichnet ist, dass es Mittel zum Erzeugen einer Filterbank umfasst, die parametrisierte Filter zum Modellieren der Richtung von den Klangquellen, die zu der virtuellen akustischen Umgebung gehören, umfassen.
  • Gemäß Ausführungsformen der Erfindung umfasst das Modell der Klangquelle oder der daraus berechneten Reflektion digitale, richtungsabhängige Filter. Eine bestimmte Bezugsrichtung, Nullazimut genannt, wird für den Klang ausgewählt. Diese Richtung kann in jegliche Richtung in der virtuellen akustischen Umgebung gerichtet werden. Daneben wird eine Anzahl anderer Richtungen ausgewählt, bei denen es erwünscht ist zu modellieren, wie der Klang gerichtet wird. Außerdem können diese Richtungen willkürlich ausgewählt werden. Jede andere ausgewählte Richtung wird durch einen eigenen digitalen Filter mit einer Übertragungsfunktion modelliert, der entweder als frequenzabhängig oder frequenzunabhängig ausgewählt werden kann. In einem Fall, in dem sich der Untersuchungspunkt anderswo als exakt in einer durch einen Filter dargestellten Richtung befindet, ist es möglich, verschiedene Interpolationen zwischen den Filterübertragungsfunktionen zu bilden.
  • Wenn gewünscht ist, Klang und wie er gerichtet wird in einem System zu modellieren, in dem Information in digitaler Form übertragen werden muss, ist es notwendig, nur die Daten über jede Übertragungsfunktion zu übertragen. Das Empfangsgerät, das den gewünschten Untersuchungspunkt kennt, bestimmt, dass der Klang vom Ort der Klangquelle mithilfe der Übertragungsfunktionen, die es rekonstruiert hat, zum Untersuchungspunkt hin übertragen wird. Wenn sich der Ort des Untersuchungspunkts bezüglich des Nullazimuts ändert, prüft das Empfangsgerät, wie der Klang zu dem neuen Untersuchungspunkt gerichtet wird. Es kann mehrere Klangquellen geben, wobei das Empfangsgerät berechnet, wie der Klang von jeder Klangquelle zum Untersuchungspunkt gerichtet wird, und entsprechend den Klang modifiziert, den sie wiedergibt. Dann erhält der Zuhörer einen Eindruck eines korrekt positionierten Hörorts, beispielsweise bezüglich eines virtuellen Orchesters, in dem sich die Instrumente an verschiedenen Orten befinden und verschiedenartig gerichtet sind.
  • In einer fortgeschritteneren Alternative wird das untersuchte Frequenzband in Unterbänder unterteilt, und für jedes Unterband werden seine eigenen Verstärkungsfaktoren in den ausgewählten Richtungen präsentiert. In einer weiter fortgeschrittenen Version wird jede untersuchte Richtung durch eine allgemeine Übertragungsfunktion modelliert, für die bestimmte Koeffizienten angegeben sind, die die Rekonstruktion derselben Übertragungsfunktionen ermöglichen.
  • Im Folgenden wird die Erfindung unter Bezugnahme auf bevorzugte Ausführungsformen und die beiliegenden Figuren detaillierter beschrieben.
  • Es zeigen:
  • 1 ein bekanntes gerichtetes Klangmodell;
  • 2 ein anderes bekanntes gerichtetes Klangmodell;
  • 3 schematisch ein gerichtetes Klangmodell gemäß der Erfindung;
  • 4 zeigt eine grafische Darstellung davon, wie der Klang gerichtet wird, erzeugt durch ein Modell gemäß der Erfindung;
  • 5 zeigt, wie die Erfindung auf eine virtuelle akustische Umgebung angewendet wird;
  • 6 zeigt ein System gemäß der Erfindung;
  • 7a zeigt detaillierter einen Teil eines Systems gemäß der Erfindung; und 7b zeigt ein Detail von 7a.
  • Es wurde oben in Verbindung mit der Beschreibung des Stands der Technik Bezug auf 1 und 2 genommen, sodass in der folgenden Beschreibung der Erfindung und ihrer bevorzugten Ausführungsformen hauptsächlich auf 3 bis 7b Bezug genommen wird.
  • 3 zeigt den Ort der Klangquelle in Punkt 300 und die Richtung 301 des Nullazimuts. In der Figur wird vorausgesetzt, dass wir die in Punkt 300 befindliche Klangquelle mit vier Filtern darstellen möchten, von denen der erste die Ausbreitung des Klangs von der Klangquelle in der Richtung 302 darstellt, der zweite die Ausbreitung des Klangs von der Klangquelle in der Richtung 303 darstellt, der dritte die Ausbreitung des Klangs von der Klangquelle in der Richtung 304 darstellt und der vierte die Ausbreitung des Klangs von der Klangquelle in der Richtung 305 darstellt. Ferner wird in der Figur vorausgesetzt, dass sich der Klang symmetrisch bezüglich der Richtung 301 des Nullazimuts ausbreitet, sodass tatsächlich jede der Richtungen 302 bis 305 jegliche entsprechende Richtung auf einer konischen Oberfläche darstellt, die durch Drehen des Radius, der die untersuchte Richtung darstellt, um die Richtung 301 des Nullazimuts erhalten wird. Die Erfindung ist nicht auf diese Voraussetzungen beschränkt, sondern einige der Merkmale der Erfindung sind bei Betrachtung zunächst einer vereinfachten Ausführungsform der Erfindung leichter verständlich. In der Figur sind die Richtungen 302 bis 305 als abstandsgleiche Linien in derselben Ebene gezeigt, wobei die Richtungen jedoch gleichermaßen willkürlich ausgewählt sein können.
  • Jeder in 3 gezeigte und die Klangausbreitung in einer vom Nullazimut abweichenden Richtung darstellende Filter ist symbolisch durch einen Block 306, 307, 308 und 309 gezeigt. Jeder Filter ist durch eine bestimmte Übertragungsfunktion Hi gekennzeichnet, wobei i ∊ {1, 2, 3, 4} ist. Die Übertragungsfunktionen der Filter sind normiert, sodass ein Klang, der sich bezüglich des Nullazimuts ausbreitet, derselbe wie der Klang ist, der als solcher von der Klangquelle erzeugt ist. Da ein Klang typischerweise eine Zeitfunktion ist, wird der von der Klangquelle erzeugte Klang als X(t) dargestellt. Jeder Filter 306 bis 309 erzeugt eine Reaktion Yi(t), wobei i ∊ {1, 2, 3, 4} ist, gemäß folgender Gleichung Yi(t) = Hi* X(t) (1) wobei * Faltung bezüglich der Zeit darstellt. Die Reaktion Yi(t) ist der in die betreffende Richtung gerichtete Klang.
  • In ihrer einfachsten Form bedeutet die Übertragungsfunktion, dass der Impuls X(t) mit einer reellen Zahl multipliziert wird. Da es natürlich ist, den Nullazimut als die Richtung zu wählen, in die der stärkste Klang gerichtet wird, sind die einfachsten Übertragungsfunktionen der Filter 306 bis 309 reelle Zahlen zwischen Null und Eins, diese Begrenzungen eingeschlossen.
  • Eine einfache Multiplikation mit reellen Zahlen berücksichtigt die Bedeutung der Tonlage für die Richtcharakteristik des Klangs nicht. Eine vielseitigere Übertragungsfunktion ist derart, bei der der Impuls in vorgegebene Frequenzbänder aufgeteilt wird und jedes Frequenzband mit seinem eigenen Verstärkungsfaktor multipliziert wird, der eine reelle Zahl ist. Die Frequenzbänder können durch eine Zahl definiert werden, die die höchste Frequenz des Frequenzbands darstellt. Alternativ können bestimmte Koeffizienten reeller Zahlen nun für einige Beispielfrequenzen präsentiert werden, wobei eine geeignete Interpolation zwischen diesen Frequenzen angewendet wird (wenn beispielsweise eine Frequenz von 400 Hz und ein Faktor 0,6 und eine Frequenz von 1000 Hz und ein Faktor 0,2 gegeben ist, dann erhalten wir mit gradliniger Interpolation den Faktor 0,4 für die Frequenz 700 Hz).
  • Im Allgemeinen kann behauptet werden, dass jeder Filter 306 bis 309 ein IIR- oder FIR-Filter (Infinite Impulse Response; Finite Impulse Response) mit einer Übertragungsfunktion H ist, die mithilfe einer Z-Transformation H(z) ausgedrückt werden kann. Wenn wir die Z-Transformation X(z) des Impulses X(t) und die Z-Transformation Y(z) des Impulses Y(t) nehmen, dann erhalten wir die Definition
    Figure 00130001
    wobei es genügt, die beim Modellieren der Z-Transformation benutzten Koeffizienten [b0 b1 a1 b2 a2...] auszudrücken, um eine willkürliche Übertragungsfunktion auszudrücken. Die in der Summierung benutzten Obergrenzen N und M stellen die Genauigkeit dar, mit der die Übertragungsfunktion zu definieren gewünscht ist. In der Praxis sind sie dadurch bestimmt, wie hohe Kapazität zum Speichern und/oder Übertragen der zum Modellieren jeder einzelnen Übertragungsfunktion benutzten Koeffizienten in einem Übertragungssystem verfügbar ist.
  • 4 zeigt, wie der von einer Trompete erzeugte Klang gerichtet wird, wie durch den Nullazimut und gemäß der Erfindung außerdem mit acht frequenzabhängigen Übertragungsfunktionen und Interpolationen dazwischen ausgedrückt. Die Art und Weise, auf die der Klang gerichtet wird, ist in einem dreidimensionalen Koordinatensystem modelliert, wobei die vertikale Achse die Klanglautstärke in Dezibel, die erste horizontale Achse den Richtungswinkel in Grad und die zweite horizontale Achse die Frequenz des Klangs in Kilohertz darstellt. Aufgrund der Interpolationen ist der Klang durch eine Oberfläche 400 dargestellt. An der linken Oberkante der Figur ist die Oberfläche 400 durch eine horizontale Linie 401 begrenzt, die ausdrückt, dass die Lautstärke frequenzunabhängig in der Nullazimutrichtung ist. An der rechten Oberkante ist die Oberfläche 400 durch eine nahezu horizontale Linie 402 begrenzt, die anzeigt, dass die Lautstärke auf sehr niedrigen Frequenzen (Frequenzen, die sich 0 Hz nähern) nicht vom Richtungswinkel abhängt. Die Frequenzgänge der Filter, die verschiedene Richtungswinkel darstellen, sind Kurven, die an der Linie 402 beginnen und schief nach unten links in der Figur verlaufen. Die Richtungswinkel sind abstandsgleich, und ihre Größenordnungen sind 22,5°, 45°, 67,5°, 90°, 112,5°, 135°, 157,5° und 180°. Die Kurve 403 beispielsweise stellt die Lautstärke als eine Funktion der Frequenz bezüglich des Klangs dar, der sich im Winkel von 157,5° vom Nullazimut gemessen ausbreitet, und diese Kurve zeigt, dass in dieser Richtung die höchsten Frequenzen gedämpfter sind als die niederen Frequenzen.
  • Die Erfindung ist zur Wiedergabe in lokalen Anlagen geeignet, bei denen die virtuelle akustische Umgebung im Computerspeicher erstellt und in derselben Verbindung verarbeitet wird oder sie aus einem Speichermedium, wie etwa einer DVD (Digital Versatile Disc), gelesen und über audiovisuelle Präsentationsmittel (Anzeigen, Lautsprecher) für den Benutzer wiedergegeben wird. Die Erfindung ist ferner in Systemen anwendbar, bei denen die virtuelle akustische Umgebung in der Anlage eines so genannten Dienstanbieters erstellt und über ein Übertragungssystem an den Benutzer übertragen wird. Ein Gerät, das den der Erfindung gemäß verarbeiteten, gerichteten Klang für den Benutzer wiedergibt, und das es dem Benutzer typischerweise ermöglicht auszuwählen, an welchem Punkt der virtuellen akustischen Umgebung er den wiedergegebenen Klang hören möchte, wird im Allgemeinen Empfangsgerät genannt. Dieser Begriff ist nicht als einschränkend bezüglich der Erfindung gedacht.
  • Wenn der Benutzer dem Empfangsgerät Information darüber gegeben hat, an welchem Punkt der virtuellen akustischen Umgebung er den wiedergegebenen Klang hören möchte, bestimmt das Empfangsgerät, wie der von der Klangquelle zu dem Punkt hin gerichtet wird. In 4 bedeutet dies grafisch untersucht, dass das Empfangsgerät, wenn es den Winkel zwischen dem Nullazimut der Klangquelle und der Richtung des Untersuchungspunkts bestimmt hat, di Oberfläche 400 mit einer vertikalen Ebene durchschneidet, die parallel zu der Frequenzachse ist und den Richtungswinkel an dem Wert schneidet, der den Winkel zwischen dem Nullazimut und dem Untersuchungspunkt angibt. Der Abschnitt zwischen der Oberfläche 400 und der vertikalen Ebene ist eine Kurve, die die relative Lautstärke des in der Richtung des Untersuchungspunkts erkannten Klangs als eine Funktion der Frequenz darstellt. Das Empfangsgerät bildet einen Filter, der einen Frequenzgang gemäß der Kurve ausführt, und richtet den von der Klangquelle erzeugten Klang durch den Filter, den es gebildet hat, bevor er für den Benutzer wiedergegeben wird. Wenn der Benutzer beschließt, den Ort des Untersuchungspunkts zu ändern, bestimmt das Empfangsgerät eine neue Kurve und erzeugt auf die oben beschriebene Art und Weise einen neuen Filter.
  • 5 zeigt eine virtuelle akustische Umgebung 500 mit drei virtuellen Klangquellen 501, 502 und 503, die unterschiedlich gerichtet sind. Der Punkt 504 stellt den vom Benutzer gewählten Untersuchungspunkt dar. Zur Erläuterung der in 5 gezeigten Situation ist gemäß der Erfindung für jede Klangquelle 501, 502 und 503 ein eigenes Model erstellt, das darstellt, wie der Klang gerichtet wird, wobei das Modell in jedem Fall grob 3 und 4 entsprechen kann, jedoch unter Berücksichtigung, dass der Nullazimut eine andere Richtung für jede virtuelle Klangquelle in dem Modell aufweist. In diesem Falle muss das Empfangsgerät zur Berücksichtigung, wie der Klang gerichtet wird, drei separate Filter bilden. Zum Bilden des ersten Filters werden jene Übertragungsfunktionen bestimmt, die modellieren, wie der von der ersten Klangquelle übertragene Klang gerichtet wird, und mit deren Hilfe und einer Interpolation wird eine Oberfläche gemäß 4 geschaffen. Ferner wird der Winkel zwischen dem Untersuchungspunkt und dem Nullazimut 505 der Klangquelle 501 bestimmt, und mithilfe dieses Winkels ist der Frequenzgang in dieser Richtung auf der oben genannten Oberfläche lesbar. Dieselben Vorgänge werden separat für jede Klangquelle wiederholt. Der Klang, der für den Benutzer wiedergegeben wird, ist die Summe des Klangs aus allen drei Klangquellen, und in dieser Summe wurde jeder Klang mit einem Filtermodell gefiltert, der modelliert, wie der Klang gerichtet wird.
  • Gemäß der Erfindung sind neben den tatsächlichen Klangquellen außerdem Klangreflektionen modellierbar, insbesondere frühe Reflektionen. In 5 ist durch ein an sich bekanntes Bildquellenverfahren eine Bildquelle 506 ausgebildet, die darstellt, wie der von der Klangquelle 503 erzeugte Klang von einer benachbarten Wand reflektiert wird. Diese Bildquelle kann gemäß der Erfindung auf exakt dieselbe Art und Weise wie die tatsächlichen Klangquellen verarbeitet werden, d.h. die Richtung des Nullazimuts und die Klangrichtcharakteristik (frequenzabhängig, falls erforderlich) in von der Nullazimutrichtung abweichenden Richtungen sind dafür bestimmbar. Das Empfangsgerät gibt den von der Bildquelle „erzeugten" Klang durch dasselbe Prinzip wieder wie jenes, das es für den von den tatsächlichen Klangquellen erzeugten Klang benutzt.
  • 6 zeigt ein System mit einem Übertragungsgerät 601 und einem Empfangsgerät 602. Das Übertragungsgerät 601 erstellt eine bestimmte virtuelle akustische Umgebung, die zumindest eine Klangquelle und die akustischen Kennzeichen von zumindest einem Raum umfasst, und es überträgt die Umgebung auf eine bestimmte Weise an das Empfangsgerät 602. Die Übertragung kann beispielsweise als digitaler Rundfunk oder digitale Fernsehsendung oder über ein Datennetz erfolgen. Die Übertragung kann außerdem bedeuten, dass das Übertragungsgerät 601 eine Aufnahme, wie etwa eine DVD (Digitale Versatile Disc) auf Grundlage der virtuellen akustischen Umgebung, die es erstellt hat, erzeugt und der Benutzer des Empfangsgeräts diese Aufnahme für seinen Gebrauch beschafft. Eine typische, als Aufnahme übermittelte Anwendung könnte ein Konzert sein, bei der die Klangquelle ein Orchester ist, das virtuelle Instrumente umfasst, und der Raum ein elektrisch modellierter, imaginärer oder echter Konzertsaal ist, womit der Benutzer des Empfangsgeräts mit seiner Anlage hören kann, wie die Darbietung an verschiedenen Stellen des Saals klingt. Wenn diese virtuelle Umgebung audiovisuell ist, umfasst sie außerdem einen durch Computergrafik verwirklichten visuellen Bereich. Die Erfindung erfordert nicht, dass das Übertragungsgerät und das Empfangsgerät verschiedene Geräte sind, jedoch kann der Benutzer eine bestimmte virtuelle akustische Umgebung in einem Gerät erstellen und dasselbe Gerät zur Untersuchung seiner Schöpfung benutzen.
  • In der in 6 gezeigten Ausführungsform erstellt der Benutzer des Übertragungsgeräts eine bestimmte visuelle Umgebung, wie etwa einen Konzertsaal, mithilfe des Computergrafikwerkzeugs 603 und eine Videoanimation, wie etwa die Musiker und die Instrumente eines virtuellen Orchesters mit entsprechenden Werkzeugen 604. Ferner gibt er über eine Tastatur 605 bestimmte Richtcharakteristika für die Klangquellen der Umgebung ein, die er erstellt hat, besonders bevorzugt die Übertragungsfunktionen, die darstellen, wie der Klang abhängig von der Frequenz gerichtet wird. Das Modellieren, wie der Klang gerichtet wird, kann außerdem auf Grundlage von Messungen erfolgen, die für echte Klangquellen vorgenommen wurden; dann wird die Richtcharakteristikinformation typischerweise aus einer Datenbank 606 gelesen. Die Klänge der virtuellen Instrumente werden aus der Datenbank 606 geladen. Das Übertragungsgerät verarbeitet die vom Benutzer eingegebene Information in Bitströmen in den Blöcken 607, 608, 609 und 610 und kombiniert die Bitströme im Multiplexer 611 zu einem Datenstrom. Der Datenstrom wird dem Empfangsgerät 602 auf eine bestimmte Weise zugeführt, wo der Demultiplexer 612 aus dem Datenstrom den Bildbereich, der die statische Umgebung darstellt, in den Block 613, den zeitabhängigen Bildbereich oder die Animation in den Block 614, den zeitabhängigen Klang in den Block 615 und die Koeffizienten, die die Oberflächen darstellen, in den Block 616 trennt. Die Bildbereiche werden im Anzeigentreiberblock 617 kombiniert und vom Block 615 der Filterbank 619 zugeführt, die Filter mit Übertragungsfunktionen aufweist, welche mithilfe der aus dem Block 616 erhaltenen a- und b-Parametern rekonstruiert werden. Der von der Filterbank erstellte Klang wird dem Headset 620 zugeführt.
  • 7a und 7b zeigen detaillierter eine Filteranordnung des Empfangsgeräts, mit der es möglich ist, die virtuelle akustische Umgebung gemäß der Erfindung zu verwirklichen. In den Figuren sind außerdem andere Faktoren bezüglich der Klangverarbeitung berücksichtigt, nicht nur die Klangrichtcharakteristikmodellierung gemäß der Erfindung. Das Verzögerungsmittel 721 erzeugt die Zeitunterschiede der verschiedenen Klangkomponenten zueinander (beispielsweise die Zeitunterschiede von Klängen zueinander, die entlang verschiedener Wege reflektiert wurden, oder von virtuellen Klangquellen, die in unterschiedlichen Abständen angeordnet sind). Gleichzeitig arbeitet das Verzögerungsmittel 721 als Demultiplexer, der die richtigen Klänge in die richtigen Filter 722, 723 und 724 leitet. Die Filter 722, 723 und 724 sind parametrisierte Filter, welche detaillierter in 7b beschrieben sind. Die von ihnen zugeführten Signale werden einerseits zu den Filtern 701, 702 und 703 und andererseits über Addierer und einen Verstärker 704 zum Addierer 705 verzweigt, die zusammen mit den Echozweigen 706, 707, 708 und 709 und dem Addierer 710 und den Verstärkern 711, 712, 713 und 714 eine an sich bekannte Kopplung bilden, mit der Postecho für ein bestimmtes Signal erzeugt sein kann. Die Filter 701, 702 und 703 sind an sich bekannte Richtungsfilter, die die Unterschiede der auditiven Wahrnehmung des Zuhörers in verschiedenen Richtungen berücksichtigen, beispielsweise gemäß dem HRTF-Modell (Head-Related Transfer Function). Besonders vorteilhaft enthalten die Filter 701, 702 und 703 außerdem so genannte ITD-Verzögerungen (Interaural Time Difference), die Zeitunterschiede der Klangkomponenten zueinander modellieren, welche das Ohr des Zuhörers aus verschiedenen Richtungen erreichen.
  • In den Filtern 701, 702 und 703 wird jede Signalkomponente in den rechten und linken Kanal eingeteilt, oder in einem Mehrkanalsystem im Allgemeinen in N Kanäle. Alle Signale, die einen bestimmten Kanal betreffen, werden im Addierer 715 oder 716 kombiniert und zum Addierer 717 oder 718 geleitet, wo das jedem Signal zugehörige Postecho hinzugefügt wird. Die Leitungen 719 und 720 führen zu den Lautsprechern oder zum Headset. In 7a bedeuten die Punkte zwischen den Filtern 723 und 724 und den Filtern 702 und 703, dass die Erfindung nicht begrenzt, wie viele Filter es in der Filterbank des Empfangsgeräts gibt. Es kann abhängig von der Komplexität der modellierten virtuellen akustischen Umgebung sogar Hunderte oder Tausende von Filtern geben.
  • 7b zeigt detaillierter eine Möglichkeit zur Verwirklichung des in 7a gezeigten parametrisierten Filters 722. In 7b umfasst der Filter 722 drei aufeinander folgende Filterstufen 730, 731 und 732, von denen die erste Filterstufe 730 die Ausbreitungsdämpfung in einem Medium (im Allgemeinen Luft) darstellt, die zweite Stufe 731 die in dem reflektierenden Material auftretende Absorption darstellt (sie kommt insbesondere beim Modellieren der Reflektionen zur Anwendung) und die dritte Stufe 732 sowohl die Entfernung, in der sich der Klang in dem Medium von der Klangquelle (möglicherweise über eine reflektierende Oberfläche) zum Untersuchungspunkt ausbreitet, als auch die Kennzeichen des Mediums berücksichtigt, wie etwa Luftfeuchtigkeit, Luftdruck und Lufttemperatur. Zum Berechnen der Entfernung erhält die erste Stufe 730 vom Übertragungsgerät Information über den Ort der Klangquelle in dem Koordinatensystem des Raums, der modelliert werden soll, und vom Empfangsgerät Information über die Koordinaten des Punkts, den der Benutzer als Untersuchungspunkt gewählt hat. Die erste Stufe 730 erhält die Daten, die die Kennzeichen des Mediums beschreiben, entweder vom Übertragungsgerät oder vom Empfangsgerät (dem Benutzer des Empfangsgeräts kann es ermöglicht sein, erwünschte Mediumkennzeichen einzustellen). Standardmäßig erhält die zweite Stufe 731 vom Übertragungsgerät einen Koeffizienten, der die Absorption der reflektierenden Oberfläche beschreibt, obgleich auch in diesem Falle dem Benutzer des Empfangsgeräts eine Möglichkeit gegeben sein kann, die Kennzeichen des modellierten Raums zu ändern. Die dritte Stufe 732 berücksichtigt, wie der von der Klangquelle übertragene Klang von der Klangquelle in verschiedene Richtungen in dem modellierten Raum gerichtet wird; somit verwirklicht die dritte Stufe 732 die in dieser Patentanmeldung vorgelegte Erfindung.
  • Vorstehend wurde allgemein besprochen, wie die Kennzeichen der virtuellen akustischen Umgebung unter Benutzung von Parametern verarbeitet und von einem Gerät an das nächste Gerät übertragen werden kann. Im Folgenden wird besprochen, wie die Erfindung auf eine bestimmte Datenübertragungsform Anwendung findet. Multimedia bedeutet eine miteinander synchronisierte Präsentation von audiovisuellen Objekten für den Benutzer. Man nimmt an, dass interaktive Multimediapräsentationen künftig in hohem Maße in Gebrauch kommen, beispielsweise als Unterhaltungs- und Telekonferenzform. Der Stand der Technik kennt einige Standards, die verschiedene Wege zum Übertragen von Multimediaprogrammen in elektrischer Form definieren. In dieser Patentanmeldung wird insbesondere der so genannte MPEG-Standard (Motion Picture Experts Group) besprochen, dessen MPEG-4-Standard zum Zeitpunkt der Einreichung dieser Patentanmeldung als ein Ziel hat, dass die übertragene Multimediapräsentation echte und virtuelle Objekte enthalten kann, die zusammen eine bestimmte audiovisuelle Umgebung bilden. Die Erfindung ist in keiner Weise lediglich auf den Gebrauch in Verbindung mit dem MPEG-4-Standard beschränkt, sondern kann beispielsweise in den Erweiterungen des VRML97-Standards oder sogar in künftigen, zurzeit unbekannten audiovisuellen Standards Anwendung finden.
  • Ein Datenstrom gemäß dem MPEG-4-Standard umfasst multiplexierte audiovisuelle Objekte, die einen Abschnitt, der zeitkontinuierlich ist (wie etwa ein synchronisierter Klang), und Parameter (wie etwa dem Ort der Klangquelle in dem Raum, der modelliert werden soll) enthalten können. Die Objekte können hierarchisch definiert sein, wobei sich so genannte primitive Objekte auf der untersten Ebene der Hierarchie befinden. Neben den Objekten beinhaltet ein Multimediaprogramm gemäß dem MPEG-4-Standard eine so genannte Szenenbeschreibung, die derartige Information bezüglich der Beziehungen der Objekte zueinander und der Anordnung der allgemeinen Einstellung des Programms enthält, wobei die Information besonders vorteilhaft separat von den eigentlichen Objekten codiert und decodiert wird. Die Szenenbeschreibung wird auch BIFS-Abschnitt (Binary Format for Scene Description) genannt. Die Übertragung einer virtuellen akustischen Umgebung gemäß der Erfindung wird vorteilhaft unter Benutzung der strukturierten Audiosprache, die im MPEG-4-Standard definiert ist (SAOL/SASL: Structured Audio Orchestra Language/Structured Audio Score Language), oder der VRML97-Sprache durchgeführt.
  • In den oben genannten Sprachen ist derzeit ein Klangknoten definiert, der die Klangquelle modelliert. Gemäß der Erfindung ist es möglich, eine Erweiterung eines bekannten Klangknotens zu definieren, der in dieser Patentanmeldung ein DirectiveSound-Knoten genannt wird. Neben dem bekannten Klangknoten enthält er ferner ein Feld, das hierin das Richtcharakteristikfeld genannt wird und die Information liefert, die zum Rekonstruieren der Filter erforderlich ist, die die Klangrichtcharakteristik darstellen. Es wurden oben drei verschiedene Alternativen zum Modellieren der Filter vorgestellt, daher wird unten beschrieben, wie diese Alternativen im Richtcharakteristikfeld eines DirectiveSound-Knotens gemäß der Erfindung erscheinen.
  • Gemäß der ersten Alternative entspricht jeder Filter, der eine Richtung modelliert, die von einem bestimmten Nullazimut abweicht, einer einfachen Multiplikation mit einem Verstärkungsfaktor, der eine standardisierte reelle Zahl zwischen 0 und 1 ist. Danach könnte der Inhalt des Richtcharakteristikfelds beispielsweise folgendermaßen aussehen:
    ((0,79 0,8) (1,57 0,6) (2,36 0,4) (3,14 0,2))
  • Bei dieser Alternative enthält das Richtcharakteristikfeld so viele Zahlenpaare wie Richtungen vorliegen, die von dem Nullazimut im Klangquellenmodell abweichen. Die erste Zahl eines Zahlenpaars gibt den Winkel zwischen der betreffenden Richtung und dem Nullazimut in Radiant an, und die zweite Zahl gibt den Verstärkungsfaktor in der Richtung an.
  • Gemäß der zweiten Alternative ist der Klang in jeder Richtung, die vom Nullazimut abweicht, in Frequenzbänder unterteilt, die jedes seinen eigenen Verstärkungsfaktor aufweisen. Der Inhalt des Richtcharakteristikfelds könnte beispielsweise folgendermaßen aussehen:
    ((0,79 125,0 0,8 1000,0 0,6 4000,0 0,4)
    (1,57 125,0 0,7 1000,0 0,5 4000,0 0,3)
    (2,36 125,0 0,6 1000,0 0,4 4000,0 0,2)
    (3,14 125,0 0,5 1000,0 0,3 4000,0 0,1))
  • Bei dieser Alternative enthält das Richtcharakteristikfeld so viele Zahlensätze, durch die inneren Klammern voneinander getrennt, wie Richtungen vorliegen, die vom Nullazimut in dem Klangquellenmodell abweichen. In jedem Zahlensatz gibt die erste Zahl den Winkel zwischen der betreffenden Richtung und dem Nullazimut in Radiant an. Nach der ersten Zahl liegen Zahlenpaare vor, von denen das erste eine bestimmte Frequenz in Hertz angibt und das zweite der Verstärkungsfaktor ist. Beispielsweise kann der Zahlensatz (0,79 125,0 0,8 1000,0 0,6 4000,0 0,4) derart interpretiert werden, dass in der Richtung 0,79 Radiant ein Verstärkungsfaktor von 0,8 für die Frequenzen von 0 bis 125 Hz benutzt ist, ein Verstärkungsfaktor von 0,6 für die Frequenzen von 125 bis 1000 Hz benutzt ist und ein Verstärkungsfaktor von 0,4 für die Frequenzen von 1000 bis 4000 Hz benutzt ist. Alternativ ist es möglich, eine Notation zu verwenden, bei der die oben genannten Zahlensätze bedeuten, dass in der Richtung 0,79 Radiant der Verstärkungsfaktor 0,8 auf der Frequenz 125 Hz ist, der Verstärkungsfaktor 0,6 auf der Frequenz 1000 Hz ist und der Verstärkungsfaktor 0,4 auf der Frequenz 4000 Hz ist, und die Verstärkungsfaktoren auf anderen Frequenzen durch Interpolation und Extrapolation daraus berechnet werden. Bezüglich der Erfindung ist es nicht wesentlich, welche Notation verwendet wird, solange die verwendete Notation sowohl dem Übertragungsgerät als auch dem Empfangsgerät bekannt ist.
  • Gemäß der dritten Alternative wird in jeder Richtung, die vom Nullazimut abweicht, eine Übertragungsfunktion angewendet, und zum Definieren der Übertragungsfunktion sind die a- und b-Koeffizienten ihrer Z-Transformation gegeben. Der Inhalt des Richtcharakteristikfelds könnte beispielsweise folgendermaßen aussehen:
    ((45 b45,0 b45,1 a45,1 b45,2 a45,2...)
    (90 b90,0 b90,1 a90,1 b90,2 a90,2...)
    (135 b135,0 b135,1 a135,1 b135,2 a135,2...)
    (180 b180,0 b180,1 a180,1 b180,2 a180,2...))
  • Bei dieser Alternative enthält das Richtcharakteristikfeld ebenfalls so viele Zahlensätze, durch die inneren Klammern voneinander getrennt, wie Richtungen vorliegen, die vom Nullazimut in dem Klangquellenmodell abweichen. In jedem Zahlensatz gibt die erste Zahl den Winkel, in diesem Fall in Grad, zwischen der betreffenden Richtung und dem Nullazimut an; in diesem Fall ist es, wie auch in den obigen Fällen, möglich, gleichermaßen jegliche andere bekannte Winkelmaßeinheit zu benutzen. Nach der ersten Zahl liegen die a- und b-Koeffizienten vor, die die Z-Transformation der Übertragungsfunktion bestimmen, welche in der betreffenden Richtung benutzt wird. Die Punkte nach jedem Zahlensatz bedeuten, dass die Erfindung keinerlei Beschränkung dahingehend auferlegt, wie viele a- und b-Koeffizienten die Z-Transformationen der Übertragungsfunktion definieren. In verschiedenen Zahlensätzen kann eine unterschiedliche Anzahl a- und b-Koeffizienten vorliegen. Bei der dritten Alternative könnten die a- und b-Koeffizienten außerdem als ihre eigenen Vektoren gegeben sein, sodass eine effiziente Modellierung von FIR- oder all-pole-IIR-Filtern auf dieselbe Art und Weise wie in der Veröffentlichung Ellis, S. 1998: „Towards more realistic sound in VMRL", Proc. VRML'98, Monterey, USA, 16. bis 19. Februar 1998, S. 95 bis 100, möglich wäre.

Claims (11)

  1. Verfahren zum Verarbeiten einer virtuellen akustischen Umgebung in einer elektronischen Vorrichtung, wobei die virtuelle akustische Umgebung zumindest eine virtuelle Klangquelle (300) umfasst, wobei eine bestimmte Bezugsrichtung (301) und ein Satz Richtungen (302, 303, 304, 305), die von der bestimmten Bezugsrichtung (301) abweichen, für die Klangquelle (300) definiert werden, wobei zum Modellieren, wie der Klang von der zumindest einen Klangquelle (300) gerichtet wird, der Klangquelle eine richtungsabhängige Filteranordnung (306, 307, 308, 309) zugeordnet wird, wobei ein Filter (306, 307, 308, 309) jeder Richtung zugeordnet wird, die von der bestimmten Bezugsrichtung abweicht, sodass die Wirkung der Filteranordnung auf den Klang von vorgegebenen Parametern bezüglich jeden Filters abhängt, wobei die Parameter bezüglich jeden Filters Verstärkungsfaktoren sind, um die relative Verstärkung des Klangs, der in verschiedene Richtungen von der Klangquelle gerichtet wird, zu bestimmen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Verstärkungsfaktoren separate Verstärkungsfaktoren für verschiedene Frequenzen des Klangs in zumindest einer bestimmten Richtung umfassen, die von der Bezugsrichtung abweicht.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Parameter bezüglich jeden Filters Koeffizienten (b0 b1 a1 b2 a2...) des Quotientenausdrucks
    Figure 00270001
    der Z-Transformation der Übertragungsfunktion der Filter sind.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Modellieren, wie der Klang in andere Richtungen als die Bezugrichtung und in die bestimmten Richtungen gerichtet wird, die von der Bezugsrichtung abweichen, das Verfahren Interpolation (400) zwischen Filtern umfasst, die den bestimmten Richtungen zugeordnet wird, welche von der Bezugsrichtung abweichen.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren Schritte umfasst, in denen – die Übertragungsvorrichtung eine bestimmte, virtuelle akustische Umgebung (500) erstellt, die Klangquellen (501, 502, 503, 504) umfasst, wobei die Art und Weise, auf die der Klang von diesen Klangquellen gerichtet wird, durch Filter modelliert wird, deren Wirkung auf den Klang von Parametern bezüglich jeden Filters abhängt, – die Übertragungsvorrichtung Information über die Parameter bezüglich jeden Filters an die Empfangsvorrichtung überträgt und – die Empfangsvorrichtung zum Rekonstruieren der virtuellen akustischen Umgebung eine Filterbank erzeugt, die Filter umfasst, deren Wirkung auf das akustische Signal auf Parametern bezüglich jeden Filters abhängt, und die Parameter bezüglich jeden Filters auf Grundlage der Information erzeugt, die von der Übertragungsvorrichtung übertragen wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Übertragungsvorrichtung Information zu den Parametern bezüglich jeden Filters als Teil eines Datenstroms gemäß dem MPEG-4-Standard an die Empfangsvorrichtung überträgt.
  7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Klangquelle eine Reflektion (504) ist.
  8. System zum Verarbeiten der virtuellen akustischen Umgebung, umfassend zumindest eine virtuelle Klangquelle (300), wobei eine bestimmte Bezugsrichtung (301) und ein Satz Richtungen (302, 303, 304, 305), die von der bestimmten Bezugsrichtung (301) abweichen, für die Klangquelle (300) definiert sind, wobei das System Mittel zum Erzeugen einer richtungsabhängigen Filteranordnung (619) umfasst, die der Klangquelle (300) zugeordnet sind, umfassend parametrisierte Filter (306, 307, 308, 309), deren Wirkung auf die Klangquelle von vorgegebenen Parametern bezüglich jeden Filters (306, 307, 308, 309) abhängt, wobei der Filter (306, 307, 308, 309) jeder Richtung zugeordnet ist, die von der bestimmten Bezugsrichtung abweicht, um zu modellieren, wie der Klang von der zumindest einen Klangquelle, die zu der virtuellen akustischen Umgebung gehört, gerichtet wird, wobei die Parameter bezüglich jeden Filters Verstärkungsfaktoren sind zum Bestimmen der relativen Verstärkung des Klangs, der in verschiedene Richtungen von der Klangquelle gerichtet ist.
  9. System nach Anspruch 8, dadurch gekennzeichnet, dass das System eine Übertragungsvorrichtung (601) und eine Empfangsvorrichtung (602) und Mittel zum Herstellen einer elektrischen Kommunikation zwischen der Übertragungsvorrichtung und der Empfangsvorrichtung umfasst.
  10. System nach Anspruch 8, dadurch gekennzeichnet, dass das System Multiplexing-Mittel (611) in der Übertragungsvorrichtung zum Hinzufügen von Parametern, die die parametrisierten Filter darstellen, zu einem Datenstrom gemäß dem MPEG-4-Standard und Demultiplexingmittel (612) in der Empfangsvorrichtung umfasst zum Erkennen der Parameter, die die parametrisierten Filter aus dem Datenstrom gemäß dem MPEG-4-Standard darstellen.
  11. System nach Anspruch 8, dadurch gekennzeichnet, dass es Multiplexing-Mittel (611) in der Übertragungsvorrichtung zum Hinzufügen von Parametern, die die parametrisierten Filter darstellen, zu einem Datenstrom gemäß dem erweiterten VRML97-Standard, und Demultiplexingmittel (612) in der Empfangsvorrichtung umfasst zum Erkennen der Parameter, die die parametrisierten Filter aus dem Datenstrom gemäß dem VRML97-Standard darstellen.
DE69935974T 1998-03-23 1999-03-23 Verfahren und system zur behandlung von gerichtetem schall in einer akustisch-virtuellen umgegung Expired - Lifetime DE69935974T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI980649 1998-03-23
FI980649A FI116505B (fi) 1998-03-23 1998-03-23 Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä
PCT/FI1999/000226 WO1999049453A1 (en) 1998-03-23 1999-03-23 A method and a system for processing directed sound in an acoustic virtual environment

Publications (2)

Publication Number Publication Date
DE69935974D1 DE69935974D1 (de) 2007-06-14
DE69935974T2 true DE69935974T2 (de) 2007-09-06

Family

ID=8551352

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69935974T Expired - Lifetime DE69935974T2 (de) 1998-03-23 1999-03-23 Verfahren und system zur behandlung von gerichtetem schall in einer akustisch-virtuellen umgegung

Country Status (11)

Country Link
US (1) US7369668B1 (de)
EP (1) EP1064647B1 (de)
JP (2) JP4573433B2 (de)
KR (1) KR100662673B1 (de)
CN (1) CN1132145C (de)
AT (1) ATE361522T1 (de)
AU (1) AU2936999A (de)
DE (1) DE69935974T2 (de)
ES (1) ES2285834T3 (de)
FI (1) FI116505B (de)
WO (1) WO1999049453A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI116505B (fi) * 1998-03-23 2005-11-30 Nokia Corp Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä
US6668177B2 (en) 2001-04-26 2003-12-23 Nokia Corporation Method and apparatus for displaying prioritized icons in a mobile terminal
US7032188B2 (en) 2001-09-28 2006-04-18 Nokia Corporation Multilevel sorting and displaying of contextual objects
US6996777B2 (en) 2001-11-29 2006-02-07 Nokia Corporation Method and apparatus for presenting auditory icons in a mobile terminal
US6934911B2 (en) 2002-01-25 2005-08-23 Nokia Corporation Grouping and displaying of contextual objects
JP2005094271A (ja) * 2003-09-16 2005-04-07 Nippon Hoso Kyokai <Nhk> 仮想空間音響再生プログラムおよび仮想空間音響再生装置
DE602004021716D1 (de) * 2003-11-12 2009-08-06 Honda Motor Co Ltd Spracherkennungssystem
EP1754393B1 (de) * 2004-04-16 2020-12-02 Dolby Laboratories Licensing Corporation System und verfahren zur verwendung bei der erzeugung einer audioszene
JP4789145B2 (ja) * 2006-01-06 2011-10-12 サミー株式会社 コンテンツ再生装置及びコンテンツ再生プログラム
JP4894386B2 (ja) * 2006-07-21 2012-03-14 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
JP5082327B2 (ja) * 2006-08-09 2012-11-28 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
GB0724366D0 (en) * 2007-12-14 2008-01-23 Univ York Environment modelling
JP5397131B2 (ja) * 2009-09-29 2014-01-22 沖電気工業株式会社 音源方向推定装置及びプログラム
JP5141738B2 (ja) * 2010-09-17 2013-02-13 株式会社デンソー 立体音場生成装置
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9118991B2 (en) * 2011-06-09 2015-08-25 Sony Corporation Reducing head-related transfer function data volume
CN103152500B (zh) * 2013-02-21 2015-06-24 黄文明 多方通话中回音消除方法
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
WO2018077379A1 (en) 2016-10-25 2018-05-03 Huawei Technologies Co., Ltd. Method and apparatus for acoustic scene playback
KR102113542B1 (ko) 2017-11-30 2020-05-21 서울과학기술대학교 산학협력단 심층신경망을 이용하여 음향 신호를 정규화하는 방법
US10705790B2 (en) 2018-11-07 2020-07-07 Nvidia Corporation Application of geometric acoustics for immersive virtual reality (VR)
CN114630240B (zh) * 2022-03-16 2024-01-16 北京小米移动软件有限公司 方向滤波器的生成方法、音频处理方法、装置及存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731848A (en) 1984-10-22 1988-03-15 Northwestern University Spatial reverberator
US5285165A (en) 1988-05-26 1994-02-08 Renfors Markku K Noise elimination method
FI90166C (fi) 1991-10-16 1993-12-27 Nokia Mobile Phones Ltd Cmos-kompander
FI89846C (fi) 1991-11-29 1993-11-25 Nokia Mobile Phones Ltd En deviationsbegraensare foer en fraon en radiotelefon utsaend signal
FI92535C (fi) 1992-02-14 1994-11-25 Nokia Mobile Phones Ltd Kohinan vaimennusjärjestelmä puhesignaaleille
DE69322805T2 (de) 1992-04-03 1999-08-26 Yamaha Corp Verfahren zur Steuerung von Tonquellenposition
EP1304797A3 (de) 1992-07-07 2007-11-28 Dolby Laboratories Licensing Corporation Digitales Filter mit hoher genauigkeit und effizienz
JPH06292298A (ja) * 1993-03-31 1994-10-18 Sega Enterp Ltd 聴覚特性及びモニター環境を考慮した三次元仮想音像形成装置
JP3552244B2 (ja) * 1993-05-21 2004-08-11 ソニー株式会社 音場再生装置
JP3578783B2 (ja) 1993-09-24 2004-10-20 ヤマハ株式会社 電子楽器の音像定位装置
JPH0793367A (ja) * 1993-09-28 1995-04-07 Atsushi Matsushita 音声情報検索システム及び装置
US5485514A (en) 1994-03-31 1996-01-16 Northern Telecom Limited Telephone instrument and method for altering audible characteristics
US5659619A (en) 1994-05-11 1997-08-19 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
US5684881A (en) 1994-05-23 1997-11-04 Matsushita Electric Industrial Co., Ltd. Sound field and sound image control apparatus and method
JP3258195B2 (ja) * 1995-03-27 2002-02-18 シャープ株式会社 音像定位制御装置
JPH08272380A (ja) 1995-03-30 1996-10-18 Taimuuea:Kk 仮想3次元空間音響の再生方法および装置
US5831518A (en) * 1995-06-16 1998-11-03 Sony Corporation Sound producing method and sound producing apparatus
FR2736499B1 (fr) 1995-07-03 1997-09-12 France Telecom Procede de diffusion d'un son avec une directivite donnee
FR2738099B1 (fr) 1995-08-25 1997-10-24 France Telecom Procede de simulation de la qualite acoustique d'une salle et processeur audio-numerique associe
US5790957A (en) 1995-09-12 1998-08-04 Nokia Mobile Phones Ltd. Speech recall in cellular telephone
FI102337B1 (fi) 1995-09-13 1998-11-13 Nokia Mobile Phones Ltd Menetelmä ja piirijärjestely audiosignaalin käsittelemiseksi
JP3296471B2 (ja) * 1995-10-09 2002-07-02 日本電信電話株式会社 音場制御方法および装置
FI100840B (fi) 1995-12-12 1998-02-27 Nokia Mobile Phones Ltd Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin
JP3976360B2 (ja) * 1996-08-29 2007-09-19 富士通株式会社 立体音響処理装置
DE19646055A1 (de) 1996-11-07 1998-05-14 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Abbildung von Schallquellen auf Lautsprecher
JP3266020B2 (ja) * 1996-12-12 2002-03-18 ヤマハ株式会社 音像定位方法及び装置
FI116990B (fi) 1997-10-20 2006-04-28 Nokia Oyj Menetelmä ja järjestelmä akustisen virtuaaliympäristön käsittelemiseksi
FI116505B (fi) * 1998-03-23 2005-11-30 Nokia Corp Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä

Also Published As

Publication number Publication date
ES2285834T3 (es) 2007-11-16
CN1132145C (zh) 2003-12-24
ATE361522T1 (de) 2007-05-15
EP1064647A1 (de) 2001-01-03
DE69935974D1 (de) 2007-06-14
KR100662673B1 (ko) 2006-12-28
CN1302426A (zh) 2001-07-04
JP4573433B2 (ja) 2010-11-04
AU2936999A (en) 1999-10-18
FI980649A0 (fi) 1998-03-23
WO1999049453A1 (en) 1999-09-30
FI116505B (fi) 2005-11-30
US7369668B1 (en) 2008-05-06
KR20010034650A (ko) 2001-04-25
EP1064647B1 (de) 2007-05-02
FI980649A (fi) 1999-09-24
JP2009055621A (ja) 2009-03-12
JP2002508609A (ja) 2002-03-19

Similar Documents

Publication Publication Date Title
DE69935974T2 (de) Verfahren und system zur behandlung von gerichtetem schall in einer akustisch-virtuellen umgegung
DE69726262T2 (de) Tonaufnahme- und -wiedergabesysteme
US6343131B1 (en) Method and a system for processing a virtual acoustic environment
DE60304358T2 (de) Verfahren zur verarbeitung von audiodateien und erfassungsvorrichtung zur anwendung davon
EP1844627B1 (de) Vorrichtung und verfahren zum simulieren eines wellenfeldsynthese-systemes
DE69819090T2 (de) Kompensationsfilter
DE69832595T2 (de) Mehrweg-audiodekoder
DE4328620C1 (de) Verfahren zur Simulation eines Raum- und/oder Klangeindrucks
DE69533973T2 (de) Schallfeldkontrollegerät und Kontrolleverfahren
DE69433258T2 (de) Raumklangsignalverarbeitungsvorrichtung
DE69734934T2 (de) Verfahren und vorrichtung zur projektion von schallquellen auf lautsprechern
DE10254404B4 (de) Audiowiedergabesystem und Verfahren zum Wiedergeben eines Audiosignals
DE2244162A1 (de) Verfahren zur simulation der bei einer lautsprecherbeschallung auftretenden hoerereignisse mittels kopfhoerern
DE102006017791A1 (de) Wiedergabegerät und Wiedergabeverfahren
DE3040896C2 (de) Schaltungsanordnung zur Erzeugung und Aufbereitung stereophoner Signale aus einem monophonen Signal
DE102005001395B4 (de) Verfahren und Vorrichtung zur Transformation des frühen Schallfeldes
DE19911507A1 (de) Verfahren zur Verbesserung dreidimensionaler Klangwiedergabe
DE10318191A1 (de) Verfahren zur Erzeugung und Verwendung einer Übertragungsfunktion
EP2182744B1 (de) Wiedergabe eines Schallfeldes in einem Zielbeschallungsbereich
DE112006002548T5 (de) Vorrichtung und Verfahren zur Wiedergabe von virtuellem Zweikanal-Ton
EP1123638B1 (de) Vorrichtung und verfahren zur qualitätsbeurteilung von mehrkanaligen audiosignalen
DE3509358A1 (de) Simulationsverfahren und vorrichtung (elektronischer kunstkopf) zur nachbildung der uebertragungseigenschaften des menschlichen aussenohrs bei freifeldbeschallung
DE19847689B4 (de) Vorrichtung und Verfahren zur dreidimensionalen Tonwiedergabe
Scerbo et al. Higher-order scattering delay networks for artificial reverberation
DE60130654T2 (de) Verfahren zur verarbeitung eines signals

Legal Events

Date Code Title Description
8364 No opposition during term of opposition