JP2002508609A - Method and system for processing directional sound in a virtual sound environment - Google Patents

Method and system for processing directional sound in a virtual sound environment

Info

Publication number
JP2002508609A
JP2002508609A JP2000538346A JP2000538346A JP2002508609A JP 2002508609 A JP2002508609 A JP 2002508609A JP 2000538346 A JP2000538346 A JP 2000538346A JP 2000538346 A JP2000538346 A JP 2000538346A JP 2002508609 A JP2002508609 A JP 2002508609A
Authority
JP
Japan
Prior art keywords
sound
filter
sound source
filters
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000538346A
Other languages
Japanese (ja)
Other versions
JP4573433B2 (en
Inventor
フオパニエミ、イリ
ベーネネン、リータ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Mobile Phones Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Mobile Phones Ltd filed Critical Nokia Mobile Phones Ltd
Publication of JP2002508609A publication Critical patent/JP2002508609A/en
Application granted granted Critical
Publication of JP4573433B2 publication Critical patent/JP4573433B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves

Landscapes

  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Executing Machine-Instructions (AREA)
  • Steroid Compounds (AREA)
  • Complex Calculations (AREA)

Abstract

An acoustic virtual environment is processed in an electronic device. The acoustic virtual environment comprises at least one sound source ( 300 ). In order to model the manner in which the sound is directed, a direction dependent filtering arrangement ( 306, 307, 308, 309 ) is attached to the sound source, whereby the effect of the filtering arrangement on the sound depends on predetermined parameters. The directivity can depend on the frequency of the sound.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】 本発明は、ある空間に対応する人工的な聴感覚(audible impression)が聴取
者に対して生成され得る方法およびシステムに関する。さらに詳しくは、本発明
は、そのような聴感覚における指向性音響の処理およびユーザに提示される情報
がディジタル形式で伝送、処理、および/または圧縮されるシステムにおいて結
果として生ずる聴感覚の伝送に関する。
The present invention relates to a method and a system in which an artificial audible impression corresponding to a certain space can be generated for a listener. More particularly, the present invention relates to the processing of directional sounds in such hearing sensations and the resulting transmission of hearing sensations in systems where the information presented to the user is transmitted, processed and / or compressed in digital form. .

【0002】 [背景分野] 仮想音響環境は、電気的再生音に対する聴取者がある空間内にいることを想像
できる上で手助けとなる聴感覚を意味する。複雑な仮想音響環境は、多くの場合
に実際の空間を模倣することを意図している。それは前記空間の聴覚化と称され
る。この概念は論文、エム.クライネル、ベー.アイ.ダレンベック、ペー.ス
ベンソン著「聴覚化−概要」、1993、ヤー.アウヂオ工学会、第41巻、N
o.11、861〜875頁(M. Kleiner, B. I. Dalenbaeck, P. Svensson;“
Auralization - An Overview”, 1993, J. Audio Eng. Soc., vol. 41, No. 11,
pp. 861 - 875)に記載されている。聴覚化は視覚仮想環境の生成と自然な方法
で結合され得るので、適当なディスプレイとスピーカまたはヘッドセットを備え
たユーザは所望の実際または想像上の空間を観測することができて、前記空間内
を「動き回る」ことさえもできる。したがって、ユーザは観測ポイントとして選
択した前記環境内の位置に依存して様々な視覚および聴感覚を得る。
BACKGROUND ART [0002] A virtual acoustic environment refers to a sense of hearing that helps a listener to hear an electrically reproduced sound in a certain space. Complex virtual acoustic environments are often intended to mimic real space. It is called auditoryization of the space. This concept is described in the paper, M.E. Clynenel, Be. Eye. Darenbeck, PA. Svenson, "Hearing-An Overview", 1993, Yar. Audio Engineering Society, Vol. 41, N
o. 11, pp. 861-875 (M. Kleiner, BI Dalenbaeck, P. Svensson; "
Auralization-An Overview ”, 1993, J. Audio Eng. Soc., Vol. 41, No. 11,
pp. 861-875). Hearing can be combined in a natural way with the creation of a visual virtual environment, so that a user with a suitable display and speakers or a headset can observe the desired real or imaginary space and You can even "move around." Thus, the user obtains various visual and auditory sensations depending on the position in the environment selected as the observation point.

【0003】 仮想音響環境の生成は3つの要素、すなわち音源のモデル化、空間のモデル化
、および聴取者のモデル化に分割され得る。本発明はとくに音源のモデル化と早
期の音の反射に関する。
[0003] The creation of a virtual acoustic environment can be divided into three components: sound source modeling, spatial modeling, and listener modeling. The invention relates in particular to sound source modeling and early sound reflection.

【0004】 VRML97言語(バーチャルリアリティモデル化言語(Virtual Reality Mo
deling Language)97)は視覚および仮想音響の環境をモデル化して処理する のによく使用され、この言語は出版物ISO/IEC JTC/SC24 IS 14772-1, 1997, 「 情報技術−コンピューターグラフィックスおよび画像処理−バーチャルリアリテ
ィモデル化言語(Information Technology - Computer Graphics and Image Pro
cessing - The Virtual Reality Modeling Language)(VRML97)、1997年4 月およびインターネットアドレス http://www.vrml.org/Specifications/VRML97
/の対応ページで扱われている。本特許出願が作成されているあいだに開発され ている規則の他のセットはJava3Dに関連しており、それはVRMLの制御
および処理環境となり、たとえば出版物SUN出版1997;「JAVA 3D API詳説 1.0
」およびインターネットアドレス http://www.javasoft.com/-products/java-me
dia/3D/forDevelopers/3Dguide/- に記載されている。さらに、開発中のMPE G−4規格(Motion Picture Experts Group 4)は、ディジタル通信リンクを経
由して伝送されるマルチメディア提示が実際と仮想の対象を含むことができて、
それらはある視聴覚環境をともに形成することを目標としている。MPEG-4 規格は出版物ISO/IEC JTC/SC29 WG11 CD 14496, 1997;「情報技術−視聴覚対象 のコード化」(Information Technology - Coding of audiovisual objects.) 1997年11月およびインターネットアドレス http://www.cselt.it/-mpeg/p
ublic/mpeg-4_cd.htm の対応ページに記載されている。
The VRML97 language (Virtual Reality Modeling Language)
deling Language) 97) is commonly used to model and process visual and virtual acoustic environments, and this language is published in the ISO / IEC JTC / SC24 IS 14772-1, 1997, "Information Technology-Computer Graphics and Image Processing-Virtual Reality Modeling Language (Information Technology-Computer Graphics and Image Pro
cessing-The Virtual Reality Modeling Language (VRML97), April 1997 and Internet address http://www.vrml.org/Specifications/VRML97
It is handled on the corresponding page of /. Another set of rules being developed during the time this patent application was prepared is related to Java3D, which is a control and processing environment for VRML, for example, the publication SUN Publication 1997;
And Internet address http://www.javasoft.com/-products/java-me
dia / 3D / forDevelopers / 3Dguide /- Further, the developing MPEG-4 standard (Motion Picture Experts Group 4) states that multimedia presentations transmitted over digital communication links can include real and virtual objects,
They aim to form an audiovisual environment together. The MPEG-4 standard is published in the ISO / IEC JTC / SC29 WG11 CD 14496, 1997; "Information Technology-Coding of audiovisual objects." November 1997 and Internet address http: // www.cselt.it/-mpeg/p
It is described on the corresponding page of ublic / mpeg-4_cd.htm.

【0005】 図1はVRML97およびMPEG-4で使用されている既知の指向性音響モ デルを示す。音源はポイント101に位置し、その回りに2つの楕円体102と
103が一方が他方の内側に仮定され、それによって1つの楕円体の焦点が音源
の位置と共通であり、2つの楕円体の主軸が平行である。楕円体102と104
の大きさは、主軸の方向に測定される距離maxBack、maxFront、
minBackとminFrontによって表わされる。距離の関数としての音
の減衰は曲線104によって表わされる。内側の楕円体102の内側では音の強
さは一定であり、外側の楕円体103の外側では音の強さはゼロである。ポイン
ト101を通るすべての直線に沿ってポイント101から離れるにつれて、音の
強さは内側と外側の楕円体とのあいだで直線的に20dB減少する。いいかえれ
ば、2つの楕円体のあいだに位置するポイント105で観察される減衰Aは次式
によって計算され得る。
FIG. 1 shows a known directional acoustic model used in VRML97 and MPEG-4. The sound source is located at point 101, around which two ellipsoids 102 and 103 are assumed, one inside the other, so that the focus of one ellipsoid is in common with the position of the sound source and the two ellipsoids The main axes are parallel. Ellipsoids 102 and 104
The magnitude of the distance maxBack, maxFront, measured in the direction of the main axis,
Represented by minBack and minFront. The sound decay as a function of distance is represented by curve 104. The intensity of the sound is constant inside the inner ellipsoid 102, and is zero outside the outer ellipsoid 103. As one moves away from point 101 along all straight lines passing through point 101, the sound intensity decreases linearly by 20 dB between the inner and outer ellipsoids. In other words, the attenuation A observed at point 105 located between the two ellipsoids can be calculated by:

【0006】 A=−20dB・(d’/d”) ここで、d'はポイント101と105を結ぶ直線に沿って測定される内側の楕 円体の表面から観察ポイントまでの距離であり、d”は同じ直線に沿って測定さ
れる内側と外側の楕円体のあいだの距離である。
A = −20 dB · (d ′ / d ″) where d ′ is the distance from the surface of the inner ellipsoid measured along the straight line connecting the points 101 and 105 to the observation point, d "is the distance between the inner and outer ellipsoids measured along the same straight line.

【0007】 Java3Dにおいて、指向性音響モデルは図2に示された円錐状音響概念に
よってモデル化される。この図は円錐の共通の長手方向軸を含む面に沿った2つ
の円錐構造の断面を表わす。音源は円錐201と202の共通の頂点203に位
置する。前方の円錐201と後方の円錐202の両方の領域において、音は均一
に減衰する。2つの円錐間の領域においては、直線的な補間(interpolation) が適用される。観測ポイント204で検出される減衰を計算するために、減衰な
しの音の強さ、前方と後方の円錐の幅、および前方の円錐の長手方向軸とポイン
ト203と204とを結ぶ直線のあいだの角度を知る必要がある。
In Java3D, a directional acoustic model is modeled by the conical acoustic concept shown in FIG. This figure represents a cross section of the two conical structures along a plane containing the common longitudinal axis of the cones. The sound source is located at the common vertex 203 of the cones 201 and 202. In both the front cone 201 and the rear cone 202, the sound is evenly attenuated. In the region between the two cones, a linear interpolation is applied. To calculate the attenuation detected at the observation point 204, the sound intensity without attenuation, the width of the front and rear cones, and the line between the longitudinal axis of the front cone and points 203 and 204 Need to know the angle.

【0008】 音響反射面を有する空間の音響特性をモデル化する既知の方法が虚音源法(im
age source method)であり、そこでは最初の音源に加えて観測対象の反射面に 対応する音源の鏡像である1組の仮想虚音源が与えられる。1つの虚音源は各調
査対象の反射面の後に配置されるので、この虚音源から観測ポイントまでまっす
ぐに測定される距離は、最初の音源から反射して観測ポイントに至る距離と同じ
である。さらに、虚音源からの音は実際の反射音と同じ方向から調査ポイントに
到達する。聴感覚は虚音源によって発生される音を加えることによって得られる
[0008] A known method for modeling acoustic characteristics of a space having an acoustic reflecting surface is an imaginary sound source method (im
age source method), where a set of virtual imaginary sound sources, which are mirror images of the sound source corresponding to the reflection surface of the observation target, are provided in addition to the first sound source. Since one imaginary sound source is arranged after the reflection surface of each investigation object, the distance measured straight from the imaginary sound source to the observation point is the same as the distance from the first sound source to the observation point. Further, the sound from the imaginary sound source reaches the investigation point from the same direction as the actual reflected sound. The auditory sensation is obtained by adding the sound generated by the imaginary sound source.

【0009】 従来技術による方法は計算の負荷が非常に大きい。仮想環境が、たとえば放送
またはデータネットワークを通してユーザに伝送されると仮定した場合には、ユ
ーザの受信機は数千の虚音源によって発生される音を絶えず加える必要がある。
そのうえ、ユーザが観測ポイントの位置を変更しようと決めた場合には、計算の
ベースはいつも変化する。さらに、既知の解は、方向角のほかに音の指向性はそ
の波長に強く依存していること、いいかえれば、周波数の高低が様々な音は様々
な方向に向かうという事実を完全に無視している。
The method according to the prior art is very computationally intensive. Assuming that the virtual environment is transmitted to the user, for example, over a broadcast or data network, the user's receiver will need to constantly add sound generated by thousands of virtual sources.
Moreover, if the user decides to change the position of the observation point, the basis of the calculation will always change. In addition, the known solution completely ignores the fact that, besides the direction angle, the directivity of the sound is strongly dependent on its wavelength, in other words, the fact that the frequency rises and falls the different sounds go in different directions. ing.

【0010】 フィンランド特許出願第974006号明細書(ノキア社(Nokia Corp.))に 、仮想音響環境を処理する方法およびシステムが述べられている。そこでは、モ
デル化対象の環境の音響反射面は一定の周波数応答を有するフィルタによって表
わされる。モデル化された環境をディジタル伝送形式で伝送するためには、その
環境に属するすべての不可欠な音響反射面の伝達関数をある方法で表わすことで
充分である。しかし、これさえも音の到達方向または高低が音の方向に及ぼす影
響を考慮していない。
[0010] Finnish Patent Application 974006 (Nokia Corp.) describes a method and system for processing a virtual acoustic environment. There, the acoustic reflection surface of the environment to be modeled is represented by a filter having a constant frequency response. In order to transmit the modeled environment in digital transmission form, it is sufficient to express in some way the transfer functions of all the essential acoustic reflection surfaces belonging to the environment. However, even this does not consider the effect of the arrival direction or pitch of the sound on the direction of the sound.

【0011】 本発明の目的は、仮想音響環境が妥当な計算負荷でユーザに伝送され得る方法
およびシステムを示すことである。本発明のさらなる目的は、音の高低と到達方
向が音の指向性に及ぼす影響を考慮できる方法およびシステムを示すことである
It is an object of the present invention to show a method and system in which a virtual acoustic environment can be transmitted to a user with a reasonable computational load. It is a further object of the present invention to provide a method and system that can take into account the effect of pitch and direction of sound on the directivity of the sound.

【0012】 本発明の目的は、音の所望の指向性を様々なパラメータの助けで設定し、その
指向性が周波数と到着方向角にどのように依存するかを考慮するパラメータで特
徴づけられたシステム関数によって音源またはその早期反射をモデル化すること
によって達成される。
The object of the present invention was characterized by parameters which set the desired directivity of the sound with the help of various parameters and considered how that directivity depends on the frequency and the direction of arrival. This is achieved by modeling the sound source or its early reflections with a system function.

【0013】 本発明による方法は、音がどのような方向に向けられるかをモデル化するため
に、フィルタの組が音源に及ぼす影響がフィルタの所定のパラメータに依存する
ように方向に依存するフィルタの組が仮想音響環境の音源に対応して設けられる
ことを特徴とする。
[0013] The method according to the invention provides a method for modeling a direction in which sound is directed, such that the effect of the set of filters on the sound source depends on a predetermined parameter of the filter, so that the filter depends on the direction. Are provided corresponding to the sound sources of the virtual acoustic environment.

【0014】 また本発明は、仮想音響環境に属する音源からの音の指向性をモデル化するパ
ラメータで特徴づけられたフィルタを含むフィルタバンクを生成する手段を含む
ことを特徴とするシステムに関する。
The present invention also relates to a system including means for generating a filter bank including a filter characterized by parameters for modeling directivity of sound from a sound source belonging to a virtual acoustic environment.

【0015】 本発明によれば、音源のモデルまたはそれから計算された反射は、方向に依存
するディジタルフィルタを含む。ゼロ方位と称されるある基準方向が音に対して
選択される。この方向は仮想音響環境においてどの方向にも向けられ得る。それ
に加えて、多数の他の方向が選択され、そこでは音がどの方向に向けられている
かをモデル化することが必要とされる。また、これらの方向は任意に選択され得
る。選択された各々の他の方向は、周波数に依存するか、または依存しないかを
選択することができる伝達関数を有する独自のディジタルフィルタによってモデ
ル化される。観測ポイントがフィルタによって丁度表わされた方向以外のどこか
に位置する場合には、フィルタ伝達関数のあいだに様々な補間を形成することが
可能である。
According to the invention, the model of the sound source or the reflection calculated therefrom comprises a direction-dependent digital filter. One reference direction, called the zero azimuth, is selected for the sound. This direction can be directed in any direction in the virtual acoustic environment. In addition, a number of other directions are selected, where it is necessary to model in which direction the sound is directed. Further, these directions can be arbitrarily selected. Each other direction selected is modeled by a unique digital filter with a transfer function that can be chosen to be frequency dependent or independent. If the observation point is located somewhere other than the direction just represented by the filter, it is possible to form various interpolations between the filter transfer functions.

【0016】 情報をディジタル形式で伝送する必要があるシステムにおいて音およびそれが
どのように向けられているかをモデル化しようとする場合に、各伝達関数に関す
るデータだけを伝送すればよい。受信装置は、所要の観測ポイントを知って、音
が音源の位置から観測ポイントの方に向いていることを、それが再構成した伝達
関数の助けで決定する。観測ポイントの位置がゼロ方位に対して変化する場合に
、受信装置は音が新しい観測ポイントに対してどのように向けられているかを調
べる。いくつかの音源が有り得るので、受信装置は音が各音源から観測ポイント
へどのように向くかを計算し、それに対応して再生音を修正する。そのとき、た
とえば楽器が様々な場所に位置し様々な方向に向いている仮想オーケストラに対
して、聴取者は正しく位置づけられた聴取位置における聴感覚を得る。
When trying to model sound and how it is directed in a system where information must be transmitted in digital form, only the data for each transfer function need be transmitted. The receiving device knows the required observation point and determines with the help of the reconstructed transfer function that the sound is directed from the position of the sound source towards the observation point. When the position of the observation point changes with respect to the zero bearing, the receiver checks how the sound is directed to the new observation point. Since there may be several sound sources, the receiving device calculates how the sound is directed from each sound source to the observation point and modifies the reproduced sound accordingly. At that time, for example, for a virtual orchestra in which the musical instrument is located in various places and faces in various directions, the listener obtains a listening sensation in a correctly positioned listening position.

【0017】 方向に依存するディジタルフィルタリングを実現する最も簡単な代案は、ある
増幅率を選択された各方向に割り当てる(attatch)ことである。しかし、その とき音の高低は考慮されない。より改良された代案では、観測される周波数帯域
は小帯域に分割され、各小帯域について選択された各方向においてそれら独自の
増幅率が与えられる。さらに改良されたバージョンでは、観測される各方向は一
般化された伝達関数によってモデル化され、その伝達関数に対応して同じ伝達関
数の再構成を可能にするある係数の組が指示される。
The simplest alternative to implementing direction-dependent digital filtering is to attach a gain to each of the selected directions. However, the pitch of the sound is not considered at that time. In a more refined alternative, the observed frequency bands are divided into sub-bands, each of which is given its own amplification factor in each direction selected for each sub-band. In a further refined version, each observed direction is modeled by a generalized transfer function, and a set of coefficients corresponding to the transfer function that allows reconstruction of the same transfer function is indicated.

【0018】 以下において、例として示される好適な実施態様および図面を参照することに
より、本発明はより詳細に説明される。
In the following, the invention will be explained in more detail with reference to preferred embodiments, given by way of example, and to the drawings, in which:

【0019】 従来技術に関連づけて、図1〜2の例示が前段でなされ、以下の本発明の記述
では、好ましい例示が図3〜7bになされている。
In connection with the prior art, the illustrations of FIGS. 1-2 are made earlier, and in the following description of the invention, preferred illustrations are given in FIGS. 3-7b.

【0020】 図3は、ポイント300に在る音源の場所とゼロ方位の方向301を示す。図
において、ポイント300に位置する音源を4つのフィルタで表わすものと仮定
する。第1のフィルタは音源から方向302に伝播する音を表わし、第2のフィ
ルタは音源から方向303に伝播する音を表わし、第3のフィルタは音源から方
向304に伝播する音を表わし、そして第4のフィルタは音源から方向305に
伝播する音を表わす。さらに図において、音はゼロ方位の方向301に対して対
称に伝播すると仮定される。その結果実際に、方向302〜305の各々は、観
測される方向を表わす半径をゼロ方位の方向301を中心として回転することに
よって得られる円錐形の面上のいずれかの対応する方向を表わす。本発明はこれ
らの仮定に限定されるものではなく、本発明のいくつかの特徴は簡易化された実
施の形態を先ず検討することによってより容易に理解される。図において、方向
302〜305は同じ平面内で等距離だけ離れた直線として示されているが、方
向は任意に選択され得る。
FIG. 3 shows the location of the sound source at the point 300 and the direction 301 of the zero azimuth. In the figure, it is assumed that the sound source located at point 300 is represented by four filters. The first filter represents sound propagating in the direction 302 from the source, the second filter represents sound propagating in the direction 303 from the source, the third filter represents sound propagating in the direction 304 from the source, and The filter at 4 represents sound propagating in the direction 305 from the sound source. Further, in the figure, it is assumed that the sound propagates symmetrically with respect to the zero azimuth direction 301. As a result, each of the directions 302-305 actually represents any corresponding direction on the conical surface obtained by rotating a radius representing the observed direction about the zero azimuth direction 301. The present invention is not limited to these assumptions, and some features of the present invention will be more readily understood by first considering a simplified embodiment. In the figure, directions 302 to 305 are shown as straight lines separated by the same distance in the same plane, but the directions can be arbitrarily selected.

【0021】 図3に示されたゼロ方位方向と異なる方向に伝播する音を表わす各フィルタは
、ブロック306、307、308および309によって記号的に示される。各
フィルタはある伝達関数Hi(ここで、i∈{1,2,3,4})によって特徴 づけられる。フィルタの伝達関数は、ゼロ方位に対して伝播する音が音源によっ
て前述のように発生する音と同じであるように正規化される。通常、音は時間の
関数なので、音源によって発生する音はX(t)と表わされる。各フィルタ30
6〜309は次式による応答Yi(t)(ここで、i∈{1,2,3,4})を
生成する。
Each filter representing sound propagating in a direction different from the zero azimuthal direction shown in FIG. 3 is symbolically indicated by blocks 306, 307, 308 and 309. Each filter is characterized by a transfer function H i, where i {1,2,3,4}. The transfer function of the filter is normalized such that the sound propagating in the zero azimuth is the same as the sound generated by the sound source as described above. Normally, sound is a function of time, so the sound generated by the sound source is denoted X (t). Each filter 30
6 to 309 generate a response Yi (t) (where i {1, 2, 3, 4}) according to the following equation.

【0022】 Yi(t)=Hi*X(t) (1) ここで、*は時間に対する重畳積分(コンボルーション)を表わす。応答Yi(
t)は当該方向を向いている音である。
Yi (t) = Hi * X (t) (1) Here, * represents convolution with respect to time. Response Yi (
t) is a sound directed in that direction.

【0023】 最も簡単な形では、伝達関数は、インパルスX(t)は実数によって逓倍され
ることを意味する。最も強い音が向く方向としてゼロ方位を選定することが自然
なので、各フィルタ306〜309の最も簡単な伝達関数は、ゼロと1とのあい
だの実数(両限界値を含む)である。
In its simplest form, the transfer function means that the impulse X (t) is multiplied by a real number. Since it is natural to select the zero azimuth as the direction in which the strongest sound is directed, the simplest transfer function of each filter 306-309 is a real number between zero and one (including both limits).

【0024】 簡単な実数による逓倍は指向性に対する音の高低の重要性を考慮していない。
より汎用性のある伝達関数ではインパルスは所定の周波数帯域に分割され、各周
波数帯域は実数であるそれぞれの増幅率によって逓倍される。周波数帯域はその
周波数帯域の最高周波数を表わす1つの数字によって規定され得る。代替として
、ある複数の実数係数がいくつかの周波数例に対してここに示され得る。これに
よって、適当な補間がこれらの周波数間に適用される(たとえば、周波数400
Hzと増幅率0.6、および周波数1000Hzと増幅率0.2が与えられた場
合に、直接補間によって周波数700Hzに対して増幅率0.4を得る)。
Simple multiplication by a real number does not take into account the importance of pitch of sound with respect to directivity.
In a more versatile transfer function, the impulse is divided into predetermined frequency bands, and each frequency band is multiplied by a real amplification factor. A frequency band may be defined by a single number representing the highest frequency of the frequency band. Alternatively, certain real coefficients may be shown here for some frequency examples. This causes an appropriate interpolation to be applied between these frequencies (eg, frequency 400
Given an Hz and an amplification factor of 0.6 and a frequency of 1000 Hz and an amplification factor of 0.2, an amplification factor of 0.4 is obtained for a frequency of 700 Hz by direct interpolation).

【0025】 一般に、各フィルタ306〜309は、Z変換H(z)によって表わされる伝
達関数Hを有するあるIIRまたはFIRフィルタ(Infinite Impulse Respons
e; Finite Impulse Response)であるということができる。インパルスX(t)
のZ変換X(t)とインパルスY(t)のZ変換Y(t)によって、つぎの定義
を得る。
In general, each filter 306-309 is a IIR or FIR filter (Infinite Impulse Responses) having a transfer function H represented by a Z-transform H (z).
e; Finite Impulse Response). Impulse X (t)
The following definition is obtained by the Z-transformation X (t) and the Z-transformation Y (t) of the impulse Y (t).

【0026】[0026]

【数2】 (Equation 2)

【0027】 これによって、任意の伝達関数を表わすためにZ変換のモデル化に使用される
係数[b01122・・・]を表わすだけで充分である。加算で使われてい る上限NとMは、伝達関数を規定するのに必要とされる精度を表わす。実際には
、それらは各単一伝達関数をモデル化するために使用される係数を格納および/
または伝送システムで伝送するためにどれくらいの大きさの容量が利用できるか
によって決定される。
Thus, it is sufficient to represent the coefficients [b 0 b 1 a 1 b 2 a 2 ...] Used for modeling the Z-transform to represent any transfer function. The upper limits N and M used in the addition represent the precision required to define the transfer function. In practice, they store the coefficients used to model each single transfer function and / or
Or it depends on how much capacity is available for transmission in the transmission system.

【0028】 図4は、トランペットによって発生される音がどのように向いているかを示す
。それはゼロ方位によって表現され、8つの周波数に依存する伝達関数とそれら
のあいだの補間を有する。音が指向性を与えられる様子は、垂直軸が音量をデシ
ベルで表わし、第1の水平軸が方向角をゼロ方位に対する角度で表わし、第2の
水平軸が音の周波数をキロヘルツで表わす三次元座標系においてモデル化される
。補間のため、音は面400によって表わされる。図の上左端で、面400は水
平線401によって制限され、それは音量がゼロ方位方向において周波数に依存
しないことを表現している。上右端で、面400はほぼ水平な線402によって
制限され、それは音量が非常に低い周波数(0Hzに近い周波数)において方向
角に依存しないことを示している。様々な方向角を表わすフィルタの周波数応答
は、線402から出発し図の左下方へ斜めに延びる曲線である。方向角は等距離
であり、それらの大きさは22.5°、45°、67.5°、90°、112.
5°、135°、157.5°、および180°である。たとえば、曲線403
は音量をゼロ方位から測定された角度157.5°で伝播する音に関する周波数
の関数として表わし、この曲線はこの方向において最高周波数は低周波数よりも
より大きく減衰することを示している。
FIG. 4 shows how the sound produced by the trumpet is directed. It is represented by the zero orientation and has eight frequency-dependent transfer functions and interpolation between them. The way in which sound is given directivity is three-dimensional, where the vertical axis represents volume in decibels, the first horizontal axis represents direction angles in degrees relative to zero azimuth, and the second horizontal axis represents sound frequency in kilohertz. Modeled in a coordinate system. For interpolation, the sound is represented by surface 400. At the top left end of the figure, the plane 400 is bounded by a horizontal line 401, which represents that the volume is independent of frequency in the zero azimuth direction. At the upper right end, surface 400 is bounded by a substantially horizontal line 402, indicating that the volume is independent of direction angle at very low frequencies (frequency near 0 Hz). The frequency response of the filter representing the various directional angles is a curve starting from line 402 and extending diagonally to the lower left of the figure. The direction angles are equidistant and their magnitudes are 22.5 °, 45 °, 67.5 °, 90 °, 112.
5 °, 135 °, 157.5 °, and 180 °. For example, curve 403
Represents the loudness as a function of frequency for sound propagating at an angle of 157.5 ° measured from zero azimuth, and this curve shows that in this direction the highest frequencies decay more than low frequencies.

【0029】 本発明は、仮想音響環境がコンピュータメモリーで生成されて同じ結合で処理
されるか、またはそれがDVDディスク(Digital Versatile Disc)のような記
憶媒体から読み出されて、視聴覚表現手段(ディスプレイ、スピーカ)を介して
ユーザに再生する局所的な装置における再生に適している。さらに本発明は、仮
想音響環境がいわゆるサービスプロバイダの装置で生成されて伝送装置を経由し
てユーザへ伝送されるシステムに適用できる。本発明にもとづいた方法で処理さ
れる指向性音響をユーザに対して再生し、ユーザが再生音を聴きたいと欲する仮
想音響環境内のポイントを選択できる装置は、一般に受信装置と称される。この
用語は本発明に限定されるものではない。
According to the invention, the virtual acoustic environment is generated in a computer memory and processed with the same combination, or it is read from a storage medium such as a DVD disc (Digital Versatile Disc) and is used for audiovisual representation means ( It is suitable for playback on a local device for playback to a user via a display or a speaker. Further, the present invention can be applied to a system in which a virtual acoustic environment is generated by a device of a service provider and transmitted to a user via a transmission device. A device that reproduces directional sound processed by the method according to the present invention to a user and allows the user to select a point in the virtual acoustic environment where he wants to hear the reproduced sound is generally called a receiving device. This term is not limited to the present invention.

【0030】 ユーザが再生音を聴きたいと欲する仮想音響環境内のポイントについての情報
を受信装置に与えた場合に、受信装置は音がどの方向に音源から前記ポイントへ
向けられるかを決定する。図4では、グラフで示すように、受信装置が音源のゼ
ロ方位と観測ポイントの方向のあいだの角度を決定した場合に、面400を周波
数軸に平行な垂直な面で切断し、方向角軸をゼロ方位と観測ポイントとのあいだ
の角度であるその値で切断することを意味する。面400と前記垂直な面とのあ
いだのセクションは、観測ポイントの方向で検出される音の相対的音量を周波数
の関数として表わす曲線である。受信装置は前記曲線にもとづいた周波数応答を
実現するフィルタを形成し、音源によって発生された音をユーザに向けて再生さ
れる前にそれが形成したフィルタを通してユーザに向ける。ユーザが観測ポイン
トの位置を変更することを決定した場合に、受信装置は新しい曲線を決定して上
述のように新しいフィルタを生成する。
When the user has given the receiving device information about a point in the virtual acoustic environment where the user wants to hear the reproduced sound, the receiving device determines in which direction the sound is directed from the sound source to said point. In FIG. 4, when the receiving apparatus determines the angle between the zero direction of the sound source and the direction of the observation point as shown in the graph, the plane 400 is cut along a plane perpendicular to the frequency axis, and the direction angle axis is determined. Means to cut at that value, which is the angle between the zero azimuth and the observation point. The section between plane 400 and the perpendicular plane is a curve representing the relative loudness of sound detected in the direction of the observation point as a function of frequency. The receiving device forms a filter that realizes a frequency response based on the curve, and directs the sound generated by the sound source to the user through the filter formed before playing the sound to the user. If the user decides to change the position of the observation point, the receiving device determines a new curve and generates a new filter as described above.

【0031】 図5は、様々に向けられている3つの仮想音源501、502、および503
を有する仮想音響環境500を示す。ポイント504はユーザによって選ばれた
観測ポイントを示す。図5に示された状況を説明するために、本発明にもとづい
て、各音源501、502、および503について音がどのように向けられるか
を表わす独自のモデルが生成され、それによって各ケースにおけるモデルはほぼ
図3および4の通りであり得るが、ゼロ方位はモデルにおける各仮想音源につい
て異なる方向を有することを考慮する。この場合には、音がどのように向けられ
るかを考慮するために、受信装置は3つの別々のフィルタを生成する必要がある
。第1のフィルタを生成するために、第1の音源によって伝送される音がどのよ
うに向けられるかをモデル化する伝達関数が決定されて、これらの伝達関数と補
間の助けによって図4のような面が生成される。さらに、観測ポイントの方向と
音源501のゼロ方位とのあいだの角度が決定されて、この角度の助けによって
上記面上の前記方向における周波数応答を読み取ることができる。同じオペレー
ションが各音源について別々に繰り返される。ユーザに再生される音は3つの音
源すべてからの音の和であり、この和において各音は前記音がどのように向けら
れるかをモデル化するそれぞれのフィルタでろ波されている。
FIG. 5 shows three virtual sound sources 501, 502 and 503 that are variously oriented.
5 shows a virtual acoustic environment 500 having Point 504 indicates the observation point selected by the user. To illustrate the situation shown in FIG. 5, in accordance with the present invention, a unique model representing how the sound is directed for each sound source 501, 502, and 503 is generated, whereby in each case, The model may be approximately as in FIGS. 3 and 4, but consider that the zero orientation has a different direction for each virtual source in the model. In this case, the receiving device needs to generate three separate filters to consider how the sound is directed. To generate the first filter, transfer functions that model how the sound transmitted by the first sound source is directed are determined, and with the aid of these transfer functions and interpolation, as in FIG. Is generated. Furthermore, the angle between the direction of the observation point and the zero orientation of the sound source 501 is determined, and with the help of this angle the frequency response in said direction on said surface can be read. The same operation is repeated separately for each sound source. The sound played to the user is the sum of the sounds from all three sources, in which each sound is filtered by a respective filter that models how the sound is directed.

【0032】 本発明にもとづいて、実際の音源に加えて音の反射、特に早期反射もモデル化
することができる。図5で、虚音源法によって形成される虚音源506は、音源
503によって伝送される音がどのように近傍の壁から反射されるかを表わす。
この虚音源は本発明にもとづいて実際の音源と全く同じ様に処理され得る、いい
かえれば、それについてゼロ方位の方向およびゼロ方位方向と異なる方向におけ
る音の指向性(必要な場合は周波数に依存)を決定することができる。受信装置
は実際の音源によって発生された音に対して使用したものと同じ原理で虚音源に
よって発生された音を再生する。
According to the present invention, in addition to the actual sound source, sound reflection, in particular, early reflection can be modeled. In FIG. 5, a virtual sound source 506 formed by the virtual sound source method represents how the sound transmitted by the sound source 503 is reflected from a nearby wall.
This imaginary sound source can be processed in exactly the same way as the real sound source according to the invention, in other words, the directivity of the sound in the direction of the zero azimuth and in a direction different from the zero azimuth direction (frequency dependent if necessary) ) Can be determined. The receiver reproduces the sound generated by the imaginary sound source on the same principle as that used for the sound generated by the actual sound source.

【0033】 図6は送信装置601および受信装置602を有するシステムを示す。送信装
置601は、少なくとも1つの音源および少なくとも1つの空間の音響特性を含
むある仮想音響環境を生成し、その環境を受信装置602にある形式で伝える。
伝送は、たとえばディジタルラジオ、テレビ放送、またはデータネットワークで
行なわれ得る。また伝送は、送信装置601はすでに生成されている仮想音響環
境にもとづいてDVDディスク(Digital Versatile Disc)のような記録を生成
し、受信装置のユーザはこの記録を使用時に入手するということをも意味し得る
。記録として引き渡される典型的な応用は、音源が仮想楽器を含むオーケストラ
によるコンサートであり、空間が電気的にモデル化された仮想または実際のコン
サートホールであり、それによって装置を持った受信装置のユーザがホール内の
様々な場所で演奏がどのように聞こえるかを聴くことができる。この仮想環境が
視聴覚的である場合には、コンピュータグラフィックスによって実現される視覚
表示部も含む。本発明では、送信装置と受信装置が異なる装置である必要はなく
、ユーザは特定の仮想音響環境を1つの装置で生成し、彼自身が生成したものを
試聴するために同じ装置を使用することができる。
FIG. 6 shows a system having a transmitting device 601 and a receiving device 602. The transmitting device 601 generates a virtual acoustic environment including at least one sound source and at least one spatial acoustic characteristic, and communicates the environment to the receiving device 602 in a certain format.
The transmission may be over a digital radio, television broadcast, or data network, for example. In transmission, the transmitting device 601 generates a recording such as a DVD (Digital Versatile Disc) based on the virtual sound environment that has already been generated, and the user of the receiving device obtains the recording at the time of use. Could mean. A typical application delivered as a recording is a concert by an orchestra whose sound source includes virtual musical instruments, a virtual or real concert hall where the space is modeled electrically, whereby the user of the receiving device with the device Can hear how the performance sounds in various places in the hall. If the virtual environment is audiovisual, it also includes a visual display implemented by computer graphics. In the present invention, the transmitting device and the receiving device do not need to be different devices, and the user generates a specific virtual acoustic environment with one device, and uses the same device to listen to what he generated himself. Can be.

【0034】 図6に示された実施の形態において、送信装置のユーザは、コンピュータグラ
フィックス・ツール603および対応するツール604を備える仮想オーケスト
ラのプレーヤと楽器のようなビデオアニメーションの助けによって、コンサート
ホールのようなある視覚環境を生成する。さらに、彼はキーボード605を介し
て彼が生成した環境の音源のある指向性、できれば音が周波数に依存してどのよ
うに向けられるかを表わす伝達関数を入力する。音がどのように向けられるかの
モデル化も実際の音源について行なわれた測定にもとづいて行なわれ得る。その
とき、指向性情報は通常データベース606から読み出される。仮想楽器の音は
データベース606からロードされる。送信装置はユーザによって入力された情
報を処理し、ブロック607、608、609、および610内でビットストリ
ームに変換して、そのビットストリームをマルチプレクサ611内で1つのデー
タストリームに結合する。そのデータストリームは、受信装置602にある形式
で供給される。デマルチプレクサ612では、データストリームから静止環境を
表わす画像セクションをブロック613に、時間に依存する画像セクションまた
はアニメーションをブロック614に、時間に依存する音をブロック615に、
そして面を表わす係数をブロック616に分離する。画像セクションは表示ドラ
イバブロック617において結合されてディスプレイ618に供給される。音源
から伝えられた音を表わす信号は、ブロック615からフィルタバンク619に
供給される。フィルタバンク619は、ブロック616から得られるパラメータ
aおよびbの助けによって再構成される伝達関数を有するフィルタを備えている
。フィルタバンクによって発生される音はヘッドセット620に供給される。
In the embodiment shown in FIG. 6, a user of the transmitting device can use a virtual orchestra player with a computer graphics tool 603 and a corresponding tool 604 and a video animation, such as a musical instrument, with the help of a concert hall. Create a visual environment like In addition, he inputs via the keyboard 605 a transfer function that describes some directivity of the sound source of the environment he generated, and preferably how the sound is directed depending on the frequency. Modeling of how sound is directed can also be made based on measurements made on real sound sources. At that time, the directivity information is usually read from the database 606. The sound of the virtual instrument is loaded from the database 606. The transmitting device processes the information entered by the user, converts it into a bitstream in blocks 607, 608, 609, and 610 and combines the bitstream into one data stream in multiplexer 611. The data stream is provided to the receiving device 602 in a certain format. In the demultiplexer 612, the image section representing the still environment from the data stream is shown in a block 613, the time-dependent image section or animation is shown in a block 614, the time-dependent sound is shown in a block 615,
The coefficients representing the plane are then separated into blocks 616. The image sections are combined at display driver block 617 and provided to display 618. The signal representing the sound transmitted from the sound source is supplied from the block 615 to the filter bank 619. The filter bank 619 comprises a filter whose transfer function is reconstructed with the help of the parameters a and b obtained from the block 616. The sound generated by the filter bank is provided to headset 620.

【0035】 図7aおよび7bは、本発明にもとづく方法で仮想音響環境を実現できる受信
装置のフィルタの構成をより詳細に示す。また、本発明にもとづく音の指向性の
モデル化だけでなく、音処理に関する他のファクタも図において考慮されている
。遅延手段721は様々な音成分の相互時間差(たとえば、様々な経路に沿って
反射された音、または様々な距離に位置する仮想音源の相互時間差)を生成する
。同時に遅延手段721は、正しい音を正しいフィルタ722、723、および
724に向けるデマルチプレクサとして動作する。フィルタ722、723、お
よび724は、より詳細に図7bに記述されているパラメータで特徴づけられた
フィルタである。それらによって供給される信号は、一方ではフィルタ701、
702、および703に分岐され、他方では加算器と増幅器704を経由して加
算器705に分岐され、それはエコー分岐706、707、708、および70
9と、加算器710と、増幅器711、712、713、および714とともに
結合を形成し、それによってポストエコーがある信号に対して生成され得る。フ
ィルタ701、702、および703は、たとえばHRTFモデル(Head-Relate
d Transfer Function)にもとづいた様々な方向における聴取者の聴感覚の差異を
考慮する指向性フィルタである。また、フィルタ701、702、および703
は、様々な方向から聴取者の耳に届く音成分の相互時間差をモデル化するいわゆ
るITD遅延(Interaural Time Difference)を含んでいることが最も好ましい
FIGS. 7 a and 7 b show in more detail the configuration of a filter of a receiving device capable of realizing a virtual acoustic environment in a method according to the invention. In addition to the modeling of sound directivity according to the invention, other factors relating to sound processing are also taken into account in the figures. The delay unit 721 generates a mutual time difference between various sound components (for example, a sound reflected along various paths, or a mutual time difference between virtual sound sources located at various distances). At the same time, the delay means 721 operates as a demultiplexer that directs the correct sound to the correct filters 722, 723, and 724. Filters 722, 723, and 724 are filters characterized by the parameters described in more detail in FIG. 7b. The signals provided by them are, on the one hand, filters 701,
702 and 703, and on the other hand to adder 705 via adder and amplifier 704, which are echo branches 706, 707, 708 and 70
9, together with an adder 710 and amplifiers 711, 712, 713, and 714, so that post-echo can be generated for certain signals. The filters 701, 702, and 703 are, for example, HRTF models (Head-Relate
This is a directional filter that takes into account differences in the listener's sense of hearing in various directions based on d Transfer Function). Also, filters 701, 702, and 703
Most preferably includes a so-called ITD delay (Interaural Time Difference), which models the mutual time difference between sound components reaching the listener's ear from various directions.

【0036】 フィルタ701、702、および703において、各信号成分は左右のチャン
ネルに分割され、また、マルチチャンネルシステムでは一般にNチャンネルに分
割される。あるチャンネルに関連するすべての信号は加算器715または716
で結合され、加算器717または718へ向けられて、そこで各信号に属するポ
ストエコーが信号に加えられる。ライン719および720はスピーカまたはヘ
ッドセットに通ずる。図7aにおいて、フィルタ723とフィルタ724とのあ
いだおよびフィルタ702とフィルタ703とのあいだの点は、本発明は受信装
置のフィルタバンク内のフィルタの数を制限しないことを意味する。モデル化さ
れた仮想音響環境の複雑さに応じて数百または数千のフィルタがあってもよい。
In the filters 701, 702, and 703, each signal component is divided into left and right channels, and is generally divided into N channels in a multi-channel system. All signals associated with a channel are added to adders 715 or 716.
And is directed to summer 717 or 718, where the post-echo belonging to each signal is added to the signal. Lines 719 and 720 lead to a speaker or headset. In FIG. 7a, the points between filters 723 and 724 and between filters 702 and 703 mean that the present invention does not limit the number of filters in the filter bank of the receiver. There may be hundreds or thousands of filters depending on the complexity of the modeled virtual acoustic environment.

【0037】 図7bは、図7aに示されたパラメータで特徴づけられるフィルタ722を実
現する可能性をより詳細に示す。図7bにおいて、フィルタ722は3つの連続
するフィルタ段730、731、および732を含み、そのうちの第1のフィル
タ段730は媒体(通常は空気)中の伝播減衰を表わし、第2段731は反射材
料(それは反射をモデル化する場合にとくに適用される)で起きる吸収を表わし
、そして第3段732は音が音源から(ことによると反射面を経由して)観測ポ
イントまで媒体中を伝播する距離と空気の湿度、圧力、および温度のような媒体
の特性の両方を考慮する。距離を計算するために、第1段730は送信装置から
モデル化対象の空間の座標系における音源の位置に関する情報を、そして受信装
置からユーザが観測ポイントととして選定したポイントの座標に関する情報を得
る。第1段730は送信装置または受信装置のどちらかから媒体の特性を表わす
データを得る(受信装置のユーザは所要の媒体特性を設定することができる)。
デフォルトとして、第2段731は送信装置から反射面の吸収を表わす係数を得
るが、またこの場合に受信装置のユーザはモデル化された空間の特性を変更する
可能性を与えられ得る。第3段732は音源によって伝送された音がどのように
音源からモデル化された空間内の様々な方向に向けられるかを考慮する。したが
って、第3段732は本特許出願で提示される本発明を実現する。
FIG. 7b shows in more detail the possibility of implementing a filter 722 characterized by the parameters shown in FIG. 7a. In FIG. 7b, the filter 722 includes three successive filter stages 730, 731 and 732, of which the first filter stage 730 represents propagation attenuation in a medium (usually air) and the second stage 731 is reflective. The third step 732 represents the absorption that occurs in the material, which is particularly applied when modeling reflections, and the sound propagates through the medium from the sound source to the observation point (possibly via the reflective surface) Consider both distance and characteristics of the medium, such as air humidity, pressure, and temperature. To calculate the distance, the first stage 730 obtains information about the position of the sound source in the coordinate system of the space to be modeled from the transmitting device and information about the coordinates of the point selected by the user as the observation point from the receiving device. . The first stage 730 obtains data representing the characteristics of the medium from either the transmitting device or the receiving device (the user of the receiving device can set the required media characteristics).
By default, the second stage 731 derives coefficients from the transmitting device that represent the absorption of the reflective surface, but in this case the user of the receiving device may be given the possibility to change the properties of the modeled space. The third stage 732 takes into account how the sound transmitted by the sound source is directed from the sound source in various directions in the modeled space. Thus, third stage 732 implements the invention presented in this patent application.

【0038】 仮想音響環境の特性がパラメータを使用することによって1つの装置から別の
装置へどのように処理されて伝送されるかを一般的に上述した。つぎに、本発明
がどのようにあるデータ伝送形式に適用されるかを論ずる。マルチメディアはユ
ーザに対する視聴覚対象の相互同期した提示を意味する。会話形式のマルチメデ
ィア提示が、たとえば娯楽や電子会議の形式として将来広く普及すると考えられ
る。従来技術には、電気的形式でマルチメディアプログラムを伝送する様々な方
法を規定する多数の規格がある。本特許出願において、いわゆるMPEG(Moti
on Picture Experts Group)規格を詳しく論ずる。その規格のうちの本特許出願
が提出された時に作成中のMPEG−4規格は、伝送されるマルチメディア提示
がある視聴覚環境をともに形成する実際または仮想の対象を含むことができると
いう目標を有する。本発明はMPEG−4規格と接続して使用されることに決し
て限定されないばかりでなく、たとえばVRML97規格の拡張に、または現在
は未知である将来の視聴覚規格にさえも適用され得る。
It has been generally described above how the properties of a virtual acoustic environment are processed and transmitted from one device to another by using parameters. Next, we discuss how the present invention applies to certain data transmission formats. Multimedia refers to the mutually synchronized presentation of audiovisual objects to a user. Conversational multimedia presentations are expected to become widespread in the future, for example, in the form of entertainment and electronic conferencing. There are a number of standards in the prior art that specify various methods of transmitting multimedia programs in electrical form. In this patent application, the so-called MPEG (Moti
on Picture Experts Group). The MPEG-4 standard, which is being developed at the time this patent application is filed, of that standard has the goal that transmitted multimedia presentations can include real or virtual objects that together form an audiovisual environment. . The invention is by no means limited to use in connection with the MPEG-4 standard, but may be applied, for example, to extensions of the VRML97 standard or even to future audiovisual standards that are currently unknown.

【0039】 MPEG−4規格にもとづくデータストリームは、時間(合成音のような)お
よびパラメータ(モデル化対象の空間における音源の位置のような)が連続して
いるセクションを含むことができる多重化視聴覚対象を含む。対象は階層的であ
るように規定され得るので、いわゆるプリミティブ(primitive)は階層の最低 レベルにある。対象のほかに、MPEG−4規格にもとづくマルチメディアプロ
グラムは、対象の相互関係に関する情報およびプログラムの一般的設定の配列に
関する情報を含むいわゆる場面記述(scene description)を含み、非常に便利 なことにそれらの情報は実際の対象から別々に符号化されたり復号化されたりす
る。また場面記述はBIFSセクション(場面記述に対する2進フォーマット)
と称される。本発明にもとづく仮想音響環境の伝送は、MPEG−4規格(SAOL/
SASL: Structured Audio Orchestra Language / Structured Audio Score Langu
age)またはVRML97言語で規定される構造化音声言語を使用することによっ
て有利に実現される。
A data stream based on the MPEG-4 standard can include multiplexed sections in which time (such as a synthetic sound) and parameters (such as the position of a sound source in the space to be modeled) are continuous. Includes audiovisual objects. Since objects can be defined to be hierarchical, so-called primitives are at the lowest level of the hierarchy. In addition to the objects, multimedia programs based on the MPEG-4 standard contain so-called scene descriptions, which contain information about the interrelationship of the objects and information about the arrangement of the general settings of the program, and are very useful. That information is encoded and decoded separately from the actual object. The scene description is a BIFS section (binary format for the scene description)
It is called. The transmission of the virtual acoustic environment according to the present invention is based on the MPEG-4 standard (SAOL /
SASL: Structured Audio Orchestra Language / Structured Audio Score Langu
age) or a structured speech language defined in the VRML97 language.

【0040】 上述の言語において、音源をモデル化する音ノード(sound node)が目下規定
されている。本発明によれば既知の音ノードの拡張を規定することが可能であり
、本特許出願においてそれは指示音ノード(DirectiveSound node)と称される 。既知の音ノードのほかに、指向性フィールドと称されて音の指向性を表わすフ
ィルタを再構成するのに必要な情報を供給するフィールドをさらに含む。フィル
タをモデル化する3つの異なる代案が上述された。以下に、これらの代案が本発
明にもとづく指示音ノードの指向性フィールドにおいてどのように実現されるか
を説明する。
In the above-mentioned languages, sound nodes that model sound sources are currently defined. According to the invention it is possible to define an extension of a known sound node, which is referred to in the present patent application as a DirectiveSound node. In addition to the known sound nodes, it further includes a field, referred to as a directional field, which supplies information necessary to reconstruct a filter representing the directivity of the sound. Three different alternatives for modeling filters have been described above. The following describes how these alternatives are implemented in the directivity field of the pointing sound node according to the present invention.

【0041】 第1の代案によれば、あるゼロ方位とは異なる方向をモデル化する各フィルタ
は、0と1とのあいだの正規化実数である増幅率による簡単な逓倍に対応する。
そのとき、指向性フィールドの内容は、たとえばつぎのようである。 ((0.79 0.8)(1.57 0.6)(2.36 0.4)(3.14 0
.2))
According to a first alternative, each filter modeling in a direction different from a certain zero azimuth corresponds to a simple multiplication by an amplification factor which is a normalized real number between 0 and 1.
At that time, the contents of the directivity field are as follows, for example. ((0.79 0.8) (1.57 0.6) (2.36 0.4) (3.140
. 2))

【0042】 この代案において、指向性フィールドは音源モデルにおけるゼロ方位と異なる
複数の方向と同数の数値の対を含む。数値の対の第1の数値は注目している方向
とゼロ方位とのあいだの角度をラジアンで示し、第2の数値は前記方向における
増幅率を示す。
In this alternative, the directional field includes the same number of value pairs as directions that are different from the zero orientation in the sound source model. The first number in a pair of numbers indicates the angle in radians between the direction of interest and the zero azimuth, and the second number indicates the amplification factor in said direction.

【0043】 第2の代案によれば、ゼロ方位の方向と異なる各方向における音は周波数帯域
に分割されて、その各々は独自の増幅率を有する。指向性フィールドの内容は、
たとえばつぎのようである。 ((0.79 125.0 0.8 1000.0 0.6 4000.0 0.4)
(1.57 125.0 0.7 1000.0 0.5 4000.0 0.3) (2.36 125.0 0.6 1000.0 0.4 4000.0 0.2) (3.14 125.0 0.5 1000.0 0.3 4000.0 0.1))
According to a second alternative, the sound in each direction different from the zero azimuth direction is divided into frequency bands, each of which has its own amplification factor. The contents of the directional field are
For example: ((0.79 125.0 0.8 1000.0 0.6 4000.0 0.4)
(1.57 125.0 0.7 1000.0 0.5 4000.0 0.3) (2.36 125.0 0.6 1000.0 0.4 4000.0 0.2) (3.14) 125.0 0.5 1000.0 0.3 4000.0 0.1))

【0044】 この代案において、指向性フィールドは音源モデルにおけるゼロ方位と異なる
複数の方向と同数の内括弧によって互いに分けられている数値のセットを含む。
各数値のセットにおいて、第1の数値は注目している方向とゼロ方位とのあいだ
の角度をラジアンで示す。第1の数値の後に数値の対があり、それらの第1のも
のはある周波数をヘルツで示し、第2のものは増幅率である。たとえば、数値の
セット(0.79 125.0 0.8 1000.0 0.6 4000.0
0.4)は、0.79ラジアン方向において0.8の増幅率が周波数0〜12
5Hzに対して使用され、0.6の増幅率が周波数125〜1000Hzに対し
て使用されて、0.4の増幅率が周波数1000〜4000Hzに対して使用さ
れると解釈され得る。代案として、上述の数のセットは0.79ラジアン方向に
おいて増幅率は周波数125Hzで0.8であり、増幅率は周波数1000Hz
で0.6であり、増幅率は周波数4000Hzで0.4であり、そして他の周波
数における増幅率はこれらから内挿法および外挿法によって計算されることを意
味する表記法を使用することが可能である。本発明に関して、使用される表記法
が送信装置と受信装置の両方にとって既知である限り、どの表記法が使用される
かは本質的ではない。
In this alternative, the directional field comprises a set of values separated from each other by the same number of inner braces as directions that are different from the zero orientation in the sound source model.
In each set of numbers, the first number indicates the angle in radians between the direction of interest and the zero azimuth. Following the first number are pairs of numbers, the first of which indicates a certain frequency in hertz and the second is the amplification factor. For example, a set of numerical values (0.79 125.0 0.8 1000.0 0.6 4000.0
0.4) means that an amplification factor of 0.8 in the direction of 0.79 radian has a frequency of 0 to 12
It can be interpreted that an amplification factor of 0.6 is used for frequencies 125-1000 Hz, and an amplification factor of 0.4 is used for frequencies 1000-4000 Hz. Alternatively, the above set of numbers may have a gain of 0.8 at a frequency of 125 Hz and a gain of 1000 Hz in the 0.79 radian direction.
Use notation that means that the gain is 0.4 at a frequency of 4000 Hz and the gain at other frequencies is calculated from these by interpolation and extrapolation. Is possible. With respect to the present invention, it is not essential which notation is used, as long as the notation used is known to both the transmitting device and the receiving device.

【0045】 第3の代案によれば、伝達関数はゼロ方位と異なる各方向に適用されて、伝達
関数を規定するためにそのZ変換の係数aおよびbが与えられる。指向性フィー
ルドの内容は、たとえばつぎのようである。 ((45 b45.045.145.145.245.2 …) (90 b90.090.190.190.290.2 …) (135 b135.0135.1135.1135.2135.2 …) (180 b180.0180.1180.1180.2180.2 …))
According to a third alternative, the transfer function is applied in each direction different from the zero azimuth and given its coefficients a and b of the Z-transform to define the transfer function. The contents of the directivity field are, for example, as follows. ((45 b 45.0 b 45.1 a 45.1 b 45.2 a 45.2 ...) (90 b 90.0 b 90.1 a 90.1 b 90.2 a 90.2 ...) (135 b 135.0 b 135.1 a 135.1 b 135.2 a 135.2 ...) (180 b 180.0 b 180.1 a 180.1 b 180.2 a 180.2 …))

【0046】 この代案においても、指向性フィールドは音源モデルにおけるゼロ方位の方向
とは異なる複数の方向と同数の内括弧によって互いに分けられている数値のセッ
トを含む。各数値のセットにおいて、第1の数は注目している方向とゼロ方位と
のあいだの角度を今回は度で示す。この場合に、上述の場合のように他の既知の
角度単位も同様に使用することが可能である。第1の数値の後に、注目している
方向に使用される伝達関数のZ変換を決定する係数aおよびbがある。各数値の
セットの後のポイントは、本発明は伝達関数のZ変換を規定する係数aおよびb
の数についていかなる制限も課さないことを意味する。様々な各数値のセットに
おいて、様々な数の係数aおよびbが有り得る。第3の代案において、係数aお
よびbもそれらの独自のベクトルとして与えられ得る。そのために、FIRまた
は全極IIRフィルタの効率的なモデル化が、出版物エリス、エス.(Ellis, S.
)1998:「VMRLにおけるより現実的な音に向けて(Towards more realistic
sound in VMRL)」、Proc. VRML'98, アメリカ合衆国、マネー、1998年2月
16〜19日、95〜100頁と同じ方法で可能となるだろう。
In this alternative, the directivity field also includes a set of values separated from each other by the same number of inner braces as a plurality of directions different from the direction of the zero bearing in the sound source model. In each set of numbers, the first number indicates the angle between the direction of interest and the zero azimuth, in degrees this time. In this case, other known angular units can be used as well, as in the case described above. After the first number are the coefficients a and b which determine the Z-transform of the transfer function used in the direction of interest. The point after each set of values is that the invention defines the coefficients a and b that define the Z-transform of the transfer function.
Means that no limit is imposed on the number of. In each different set of values, there can be different numbers of coefficients a and b. In a third alternative, the coefficients a and b may also be given as their own vectors. To that end, efficient modeling of FIR or all-pole IIR filters is described in the publication Ellis, S.A. (Ellis, S.
1998: "Towards more realistic sounds in VMRL (Towards more realistic)
sound in VMRL), Proc. VRML'98, Money, USA, February 16-19, 1998, pp. 95-100.

【0047】 上に提示された本発明の実施の形態は、勿論例として意図されたにすぎないし
、それらは本発明を制限するのになんの影響も有しない。とくにフィルタを表わ
すパラメータが指示音ノード(DirectiveSound node)の指向性フィールドにお いて配列される方法は、非常に多くの方法で選定され得る。
The embodiments of the invention presented above are, of course, intended only as examples, and they have no effect on limiting the invention. In particular, the way in which the parameters representing the filters are arranged in the directional field of the DirectiveSound node can be chosen in a very large number of ways.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 既知の指向性音響モデルを示す図である。FIG. 1 is a diagram showing a known directional acoustic model.

【図2】 他の既知の指向性音響モデルを示す図である。FIG. 2 is a diagram showing another known directional acoustic model.

【図3】 本発明にもとづく指向性音響モデルを概略的に示す図である。FIG. 3 is a diagram schematically showing a directional acoustic model according to the present invention.

【図4】 本発明にもとづくモデルによって生成された音がどのような方向に向けられる
かを表わすグラフである。
FIG. 4 is a graph showing in which direction a sound generated by a model according to the present invention is directed.

【図5】 本発明がどのように仮想音響環境に適用されるかを示す図である。FIG. 5 is a diagram showing how the present invention is applied to a virtual acoustic environment.

【図6】 本発明にもとづくシステムを示す図である。FIG. 6 shows a system according to the invention.

【図7a】 本発明にもとづくシステムの一部をより詳細に示す図である。FIG. 7a shows a part of the system according to the invention in more detail.

【図7b】 図7aの細部を示す図である。FIG. 7b shows a detail of FIG. 7a.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,UG,ZW),E A(AM,AZ,BY,KG,KZ,MD,RU,TJ ,TM),AE,AL,AM,AT,AU,AZ,BA ,BB,BG,BR,BY,CA,CH,CN,CU, CZ,DE,DK,EE,ES,FI,GB,GD,G E,GH,GM,HR,HU,ID,IL,IN,IS ,JP,KE,KG,KP,KR,KZ,LC,LK, LR,LS,LT,LU,LV,MD,MG,MK,M N,MW,MX,NO,NZ,PL,PT,RO,RU ,SD,SE,SG,SI,SK,SL,TJ,TM, TR,TT,UA,UG,US,UZ,VN,YU,Z A,ZW Fターム(参考) 5D062 CC12 CC16 ──────────────────────────────────────────────────続 き Continuation of front page (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE ), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SL, SZ, UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AL, AM, AT, AU, AZ, BA, BB, BG, BR , BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS , JP, KE, KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, US, UZ, VN, YU, ZA, ZWF terms (reference) 5D062 CC12 CC16

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 電子装置において、仮想音響環境を処理する方法であり、そ
れによって該仮想音響環境が少なくとも1つの音源(300)を含む方法であっ
て、音がどのような方向に向けられるかをモデル化するために、フィルタの組(
306、307、308、309)が音に及ぼす影響が各フィルタの所定のパラ
メータに依存するように、方向に依存するフィルタの組を音源に対応して設ける
ことを特徴とする仮想音響環境を処理する方法。
1. A method for processing a virtual acoustic environment in an electronic device, whereby the virtual acoustic environment comprises at least one sound source (300), in which direction the sound is directed A set of filters (
306, 307, 308, 309) are provided with a set of direction-dependent filters corresponding to the sound sources so that the effect on sound depends on predetermined parameters of each filter. how to.
【請求項2】 ある基準方向(301)とそれと異なる1組の方向(302
、303、304、305)が音源に対して規定され、それによって、フィルタ
の組(306、307、308、309)が音に及ぼす影響が各フィルタに関す
るパラメータに依存するようにフィルタが決められた基準方向と異なる各方向に
対応して設けられる請求項1記載の方法。
2. A reference direction (301) and a different set of directions (302).
, 303, 304, 305) are defined for the sound source, whereby the filters are determined such that the effect on the sound of the set of filters (306, 307, 308, 309) depends on the parameters for each filter. The method according to claim 1, wherein the method is provided corresponding to each direction different from the reference direction.
【請求項3】 各フィルタに関する前記パラメータが、音源から様々な方向
に向けられる音のそれぞれの増幅を決定するための増幅率の組である請求項2記
載の方法。
3. The method of claim 2, wherein the parameter for each filter is a set of amplification factors for determining a respective amplification of sound directed from the sound source in various directions.
【請求項4】 前記増幅率の組が基準方向と異なる少なくとも1つの決めら
れた方向における音の様々な周波数に対して別々の増幅率を含む請求項3記載の
方法。
4. The method of claim 3, wherein the set of amplification factors includes different amplification factors for various frequencies of sound in at least one determined direction different from the reference direction.
【請求項5】 各フィルタに関する前記パラメータが、フィルタの伝達関数
のZ変換を表わす次の分数式の係数[b01122・・・]である請求項2 記載の方法。 【数1】
5. The method according to claim 2, wherein the parameter for each filter is a coefficient [b 0 b 1 a 1 b 2 a 2 ...] Of the following fractional expression representing the Z-transform of the transfer function of the filter. . (Equation 1)
【請求項6】 音がどのように、基準方向より他の方向および基準方向と異
なる決められた各方向に、向けられるかをモデル化するために、基準方向と異な
る決められた方向に対応して設けられる各フィルタ間の補間(400)を含む請
求項2記載の方法。
6. A method according to claim 1, further comprising the step of: modeling the manner in which the sound is directed in other directions than the reference direction and in each of the determined directions different from the reference direction. 3. The method of claim 2, including interpolating (400) between each provided filter.
【請求項7】 送信装置が音源(501、502、503、504)を含む
ある仮想音響環境(500)を生成し、それによって音がこれらの音源からある
方向に向けられる方法が、音に及ぼす影響が各フィルタに関するパラメータに依
存するフィルタによってモデル化されるステップと、 前記送信装置が受信装置へ各フィルタに関する前記パラメータについての情報
を伝送するステップと、 仮想音響環境を再構成するために、前記受信装置が、音響信号に及ぼす影響が
各フィルタに関するパラメータに依存するフィルタを含むフィルタバンクを生成
し、各フィルタに関するパラメータを送信装置によって伝送される情報にもとづ
いて生成するステップとを含む請求項1記載の方法。
7. The transmitting device generates certain virtual acoustic environments (500) that include sound sources (501, 502, 503, 504), so that the manner in which sound is directed from these sources in a certain direction affects the sound. Wherein the influence is modeled by filters dependent on the parameters for each filter; the transmitting device transmits information about the parameters for each filter to a receiving device; and Generating a filter bank including filters whose influence on the acoustic signal depends on parameters related to each filter, and generating parameters related to each filter based on information transmitted by the transmitting device. The described method.
【請求項8】 送信装置がMPEG−4規格にもとづくデータストリームの
一部として各フィルタに関する前記パラメータについての情報を受信装置へ伝送
する請求項7記載の方法。
8. The method according to claim 7, wherein the transmitting device transmits information about the parameters for each filter to the receiving device as part of a data stream based on the MPEG-4 standard.
【請求項9】 前記音源が実際の音源(501、502、503)である請
求項1記載の方法。
9. The method according to claim 1, wherein the sound source is an actual sound source (501, 502, 503).
【請求項10】 前記音源が反射(504)であることを特徴とする請求項
1に記載の方法。
10. The method of claim 1, wherein the sound source is a reflection (504).
【請求項11】 少なくとも1つの音源を含む仮想音響環境を処理するシス
テムであって、仮想音響環境に属する音源から音がどのような方向に向けられる
かをモデル化するために、パラメータで特徴づけられるフィルタを含むフィルタ
バンク(619)を生成する手段を含むシステム。
11. A system for processing a virtual acoustic environment including at least one sound source, characterized by parameters to model in which direction a sound is directed from a sound source belonging to the virtual acoustic environment. A means for generating a filter bank (619) containing the filters to be obtained.
【請求項12】 送信装置(601)と、受信装置(602)と、前記送信
装置と受信装置とのあいだの電気通信を実現する手段とを含む請求項11記載の
システム。
12. The system according to claim 11, comprising a transmitting device (601), a receiving device (602), and means for realizing electrical communication between the transmitting device and the receiving device.
【請求項13】 前記送信装置内にパラメータで特徴づけられるフィルタを
表わすパラメータをMPEG−4規格にもとづくデータストリームに加えるマル
チプレクシング手段(611)と、前記受信装置内において、パラメータで特徴
づけられるフィルタを表わすパラメータをMPEG−4規格にもとづくデータス
トリームから検出するデマルチプレクシング手段(612)とを含む請求項11
記載の方法。
13. A multiplexing means (611) for adding a parameter representing a filter characterized by a parameter in the transmitting device to a data stream based on the MPEG-4 standard, and a filter characterized by a parameter in the receiving device. Demultiplexing means (612) for detecting a parameter representing the following from a data stream based on the MPEG-4 standard.
The described method.
【請求項14】 前記送信装置内にパラメータで特徴づけられるフィルタを
表わすパラメータを拡張VRML97規格にもとづくデータストリームに加える
マルチプレクシング手段(611)と、前記受信装置内にパラメータで特徴づけ
られるフィルタを表わすパラメータを拡張VRML97規格にもとづくデータス
トリームから検出するデマルチプレクシング手段(612)とを含む請求項11
記載の方法。
14. A multiplexing means (611) for adding a parameter representing a filter characterized by a parameter in the transmitting device to a data stream based on the extended VRML97 standard, and representing a filter characterized by a parameter in the receiving device. 12. Demultiplexing means (612) for detecting parameters from a data stream according to the extended VRML97 standard.
The described method.
JP2000538346A 1998-03-23 1999-03-23 Method and system for processing directional sound in a virtual acoustic environment Expired - Lifetime JP4573433B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI980649 1998-03-23
FI980649A FI116505B (en) 1998-03-23 1998-03-23 Method and apparatus for processing directed sound in an acoustic virtual environment
PCT/FI1999/000226 WO1999049453A1 (en) 1998-03-23 1999-03-23 A method and a system for processing directed sound in an acoustic virtual environment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008250770A Division JP2009055621A (en) 1998-03-23 2008-09-29 Method of processing directional sound in virtual acoustic environment

Publications (2)

Publication Number Publication Date
JP2002508609A true JP2002508609A (en) 2002-03-19
JP4573433B2 JP4573433B2 (en) 2010-11-04

Family

ID=8551352

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2000538346A Expired - Lifetime JP4573433B2 (en) 1998-03-23 1999-03-23 Method and system for processing directional sound in a virtual acoustic environment
JP2008250770A Pending JP2009055621A (en) 1998-03-23 2008-09-29 Method of processing directional sound in virtual acoustic environment

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2008250770A Pending JP2009055621A (en) 1998-03-23 2008-09-29 Method of processing directional sound in virtual acoustic environment

Country Status (11)

Country Link
US (1) US7369668B1 (en)
EP (1) EP1064647B1 (en)
JP (2) JP4573433B2 (en)
KR (1) KR100662673B1 (en)
CN (1) CN1132145C (en)
AT (1) ATE361522T1 (en)
AU (1) AU2936999A (en)
DE (1) DE69935974T2 (en)
ES (1) ES2285834T3 (en)
FI (1) FI116505B (en)
WO (1) WO1999049453A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094271A (en) * 2003-09-16 2005-04-07 Nippon Hoso Kyokai <Nhk> Virtual space sound reproducing program and device
JP2007184792A (en) * 2006-01-06 2007-07-19 Samii Kk Content reproducing device, and content reproducing program
JP2009055621A (en) * 1998-03-23 2009-03-12 Nokia Mobile Phones Ltd Method of processing directional sound in virtual acoustic environment

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6668177B2 (en) 2001-04-26 2003-12-23 Nokia Corporation Method and apparatus for displaying prioritized icons in a mobile terminal
US7032188B2 (en) 2001-09-28 2006-04-18 Nokia Corporation Multilevel sorting and displaying of contextual objects
US6996777B2 (en) 2001-11-29 2006-02-07 Nokia Corporation Method and apparatus for presenting auditory icons in a mobile terminal
US6934911B2 (en) 2002-01-25 2005-08-23 Nokia Corporation Grouping and displaying of contextual objects
DE602004021716D1 (en) * 2003-11-12 2009-08-06 Honda Motor Co Ltd SPEECH RECOGNITION SYSTEM
WO2005101897A1 (en) * 2004-04-16 2005-10-27 Smart Internet Technology Crc Pty Ltd Apparatuses and methods for use in creating an audio scene
JP4894386B2 (en) * 2006-07-21 2012-03-14 ソニー株式会社 Audio signal processing apparatus, audio signal processing method, and audio signal processing program
JP5082327B2 (en) * 2006-08-09 2012-11-28 ソニー株式会社 Audio signal processing apparatus, audio signal processing method, and audio signal processing program
GB0724366D0 (en) * 2007-12-14 2008-01-23 Univ York Environment modelling
JP5397131B2 (en) * 2009-09-29 2014-01-22 沖電気工業株式会社 Sound source direction estimating apparatus and program
JP5141738B2 (en) * 2010-09-17 2013-02-13 株式会社デンソー 3D sound field generator
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
WO2012168765A1 (en) * 2011-06-09 2012-12-13 Sony Ericsson Mobile Communications Ab Reducing head-related transfer function data volume
CN103152500B (en) * 2013-02-21 2015-06-24 黄文明 Method for eliminating echo from multi-party call
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CN109891503B (en) * 2016-10-25 2021-02-23 华为技术有限公司 Acoustic scene playback method and device
KR102113542B1 (en) 2017-11-30 2020-05-21 서울과학기술대학교 산학협력단 Method of normalizing sound signal using deep neural network
US10705790B2 (en) 2018-11-07 2020-07-07 Nvidia Corporation Application of geometric acoustics for immersive virtual reality (VR)
CN114630240B (en) * 2022-03-16 2024-01-16 北京小米移动软件有限公司 Direction filter generation method, audio processing method, device and storage medium

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731848A (en) 1984-10-22 1988-03-15 Northwestern University Spatial reverberator
US5285165A (en) 1988-05-26 1994-02-08 Renfors Markku K Noise elimination method
FI90166C (en) 1991-10-16 1993-12-27 Nokia Mobile Phones Ltd CMOS-compander
FI89846C (en) 1991-11-29 1993-11-25 Nokia Mobile Phones Ltd A deviation limiter for a signal sent from a radio telephone
FI92535C (en) 1992-02-14 1994-11-25 Nokia Mobile Phones Ltd Noise reduction system for speech signals
EP0563929B1 (en) 1992-04-03 1998-12-30 Yamaha Corporation Sound-image position control apparatus
EP1304797A3 (en) 1992-07-07 2007-11-28 Dolby Laboratories Licensing Corporation Digital filter having high accuracy and efficiency
JPH06292298A (en) * 1993-03-31 1994-10-18 Sega Enterp Ltd Stereophonic virtual sound image forming device taking audible characteristic and monitor environment into account
JP3552244B2 (en) * 1993-05-21 2004-08-11 ソニー株式会社 Sound field playback device
JP3578783B2 (en) 1993-09-24 2004-10-20 ヤマハ株式会社 Sound image localization device for electronic musical instruments
JPH0793367A (en) * 1993-09-28 1995-04-07 Atsushi Matsushita System and device for speech information retrieval
US5485514A (en) 1994-03-31 1996-01-16 Northern Telecom Limited Telephone instrument and method for altering audible characteristics
US5659619A (en) 1994-05-11 1997-08-19 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
US5684881A (en) 1994-05-23 1997-11-04 Matsushita Electric Industrial Co., Ltd. Sound field and sound image control apparatus and method
JP3258195B2 (en) * 1995-03-27 2002-02-18 シャープ株式会社 Sound image localization control device
JPH08272380A (en) * 1995-03-30 1996-10-18 Taimuuea:Kk Method and device for reproducing virtual three-dimensional spatial sound
US5831518A (en) * 1995-06-16 1998-11-03 Sony Corporation Sound producing method and sound producing apparatus
FR2736499B1 (en) 1995-07-03 1997-09-12 France Telecom METHOD FOR BROADCASTING A SOUND WITH A GIVEN DIRECTIVITY
FR2738099B1 (en) 1995-08-25 1997-10-24 France Telecom METHOD FOR SIMULATING THE ACOUSTIC QUALITY OF A ROOM AND ASSOCIATED AUDIO-DIGITAL PROCESSOR
US5790957A (en) 1995-09-12 1998-08-04 Nokia Mobile Phones Ltd. Speech recall in cellular telephone
FI102337B1 (en) 1995-09-13 1998-11-13 Nokia Mobile Phones Ltd Method and circuit arrangement for processing an audio signal
JP3296471B2 (en) * 1995-10-09 2002-07-02 日本電信電話株式会社 Sound field control method and device
FI100840B (en) 1995-12-12 1998-02-27 Nokia Mobile Phones Ltd Noise attenuator and method for attenuating background noise from noisy speech and a mobile station
JP3976360B2 (en) * 1996-08-29 2007-09-19 富士通株式会社 Stereo sound processor
DE19646055A1 (en) 1996-11-07 1998-05-14 Thomson Brandt Gmbh Method and device for mapping sound sources onto loudspeakers
JP3266020B2 (en) * 1996-12-12 2002-03-18 ヤマハ株式会社 Sound image localization method and apparatus
FI116990B (en) 1997-10-20 2006-04-28 Nokia Oyj Procedures and systems for treating an acoustic virtual environment
FI116505B (en) * 1998-03-23 2005-11-30 Nokia Corp Method and apparatus for processing directed sound in an acoustic virtual environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055621A (en) * 1998-03-23 2009-03-12 Nokia Mobile Phones Ltd Method of processing directional sound in virtual acoustic environment
JP2005094271A (en) * 2003-09-16 2005-04-07 Nippon Hoso Kyokai <Nhk> Virtual space sound reproducing program and device
JP2007184792A (en) * 2006-01-06 2007-07-19 Samii Kk Content reproducing device, and content reproducing program

Also Published As

Publication number Publication date
CN1132145C (en) 2003-12-24
FI980649A (en) 1999-09-24
KR20010034650A (en) 2001-04-25
AU2936999A (en) 1999-10-18
EP1064647B1 (en) 2007-05-02
ATE361522T1 (en) 2007-05-15
CN1302426A (en) 2001-07-04
FI980649A0 (en) 1998-03-23
DE69935974T2 (en) 2007-09-06
JP2009055621A (en) 2009-03-12
FI116505B (en) 2005-11-30
ES2285834T3 (en) 2007-11-16
EP1064647A1 (en) 2001-01-03
DE69935974D1 (en) 2007-06-14
US7369668B1 (en) 2008-05-06
JP4573433B2 (en) 2010-11-04
WO1999049453A1 (en) 1999-09-30
KR100662673B1 (en) 2006-12-28

Similar Documents

Publication Publication Date Title
JP2009055621A (en) Method of processing directional sound in virtual acoustic environment
KR100440454B1 (en) A method and a system for processing a virtual acoustic environment
Serafin et al. Sonic interactions in virtual reality: State of the art, current challenges, and future directions
KR100551605B1 (en) Method and device for projecting sound sources onto loudspeakers
US10924875B2 (en) Augmented reality platform for navigable, immersive audio experience
Jot et al. Rendering spatial sound for interoperable experiences in the audio metaverse
US11317233B2 (en) Acoustic program, acoustic device, and acoustic system
JP2013523006A (en) Stereo sound reproduction method and apparatus
JP2005229618A (en) Audio rendering by dynamic sound source and listener positions
KR20110122631A (en) Method and apparatus for reproducing stereophonic sound
JP7453248B2 (en) Audio equipment and methods of processing it
WO2019193244A1 (en) An apparatus, a method and a computer program for controlling playback of spatial audio
Huopaniemi et al. DIVA virtual audio reality system
JP2003061200A (en) Sound processing apparatus and sound processing method, and control program
CA3044260A1 (en) Augmented reality platform for navigable, immersive audio experience
RU2804014C2 (en) Audio device and method therefor
WO2022113394A1 (en) Live data delivering method, live data delivering system, live data delivering device, live data reproducing device, and live data reproducing method
WO2022113393A1 (en) Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method
Gutiérrez A et al. Audition
US20240135953A1 (en) Audio rendering method and electronic device performing the same
WO2023199815A1 (en) Acoustic processing device, program, and acoustic processing system
Stewart Spatial auditory display for acoustics and music collections
JPH1083190A (en) Transient response signal generating and setting method and device therefor
Senki Development of a Windows (TM) three-dimensional sound system using binaural technology.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100622

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100622

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100817

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term