JP2006287833A - Data processing method, data processing apparatus, and program - Google Patents

Data processing method, data processing apparatus, and program Download PDF

Info

Publication number
JP2006287833A
JP2006287833A JP2005108309A JP2005108309A JP2006287833A JP 2006287833 A JP2006287833 A JP 2006287833A JP 2005108309 A JP2005108309 A JP 2005108309A JP 2005108309 A JP2005108309 A JP 2005108309A JP 2006287833 A JP2006287833 A JP 2006287833A
Authority
JP
Japan
Prior art keywords
sound
point
receiving point
data processing
ray path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005108309A
Other languages
Japanese (ja)
Other versions
JP4721097B2 (en
Inventor
Toru Kitayama
徹 北山
Kenichi Tamiya
健一 田宮
Koji Kushida
孝司 櫛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005108309A priority Critical patent/JP4721097B2/en
Priority to US11/397,998 priority patent/US7859533B2/en
Publication of JP2006287833A publication Critical patent/JP2006287833A/en
Priority to US12/951,993 priority patent/US8331575B2/en
Application granted granted Critical
Publication of JP4721097B2 publication Critical patent/JP4721097B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a data processing method, a data processing apparatus, and a program capable of realizing sharp sound image localization with a small computation complexity, when simulating acoustic characteristics in an acoustic space 102, wherein a sounding point 104 for emitting sound and a sound-receiving point 106 for receiving sound are arranged. <P>SOLUTION: The data processing apparatus calculates a plurality of sound ray routes 112-1, 114-1 that are the sound routes from the sounding point 104 to the sound receiving point 106, while being reflected properly in the inside of the acoustic space 102 and obtains incident angles θR1, θR2 at where the sound ray route is made to coincide with a front direction 106a of the sound-receiving point 106. The data processing apparatus obtains angles at which speakers 52C, 52L, 52R, 52SR, 52SL of the 5.1 surround system are arranged in a listening room around the front direction 106a of the sound-receiving point 106 as a center and the sound signal of each sound ray route is distributed to channels, with respect to any two loudspeakers. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、サラウンドシステムにて再生される音声ソースの作成に用いて好適なデータ処理方法、データ処理装置およびプログラムに関する。   The present invention relates to a data processing method, a data processing apparatus, and a program suitable for use in creating an audio source to be played back in a surround system.

例えば直方体状の部屋のようなある音響空間の中に、何らかの音を発生する発音点と、この音を受音する受音点とを置いたとする。受音点とは、人間あるいはマイク等である。この場合、発音点から放射された音は音響空間内の各部に反射された後に受音点に到達することになる。このように、受音点に到着するまでの音の伝搬を計算機上でシミュレートし、4チャンネルステレオ上で再現する装置が特許文献1,2に開示されている。例えば、図1(a)において、各スピーカ52L,52R,52SR,52SLはリスナを中心に正方形の四頂点を成す位置に配置される。ここで、リスナの位置を受音点106として、スピーカ52L,52Rの中心方向に仮想的な発音点104を想定し、この発音点104から受音点106に到達する直接音の音圧をPとする。特許文献1の技術によれば、左右のスピーカ52L,52Rから受音点106に各々「P/2」の音圧を与える音を放音することにより、この仮想的な発音点104からの直接音をシミュレートすることができる。なお、同図においては反射音は省略する。   For example, it is assumed that a sound generation point for generating some sound and a sound reception point for receiving this sound are placed in a certain acoustic space such as a rectangular parallelepiped room. The sound receiving point is a human or a microphone. In this case, the sound radiated from the sound generation point reaches the sound receiving point after being reflected by each part in the acoustic space. As described above, Patent Documents 1 and 2 disclose apparatuses that simulate the propagation of sound until reaching the sound receiving point on a computer and reproduce it on a 4-channel stereo. For example, in FIG. 1A, the speakers 52L, 52R, 52SR, and 52SL are arranged at positions that form four vertices of a square with the listener as the center. Here, assuming that the position of the listener is the sound receiving point 106, a virtual sounding point 104 is assumed in the center direction of the speakers 52L and 52R, and the sound pressure of the direct sound reaching the sound receiving point 106 from this sounding point 104 is P. And According to the technique of Patent Document 1, the sound that gives the sound pressure of “P / 2” to the sound receiving point 106 is emitted from the left and right speakers 52L and 52R, thereby directly from the virtual sounding point 104. Sound can be simulated. In the figure, the reflected sound is omitted.

さらに、特許文献2においては、「受音点の向き」に応じて、4チャンネルステレオの音声信号のレベルを変動する技術が開示されている。例えば、受音点が「人間」であったとすると、音圧Pの音を正面から聞いた場合と、背面から聞いた場合とでは実際に耳に感ずる音圧は異なる。そこで、受音点の向きをパラメータとして、音声信号のレベルを変動させている。また、この特許文献2には、発音点や受音点を音響空間内の任意の位置に配置し、所定の経路に沿って発音点を自動的に移動させる技術も開示されている。また、特許文献3には、発音点の移動する軌道をユーザが任意に設定することができ、この軌道上を発音点が移動する状態を4チャンネルステレオ上で再現する技術が開示されている。   Further, Patent Document 2 discloses a technique for changing the level of a 4-channel stereo audio signal in accordance with “the direction of the sound receiving point”. For example, if the sound receiving point is “human”, the sound pressure actually felt is different between the case where the sound pressure P is heard from the front and the case where the sound is heard from the back. Therefore, the level of the sound signal is varied using the direction of the sound receiving point as a parameter. Further, Patent Document 2 discloses a technique in which sounding points and sound receiving points are arranged at arbitrary positions in an acoustic space, and sounding points are automatically moved along a predetermined route. Patent Document 3 discloses a technique in which a user can arbitrarily set a trajectory along which a sounding point moves, and reproduce a state in which the sounding point moves on this trajectory on a 4-channel stereo.

また、多チャンネル再生装置によって再現される音場を任意の角度で回転させる技術が特許文献4に開示されている。これは、多チャンネルの各信号を回転角度で応じたミキシング比でミキシングすることによって実現されている。例えば、図1(b)において、4チャンネルステレオを構成する音声信号S_L,S_R,S_SR,S_SLが与えられたとして、これを右方向に「45°」回転した音場を実現する音声信号を各スピーカ52L,52R,52SR,52SLから放音することを想定してみる。かかる場合には、オリジナルの音声信号S_L,S_R,S_SR,S_SLのうち相隣接するもの同士を「1/2」の比でミキシングし、その結果を音声信号S_L’,S_R’,S_SR’,S_SL’としてスピーカ52L,52R,52SR,52SLから各々放音するとよい。   Further, Patent Document 4 discloses a technique for rotating a sound field reproduced by a multi-channel playback device at an arbitrary angle. This is realized by mixing each signal of multiple channels with a mixing ratio corresponding to the rotation angle. For example, in FIG. 1B, assuming that audio signals S_L, S_R, S_SR, and S_SL constituting a 4-channel stereo are given, audio signals that realize a sound field that is rotated “45 °” in the right direction are shown. Assume that sound is emitted from the speakers 52L, 52R, 52SR, and 52SL. In such a case, adjacent ones of the original audio signals S_L, S_R, S_SR, and S_SL are mixed at a ratio of “½”, and the result is mixed with the audio signals S_L ′, S_R ′, S_SR ′, and S_SL. The sound may be emitted from the speakers 52L, 52R, 52SR, and 52SL.

特開2004−212797号公報JP 2004-212797 A 特開2004−312109号公報Japanese Patent Laid-Open No. 2004-312109 米国特許5,636,283号US Pat. No. 5,636,283 特開2003−271135号公報JP 2003-271135 A

上述した特許文献1,2の技術においては、受音点106の向きは受音点106に到達すべき音のレベルを決定するために用いられているが、各スピーカ間の定位を決定するためには用いられていない。すなわち、受音点106の向きは、予め想定された向きに限られていた。従って、受音点106の向きに応じてスピーカ間の定位を設定するためには、特許文献4の技術が併用されていた。例えば、図1(a)において、受音点106が人間であって、左方向に顔が「45°」回転していたとする。このときに該受音点106に到達する音を、リスニングルーム内のリスナに対してシミュレートすることを考える。リスニングルーム内のリスナが正面を向いているものとすると、音場全体を右方向に「45°」回転させることによって、この音場をシミュレートできることになる。この場合、発音点104の音像はリスナから見てスピーカ52Rの方向になければならない。   In the techniques of Patent Documents 1 and 2 described above, the direction of the sound receiving point 106 is used to determine the level of the sound that should reach the sound receiving point 106, but in order to determine the localization between the speakers. Is not used. That is, the direction of the sound receiving point 106 is limited to the direction assumed in advance. Therefore, in order to set the localization between the speakers in accordance with the direction of the sound receiving point 106, the technique of Patent Document 4 is used in combination. For example, in FIG. 1A, it is assumed that the sound receiving point 106 is a human and the face is rotated “45 °” in the left direction. At this time, it is considered to simulate the sound reaching the sound receiving point 106 with respect to the listener in the listening room. Assuming that the listener in the listening room is facing the front, this sound field can be simulated by rotating the entire sound field to the right by “45 °”. In this case, the sound image of the sound generation point 104 must be in the direction of the speaker 52R as viewed from the listener.

そこで、特許文献4の技術を用いて音場を回転させると、各スピーカからの音圧は次の通りになる。すなわち、スピーカ52LにおいてS_L’=P/4、スピーカ52RにおいてS_R’=P/2、スピーカ52SRにおいてS_SR’=P/4。かかる結果によれば、確かに音像の中心はスピーカ52Rの方向に一致し、音圧の総和も「P」に一致するが、発音点104をシミュレートする音が「3」台のスピーカから分散して出力されるため、音像がぼやけるという問題があった。   Therefore, when the sound field is rotated using the technique of Patent Document 4, the sound pressure from each speaker is as follows. That is, S_L ′ = P / 4 in the speaker 52L, S_R ′ = P / 2 in the speaker 52R, and S_SR ′ = P / 4 in the speaker 52SR. According to such a result, the center of the sound image coincides with the direction of the speaker 52R and the sum of the sound pressures also coincides with “P”, but the sound simulating the sounding point 104 is dispersed from the “3” speakers. Therefore, there is a problem that the sound image is blurred.

また、特許文献1,2の技術によって多チャンネルの信号を生成した後に、特許文献4の技術によって音場を回転させることは、計算が複雑になるという問題があった。
この発明は上述した事情に鑑みてなされたものであり、シャープな音像定位を少ない計算量で実現できるデータ処理方法、データ処理装置およびプログラムを提供することを目的としている。
In addition, rotating a sound field using the technique of Patent Document 4 after generating a multi-channel signal using the techniques of Patent Documents 1 and 2 has a problem that the calculation becomes complicated.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a data processing method, a data processing apparatus, and a program capable of realizing sharp sound image localization with a small amount of calculation.

上記課題を解決するため本発明にあっては、下記構成を具備することを特徴とする。なお、括弧内は例示である。
請求項1記載のデータ処理方法にあっては、音を発する発音点(104)と当該発音点(104)から発せられた音を受ける受音点(106)とが配置された音響空間(102)の音響特性をシミュレートするデータ処理方法において、前記音響空間(102)内における前記受音点(106)の向きを設定する受音点方向設定過程(受音点方向画像212aに対する操作)と、前記発音点(104)から前記受音点(106)に向かう音の経路である複数の音線経路を算出する音線経路算出過程(SP112,SP114)と、前記受音点(106)の向きを基準として、前記各音線経路が前記受音点(106)に入射する入射角(θR)を算出する入射角算出過程(SP114)と、前記入射角(θR)に基づいて、少なくとも3チャンネル以上の多チャンネル音声信号に対応して、前記各音線経路に係る音声信号の分配率(図4)を決定する分配率決定過程(SP118)と、該決定された分配率に応じて、前記各音線経路に係る音声信号を前記多チャンネル音声信号の各々のチャンネルに対して分配する分配過程(62,64,66)とを有することを特徴とする。
さらに、請求項2記載の構成にあっては、請求項1記載のデータ処理方法において、前記多チャンネル音声信号は、少なくとも第1乃至第3の音声信号(S_R,S_C,S_L)を含むものであり、前記分配率(図4)は、前記入射角(θR)が第1の範囲(330°≦θR≦360°)にあるときは、前記第1および第2の音声信号(S_R,S_C)に対する分配率の合計が100%になるように前記音線経路に係る音声信号を分配し、前記入射角(θR)が前記第1の範囲(330°≦θR≦360°)に隣接する第2の範囲(0°≦θR≦30°)にあるときは、前記第2および第3の音声信号(S_C,S_L)に対する分配率の合計が100%になるように前記音線経路に係る音声信号を分配するとともに、前記入射角(θR)が前記第1および第2の範囲の境界値(0°)に近づくほど前記第2の音声信号(S_C)に対する分配率が高くなるように設定されていることを特徴とする。
さらに、請求項3記載の構成にあっては、請求項1記載のデータ処理方法において、前記各音線経路の距離に基づいて、前記各音線経路に係る音声信号に対して遅延を施す遅延過程(60)と、前記各音線経路の距離が長くなるほど前記各音線経路に係る音声信号が減衰するように、前記各音線経路に係る音声信号に対して減衰処理を施す減衰過程(62,64,66,SP118)とをさらに有することを特徴とする。
さらに、請求項4記載の構成にあっては、請求項1記載のデータ処理方法において、前記音響空間(102)を表す音響空間画像(204)と、前記発音点(104)を表す発音点画像(210)と、前記受音点(106)を表す受音点画像(212)と、正面方向を基準として所定の配置関係で配置される複数のスピーカを表すスピーカ画像(214)とをディスプレイ上に表示する表示過程(SP78,SP90,SP94)をさらに有し、前記スピーカ画像(214)は、前記受音点画像(212)の周囲に、前記受音点(106)の向きを前記正面方向として表示されることを特徴とする。
また、請求項5記載のデータ処理装置にあっては、請求項1ないし4の何れかに記載のデータ処理方法を実行することを特徴とする。
また、請求項6記載のプログラムにあっては、請求項1ないし4の何れかに記載のデータ処理方法を処理装置(42,10)に実行させることを特徴とする。
In order to solve the above problems, the present invention is characterized by having the following configuration. The parentheses are examples.
In the data processing method according to claim 1, an acoustic space (102) in which a sounding point (104) that emits a sound and a sound receiving point (106) that receives a sound emitted from the sounding point (104) are arranged. ) In the data processing method for simulating the acoustic characteristics, a sound receiving point direction setting process (operation on the sound receiving point direction image 212a) for setting the direction of the sound receiving point (106) in the acoustic space (102); A sound ray path calculation process (SP112, SP114) for calculating a plurality of sound ray paths that are sound paths from the sounding point (104) to the sound receiving point (106), and the sound receiving point (106). Based on the incident angle calculation process (SP114) for calculating the incident angle (θR) of each sound ray path incident on the sound receiving point (106) with reference to the direction, and at least 3 based on the incident angle (θR) Channel Corresponding to the above multi-channel audio signal, a distribution rate determination process (SP118) for determining a distribution rate (FIG. 4) of the audio signal related to each sound ray path, and according to the determined distribution rate, And a distribution process (62, 64, 66) for distributing the audio signal relating to each sound ray path to each channel of the multi-channel audio signal.
Furthermore, in the configuration according to claim 2, in the data processing method according to claim 1, the multi-channel audio signal includes at least first to third audio signals (S_R, S_C, S_L). Yes, the distribution ratio (FIG. 4) indicates that the first and second audio signals (S_R, S_C) when the incident angle (θR) is in the first range (330 ° ≦ θR ≦ 360 °). The sound signal related to the sound ray path is distributed so that the total of the distribution ratio with respect to the second is adjacent to the first range (330 ° ≦ θR ≦ 360 °). Is within the range (0 ° ≦ θR ≦ 30 °), the audio signal related to the sound ray path so that the total of the distribution ratios for the second and third audio signals (S_C, S_L) is 100%. And the incident angle (θR) is a boundary between the first and second ranges. Characterized in that it is configured to dispense rate increases for the closer to (0 °) a second audio signal (S_C).
Furthermore, in the configuration according to claim 3, in the data processing method according to claim 1, the delay for delaying the sound signal related to each sound ray path based on the distance of each sound ray path. Step (60) and an attenuation process in which attenuation processing is performed on the sound signal related to each sound ray path so that the sound signal related to each sound ray path attenuates as the distance of each sound ray path becomes longer (step 60). 62, 64, 66, SP118).
Furthermore, in the configuration according to claim 4, in the data processing method according to claim 1, an acoustic space image (204) representing the acoustic space (102) and a pronunciation point image representing the pronunciation point (104). (210), a sound reception point image (212) representing the sound reception point (106), and a speaker image (214) representing a plurality of speakers arranged in a predetermined arrangement relationship with respect to the front direction. A display process (SP78, SP90, SP94) for displaying the sound receiving point (106) around the sound receiving point image (212) with the direction of the sound receiving point (106) in the front direction. It is displayed as.
The data processing apparatus according to claim 5 is characterized in that the data processing method according to any one of claims 1 to 4 is executed.
According to a sixth aspect of the present invention, there is provided a program for causing a processing device (42, 10) to execute the data processing method according to any one of the first to fourth aspects.

このように、本発明によれば、各音線経路が受音点に入射する入射角に基づいて、各音線経路に係る音声信号の分配率を決定し、各音線経路に係る音声信号をこの分配率に応じて多チャンネル音声信号の各々のチャンネルに対して分配するから、シャープな音像定位を少ない計算量で実現することができる。   Thus, according to the present invention, the distribution ratio of the audio signal related to each sound ray path is determined based on the incident angle at which each sound ray path enters the sound receiving point, and the sound signal related to each sound ray path is determined. Is distributed to each channel of the multi-channel audio signal according to the distribution ratio, so that a sharp sound image localization can be realized with a small amount of calculation.

1.実施例の概要
1.1.各種要素の位置関係と音との関係
図2において、直方体の音響空間102に発音点104と受音点106とを置いたとする。まず、発音点104から受音点106に向かって音線経路(音が伝搬する経路)110に沿って直接音が到達する。また、音線経路112−1に沿って、一次反射音(音響空間102の壁面に1回だけ反射する音)が到達する。一次反射音の音線経路は全部で「6」本、すなわち直方体の音響空間102を成す壁面の数と同一であり、音線経路112−1の他にも「5」本存在する(図示略)。
1. Summary of Examples
1.1. Relationship between Positions of Various Elements and Sounds In FIG. 2, it is assumed that a sound generation point 104 and a sound reception point 106 are placed in a rectangular parallelepiped acoustic space 102. First, sound directly reaches the sound receiving point 106 from the sounding point 104 along the sound ray path (sound propagation path) 110. Further, the primary reflected sound (sound that is reflected only once on the wall surface of the acoustic space 102) arrives along the sound ray path 112-1. The total number of sound ray paths of the primary reflected sound is “6”, that is, the same as the number of wall surfaces forming the rectangular acoustic space 102, and there are “5” in addition to the sound ray path 112-1. ).

また、音線経路114−1に沿って、二次反射音が到達する。二次反射音の音線経路は全部で「18」本であり、音線経路114−1の他にも「17」本存在する(図示略)。なお、二次反射音の数の求め方については、上記特許文献1に詳述されている。また、現実には三次以降の反射音も存在するが、これらは無視することとする。反射音は壁に「1」回反射される毎に、減衰するとともに周波数特性の変化(フィルタリング処理)を受ける。ここで、音響空間102の壁面が鏡であると過程したときに鏡に映る発音点104の鏡像116−1,118−1を描くことができる。   Further, the secondary reflected sound reaches along the sound ray path 114-1. The total number of sound ray paths of the secondary reflected sound is “18”, and there are “17” other than the sound ray path 114-1 (not shown). The method for obtaining the number of secondary reflected sounds is described in detail in Patent Document 1 above. In reality, there are third and subsequent reflections, but these are ignored. Each time the reflected sound is reflected “1” times on the wall, it attenuates and undergoes a change in frequency characteristics (filtering process). Here, when the wall surface of the acoustic space 102 is a mirror, it is possible to draw mirror images 116-1 and 118-1 of the pronunciation point 104 reflected in the mirror.

これらの鏡像は、実線の音線経路と同一の長さだけ受音点106から離れ、各音線経路が受音点106に入射する角度と同一の角度を受音点106に対して有している。そして、鏡像の数は、反射音に係る音線経路の数に等しい。また、本実施例においては、発音点104および受音点106に指向性特性が付与される。そこで、図2においては、両者の正面方向を矢印104a,106aによって示す。また、両者の指向性特性104b,106bの一例を図3に示しておく。ここで、各音線経路が発音点104から放射されるときの角度を、発音点104の正面方向104aを基準として放射角θGとし、該音線経路が受音点106に入射するときの角度を、受音点106の正面方向106aを基準として入射角θRとする。なお、図3においては、音線経路112−1,114−1の放射角および入射角を各々θG1,θG2およびθR1,θR2として示しておく。   These mirror images are separated from the sound receiving point 106 by the same length as the solid sound ray path, and have the same angle with respect to the sound receiving point 106 as each sound ray path is incident on the sound receiving point 106. ing. The number of mirror images is equal to the number of sound ray paths related to the reflected sound. In this embodiment, directivity characteristics are imparted to the sounding point 104 and the sound receiving point 106. Therefore, in FIG. 2, the front directions of both are indicated by arrows 104a and 106a. An example of both directivity characteristics 104b and 106b is shown in FIG. Here, the angle at which each sound ray path is radiated from the sound generation point 104 is a radiation angle θG with respect to the front direction 104a of the sound generation point 104, and the angle at which the sound ray path is incident on the sound reception point 106 Is the incident angle θR with reference to the front direction 106 a of the sound receiving point 106. In FIG. 3, the radiation angles and the incident angles of the sound ray paths 112-1 and 114-1 are shown as θG1, θG2, and θR1, θR2, respectively.

ここで、各音線経路から受音点106に到達する音声信号は、発音点104が発生する音声信号に対して、以下の減衰およびフィルタリング処理を施した音声信号である。
(1)音線経路長の二乗に反比例する減衰係数Zlenを乗算する減衰処理
(2)反射面におけるフィルタリング特性Zrefを、反射回数だけ乗算するフィルタリング処理
(3)指向性特性104bおよび放射角θGに基づく減衰係数ZGを乗算する減衰処理
(4)指向性特性106bおよび入射角θRに基づく減衰係数ZRを乗算する減衰処理
Here, the audio signal reaching the sound receiving point 106 from each sound ray path is an audio signal obtained by performing the following attenuation and filtering processing on the audio signal generated by the sound generation point 104.
(1) Attenuation process for multiplying the attenuation coefficient Zlen inversely proportional to the square of the sound ray path length (2) Filtering process for multiplying the filtering characteristic Zref on the reflecting surface by the number of reflections (3) Directivity characteristic 104b and radiation angle θG Attenuation process for multiplying attenuation coefficient ZG based on (4) Attenuation process for multiplying attenuation coefficient ZR based on directivity characteristic 106b and incident angle θR

以上のようにして求められた、各音線経路の音声信号は再生用のチャンネルに割り当てられる。ここでは、再生システムとして5.1サラウンドシステムを想定する。該再生システムにおいては、リスナを中心とする半径「2.5」mの円周上において、リスナの正面にセンタースピーカ52C、その左右「30°」の位置に左右スピーカ52L,52R、左右「120°」の位置に左右サラウンドスピーカ52SL,52SRが各々配置されることとする。これらスピーカの位置を図2においては破線で図示しておく。なお、5.1サラウンドシステムにおいては他に「サブウーハー」が設けられるが、これは定位に関係しないために図示していない。   The sound signal of each sound ray path obtained as described above is assigned to a reproduction channel. Here, a 5.1 surround system is assumed as the playback system. In the reproduction system, on the circumference of a radius “2.5” m centering on the listener, the center speaker 52C is located in front of the listener, the left and right speakers 52L and 52R are located at left and right “30 °” positions, and the left and right “120” are located. It is assumed that the left and right surround speakers 52SL and 52SR are respectively disposed at the position “°”. The positions of these speakers are shown by broken lines in FIG. In addition, in the 5.1 surround system, “subwoofer” is also provided, but this is not shown because it is not related to localization.

これらスピーカ52C,52L,52R,52SR,52SLに供給される各チャンネルの音声信号を各々S_C,S_L,S_R,S_SR,S_SLとし、各音線経路の音声信号をこれらチャンネルに分配するときの比を図4に示す。図4において、分配特性54C,54L,54R,54SR,54SLは、入射角θRの関数であり、各々音声信号S_C,S_L,S_R,S_SR,S_SLに対して、当該音線経路の音声信号を分配するときの分配率である。図示の区間A〜Eの各々においては、同時に分配率が「0%」を超えるチャンネルは「2」チャンネルのみであり、両チャンネルの分配率を合計すると「100%」になる。また、各区間A〜Eの境界においては「1」チャンネルのみ分配率が「100%」になり、他のチャンネルの分配率は「0%」である。   The audio signals of the channels supplied to the speakers 52C, 52L, 52R, 52SR, and 52SL are respectively S_C, S_L, S_R, S_SR, and S_SL, and the ratio when the audio signals of the sound ray paths are distributed to these channels is shown. As shown in FIG. In FIG. 4, distribution characteristics 54C, 54L, 54R, 54SR, and 54SL are functions of the incident angle θR, and the sound signals of the sound ray path are distributed to the sound signals S_C, S_L, S_R, S_SR, and S_SL, respectively. This is the distribution rate. In each of the illustrated sections A to E, only the “2” channel has a distribution rate exceeding “0%” at the same time, and the total distribution rate of both channels is “100%”. In addition, at the boundary between the sections A to E, the distribution rate of only “1” channel is “100%”, and the distribution rates of other channels are “0%”.

このように、本実施例によれば、入射角θRの方向からリスナに音が聞こえるように、音声信号S_C,S_L,S_R,S_SR,S_SLに対して各音線経路の音声信号を分配するため、生成された多チャンネルの音声信号は、受音点106の方向に適合した音声信号として生成される。従って、この多チャンネルの音声信号の音場をさらに回転させる必要がなくなり、シャープな音像定位を少ない計算量で実現することができるのである。   Thus, according to the present embodiment, the sound signal of each sound ray path is distributed to the sound signals S_C, S_L, S_R, S_SR, and S_SL so that the listener can hear sound from the direction of the incident angle θR. The generated multi-channel audio signal is generated as an audio signal suitable for the direction of the sound receiving point 106. Therefore, it is not necessary to further rotate the sound field of the multi-channel audio signal, and a sharp sound image localization can be realized with a small amount of calculation.

1.2.ユーザインタフェース
本実施例においては、上述したサラウンドシステムを構成する「5」チャンネルへの音声信号の分配は、デジタルミキサ上で実行されるが、音響空間102、発音点104および受音点106等の設定はパーソナルコンピュータの画面上で実行される。そこで、パーソナルコンピュータの設定画面におけるユーザインタフェースを説明する。
1.2. User Interface In this embodiment, the distribution of the audio signal to the “5” channel constituting the surround system described above is executed on the digital mixer, but the acoustic space 102, sound generation point 104, sound reception point 106, etc. The setting is executed on the screen of the personal computer. Therefore, the user interface on the setting screen of the personal computer will be described.

まず、設定画面の一例を図5に示す。図において206はセクション線であり、縦横に破線の正方形枠を連続的に配置して成る。なお、図示の例においては、1つの枠は音響空間102内の「1m×1m」に対応する。204は音響空間輪郭線であり、想定する直方体の音響空間の側壁面を表す。202はズームフェーダであり、表示画面のズーム量を設定する。ここで、ズーム量はセクション線206の横方向の枠数に対応しており、図示の例では「20」である。なお、音響空間輪郭線204を構成する各側壁面の位置や、ズームフェーダ202の操作位置は、これらをマウスでドラッグすることによって適宜移動させることができる。   First, an example of the setting screen is shown in FIG. In the figure, reference numeral 206 denotes a section line, which is formed by continuously arranging broken-line square frames vertically and horizontally. In the illustrated example, one frame corresponds to “1 m × 1 m” in the acoustic space 102. An acoustic space outline 204 represents a side wall surface of an assumed rectangular parallelepiped acoustic space. A zoom fader 202 sets the zoom amount of the display screen. Here, the zoom amount corresponds to the number of frames in the horizontal direction of the section line 206, and is “20” in the illustrated example. The position of each side wall surface constituting the acoustic space outline 204 and the operation position of the zoom fader 202 can be appropriately moved by dragging them with the mouse.

次に、音響空間輪郭線204の内側において210は発音点画像であり、発音点104の位置を表示する。210aは発音点方向画像であり、発音点104の正面方向を表示する。212は受音点画像であり、受音点106の位置を表示する。212aは受音点方向画像であり、受音点106の正面方向を表示する。214はスピーカ画像であり、受音点画像212を中心とする半径「2.5m」の円周上に、スピーカ52C,52L,52R,52SR,52SLの画像を配列して成るものであり、図2と同様に再生システムとして5.1サラウンドシステムのスピーカ配置を想定している。さらに、スピーカ画像214は、受音点方向画像212aの方向にセンタースピーカ52Cの画像が位置するように構成されている。このような受音点画像212と受音点方向画像212aに対するスピーカ画像214の配置は、受音点106の位置や方向が変更された後も常に維持される。   Next, 210 is a sounding point image inside the acoustic space outline 204 and displays the position of the sounding point 104. A sounding point direction image 210a displays the front direction of the sounding point 104. A sound receiving point image 212 displays the position of the sound receiving point 106. A sound receiving point direction image 212 a displays the front direction of the sound receiving point 106. Reference numeral 214 denotes a speaker image, which is formed by arranging the images of the speakers 52C, 52L, 52R, 52SR, and 52SL on a circle having a radius of “2.5 m” with the sound receiving point image 212 as the center. As in the case of 2, a 5.1 surround system speaker arrangement is assumed as a reproduction system. Furthermore, the speaker image 214 is configured such that the image of the center speaker 52C is positioned in the direction of the sound receiving point direction image 212a. The arrangement of the speaker image 214 with respect to the sound receiving point image 212 and the sound receiving point direction image 212a is always maintained even after the position and direction of the sound receiving point 106 are changed.

発音点画像210および受音点画像212の位置は、マウスでドラッグアンドドロップすることにより、ユーザは音響空間輪郭線204の内側で自由にその位置を変更することができる。そして、発音点画像210または受音点画像212を移動させると、発音点方向画像210aまたは受音点方向画像212aはこれらに連動して移動する。また、発音点方向画像210aおよび受音点方向画像212aの方向もマウスでドラッグアンドドロップすることにより、ユーザが自由に設定することができる。但し、方向画像210a,212aは、各々発音点画像210および受音点画像212を中心とし、所定半径の円周上のみを移動できるようになっており、方向画像210a,212aの示す方向は、各々発音点画像210および受音点画像212の何れかの放射方向のみである。   The positions of the sound generation point image 210 and the sound receiving point image 212 can be freely changed inside the acoustic space outline 204 by dragging and dropping with the mouse. When the sounding point image 210 or the sound receiving point image 212 is moved, the sounding point direction image 210a or the sound receiving point direction image 212a is moved in conjunction with these. Also, the direction of the sound generation point direction image 210a and the sound receiving point direction image 212a can be freely set by the user by dragging and dropping with the mouse. However, the direction images 210a and 212a can move only on the circumference of a predetermined radius centering on the sounding point image 210 and the sound receiving point image 212, respectively. The directions indicated by the direction images 210a and 212a are as follows: Each of the sound generation point image 210 and the sound receiving point image 212 is only in the radiation direction.

次に、この設定画面において受音点画像212を画面上でやや左側に移動し、受音点方向画像212aをやや右側に回転させた状態を図6に示す。スピーカ画像214は受音点画像212の位置と、受音点方向画像212aの向きと、ズームフェーダ202のズーム量とに基づいて自動的に決定されるため、図示のように受音点画像212に追従して移動し、受音点方向画像212aに追従して回転する。   Next, FIG. 6 shows a state in which the sound receiving point image 212 is moved slightly to the left on the setting screen and the sound receiving point direction image 212a is rotated slightly to the right. Since the speaker image 214 is automatically determined based on the position of the sound receiving point image 212, the direction of the sound receiving point direction image 212a, and the zoom amount of the zoom fader 202, the sound receiving point image 212 as shown in the figure. And follow the sound receiving point direction image 212a to rotate.

ここで、発音点画像210および発音点方向画像210aも、マウスをドラッグアンドドロップ操作することによって同様に位置および方向を変更できるが、発音点画像210に対してある「軌道」を予め設定し、その軌道上を自動的に移動させることが可能である。220は移動軌道線であり、この発音点画像210が移動する軌道を表示するものである。また、222,224,226は軌道点画像であり、移動軌道線220を特定するための点である。すなわち、移動軌道線220は、軌道点画像222,224,226を相互に結合する線(直線または曲線)によって決定され、これら軌道点画像222,224,226の位置もマウスのドラッグアンドドロップ操作によって任意に設定することができる。   Here, the pronunciation point image 210 and the pronunciation point direction image 210a can be similarly changed in position and direction by dragging and dropping the mouse. However, a certain “trajectory” is set in advance for the pronunciation point image 210, It is possible to automatically move on the orbit. Reference numeral 220 denotes a moving trajectory line, which displays a trajectory along which the pronunciation point image 210 moves. Reference numerals 222, 224, and 226 denote trajectory point images, which are points for specifying the moving trajectory line 220. That is, the moving trajectory line 220 is determined by a line (straight line or curve) connecting the trajectory point images 222, 224, and 226 to each other, and the positions of the trajectory point images 222, 224, and 226 are also determined by dragging and dropping the mouse. It can be set arbitrarily.

次に、図6の設定画面においてズームフェーダ202を操作してズーム量を「30」に変更した際の設定画面を図7に示す。この図においてセクション線206は、図6のものに比べて密集しており、設定画面上で表示される領域の面積が増大していることが解る。但し、この図7の設定画面において、音響空間輪郭線204の大きさと位置、発音点画像210、受音点画像212、軌道点画像222,224,226、および移動軌道線220の画面上の位置は、図6のものと比較して変更されていない。但し、スピーカ画像214はセクション線206における半径「2.5m」の円周上に描画されるため、図6のものと比較すると小さく表示される。   Next, FIG. 7 shows a setting screen when the zoom amount is changed to “30” by operating the zoom fader 202 on the setting screen of FIG. In this figure, the section lines 206 are denser than those in FIG. 6, and it can be seen that the area of the area displayed on the setting screen is increased. However, in the setting screen of FIG. 7, the size and position of the acoustic space outline 204, the sounding point image 210, the sound receiving point image 212, the trajectory point images 222, 224, 226, and the moving trajectory line 220 are displayed on the screen. Is not changed compared to that of FIG. However, since the speaker image 214 is drawn on the circumference of the section line 206 with the radius “2.5 m”, the speaker image 214 is displayed smaller than that of FIG.

また、図6または図7の画面においてズームフェーダ202を操作してズーム量を「10」に変更した際の設定画面を図8に示す。この図においてセクション線206は、図6のものに比べて間隔が広くなっており、設定画面上で表示される領域の面積が減少していることが解る。この設定画面においても、音響空間輪郭線204の大きさと位置、発音点画像210、受音点画像212、軌道点画像222,224,226、および移動軌道線220の画面上の位置は、図6のものと比較して変更されていない。但し、スピーカ画像214は図6のものと比較すると拡大されている。   Further, FIG. 8 shows a setting screen when the zoom amount is changed to “10” by operating the zoom fader 202 on the screen of FIG. 6 or FIG. In this figure, the section lines 206 are wider than those in FIG. 6, and it can be seen that the area of the area displayed on the setting screen is reduced. Also on this setting screen, the size and position of the acoustic space outline 204, the sounding point image 210, the sound receiving point image 212, the trajectory point images 222, 224, 226, and the moving trajectory line 220 are displayed on the screen in FIG. Not changed compared to the ones. However, the speaker image 214 is enlarged as compared with that in FIG.

換言すれば、本実施例におけるズームフェーダ202は、単に設定画面の表示状態(縮尺)を変更するものではなく、シミュレートすべき音響空間の内部に配置される各要素の相対的な位置関係を保持しつつ、音響空間全体の大きさを拡大または縮小するものである。そして、ズームフェーダ202の操作によってセクション線206とスピーカ画像214の表示状態が変更されるため、ユーザは、想定しているリスニングルームの大きさ(ほぼ5m×5m)と比較したときの音響空間の大きさや各要素の位置などを直感的に把握することができる   In other words, the zoom fader 202 in this embodiment does not simply change the display state (scale) of the setting screen, but the relative positional relationship of each element arranged in the acoustic space to be simulated. While holding, the size of the entire acoustic space is enlarged or reduced. Since the display state of the section line 206 and the speaker image 214 is changed by the operation of the zoom fader 202, the user can change the acoustic space when compared with the assumed listening room size (approximately 5 m × 5 m). Intuitively understand the size and position of each element

ここで、発音点画像210、発音点方向画像210a、受音点画像212、受音点方向画像212a、軌道点画像222,224,226は、ユーザがマウスを操作して任意に位置等を設定できる要素であるため、これらを「操作要素」と呼ぶことにする。ユーザは、何れかの操作要素をマウスでクリックすることにより、該操作要素を「選択状態」に設定することができる。通常の状態である操作要素をマウスでクリックすると、既に選択状態であった操作要素が全て非選択状態になり、新たにクリックされた一の操作要素のみが選択状態にされる。   Here, the sounding point image 210, the sounding point direction image 210a, the sound receiving point image 212, the sound receiving point direction image 212a, and the trajectory point images 222, 224, and 226 are arbitrarily set by the user by operating the mouse. Since these are possible elements, these will be referred to as “operation elements”. The user can set an operation element to a “selected state” by clicking any operation element with the mouse. When an operation element that is in a normal state is clicked with the mouse, all the operation elements that have already been selected become unselected, and only one operation element that is newly clicked is selected.

また、パーソナルコンピュータのキーボードのshiftキーを押下し続けている状態においては、複数の操作要素を選択状態に設定することができる。また、shiftキーを押下し続けている状態において、選択状態である一の操作要素をマウスでクリックすると、当該一の操作要素が非選択状態にされる。なお、かかる場合は他の操作要素の選択/非選択状態はそのまま保持される。但し、発音点方向画像210aおよび受音点方向画像212aはそれぞれ単独でのみ選択状態にすることができ、他の操作要素とともに選択状態にすることはできない。   Further, when the shift key of the keyboard of the personal computer is kept pressed, a plurality of operation elements can be set to the selected state. In addition, when one shift operation element is clicked with the mouse while the shift key is continuously pressed, the one operation element is deselected. In such a case, the selection / non-selection state of other operation elements is maintained as it is. However, the sounding point direction image 210a and the sound receiving point direction image 212a can be selected only by themselves, and cannot be selected together with other operation elements.

そこで、以降の図においては、選択状態に設定された操作要素を二重円によって表示する。図8に示す例においては、発音点画像210、軌道点画像224および軌道点画像226が選択状態に設定されている。複数の操作要素が選択状態であるとき、これら選択された操作要素のうち任意の操作要素に対してドラッグアンドドロップ操作を行うと、選択状態にされた全ての操作要素の相対的位置関係が保持されつつ、これら操作要素の画面上の位置が連動して変更される。   Therefore, in the following drawings, the operation elements set in the selected state are displayed by double circles. In the example shown in FIG. 8, the pronunciation point image 210, the trajectory point image 224, and the trajectory point image 226 are set to the selected state. When multiple operation elements are in the selected state, if you perform a drag-and-drop operation on any of the selected operation elements, the relative positional relationship of all the selected operation elements is maintained. However, the positions of these operation elements on the screen are changed in conjunction with each other.

次に、一または複数の操作要素が選択状態であるときに、キーボードにおいてctrlキーが押下されると、選択された各操作要素に対して、画面上に「直線型補助線」が表示される。図8に示した画面においてctrlキーが押下され、直線型補助線が表示された画面を図9に示す。直線型補助線は、ある「基点」と選択状態である各操作要素とを結ぶ直線である。そして、ここに「基点」とは、受音点画像212が非選択状態であるときは該受音点画像212であり、受音点画像212が選択状態である場合は音響空間輪郭線204の中心である。図9の例においては受音点画像212は非選択状態であるから受音点画像212が基点になり、受音点画像212と、操作要素210,224,226とを各々結ぶ直線として、直線型補助線232,234,236が描かれている。   Next, when one or more operation elements are selected, when the ctrl key is pressed on the keyboard, a “straight auxiliary line” is displayed on the screen for each selected operation element. . FIG. 9 shows a screen in which the ctrl key is pressed on the screen shown in FIG. 8 and a linear auxiliary line is displayed. The straight auxiliary line is a straight line connecting a certain “base point” and each operation element in a selected state. Here, the “base point” is the sound receiving point image 212 when the sound receiving point image 212 is in a non-selected state, and the sound space contour line 204 when the sound receiving point image 212 is in a selected state. Central. In the example of FIG. 9, since the sound receiving point image 212 is in a non-selected state, the sound receiving point image 212 becomes a base point, and straight lines are connected as straight lines connecting the sound receiving point image 212 and the operation elements 210, 224, and 226, respectively. Mold auxiliary lines 232, 234, 236 are drawn.

このように直線型補助線が描かれた場合は、選択状態である各操作要素は対応する直線型補助線上のみを移動できるようになる。すなわち、ある操作要素がマウスでドラッグアンドドロップされたとき、ドロップ位置の直近に位置する直線型補助線上の点の座標が求められ、操作要素はこの求められた点に移動されることになる。また、複数の操作要素が選択され直線型補助線が表示された場合には、選択された何れかの操作要素がドラッグアンドドロップ操作によって移動されると、基点と操作要素間の距離の伸縮率が求められ、選択された他の要素はその伸縮率を実現する距離だけ移動される。   When the linear auxiliary line is drawn in this way, each operation element in the selected state can move only on the corresponding linear auxiliary line. That is, when a certain operation element is dragged and dropped with the mouse, the coordinates of a point on the linear auxiliary line located closest to the drop position are obtained, and the operation element is moved to the obtained point. In addition, when multiple operation elements are selected and a linear auxiliary line is displayed, if any selected operation element is moved by a drag-and-drop operation, the expansion / contraction rate of the distance between the base point and the operation element The other selected elements are moved by a distance that realizes the expansion / contraction ratio.

例えば、図9のセクション線206の縮尺上では発音点画像210、軌道点画像224、および軌道点画像226の基点(受音点画像212)からの距離は、各々「7m」、「2.5m」および「5.5m」である。この状態において発音点画像210をドラッグアンドドロップすることによって、基点から「9m」の距離に移動させたとする。かかる場合の発音点画像210の距離の伸縮率は「9/7」であるから、軌道点画像224は基点から約「3.2m」、軌道点画像226は基点から約「6.4m」になるように、各々直線型補助線234,236上を移動することになる。なお、この場合のように、「3」個の軌道点画像222,224,226のうち一部のみを移動させると、移動軌道線220の形状はこれに追従して当然に変更されることになる。   For example, on the scale of the section line 206 in FIG. 9, the distances from the base point (sound receiving point image 212) of the pronunciation point image 210, the orbit point image 224, and the orbit point image 226 are “7 m” and “2.5 m, respectively. And “5.5 m”. It is assumed that the pronunciation point image 210 is moved to a distance of “9 m” from the base point by dragging and dropping in this state. In such a case, since the expansion / contraction ratio of the pronunciation point image 210 is “9/7”, the orbit point image 224 is about “3.2 m” from the base point, and the orbit point image 226 is about “6.4 m” from the base point. In this way, they move on the straight auxiliary lines 234 and 236, respectively. In this case, when only a part of the “3” trajectory point images 222, 224, and 226 is moved, the shape of the moving trajectory line 220 is naturally changed following this. Become.

次に、図9の状態に対して軌道点画像224の選択を解除し、受音点画像212を選択状態にした場合の表示内容を図10に示す。受音点画像212が選択状態になると、同図に示すように、音響空間輪郭線204の中心点240が基点になり、この基点と選択中の各操作要素212,210,226を各々結ぶ直線として直線型補助線242,244,246が描かれている。このように基点が変更され、これに伴って直線型補助線も変更されたことを除けば、各操作要素の操作方法等は図9の場合と同様である。   Next, FIG. 10 shows display contents when the selection of the trajectory point image 224 is canceled with respect to the state of FIG. 9 and the sound receiving point image 212 is selected. When the sound receiving point image 212 is selected, as shown in the figure, the center point 240 of the acoustic space outline 204 becomes the base point, and straight lines connecting the base point and the selected operation elements 212, 210, and 226, respectively. As shown, linear auxiliary lines 242, 244 and 246 are drawn. Except that the base point is changed in this way, and the linear auxiliary line is changed accordingly, the operation method of each operation element is the same as in FIG.

次に、一または複数の操作要素が選択状態であるときに、キーボードにおいてaltキーが押下されると、選択された各操作要素に対して、画面上に「円型補助線」が表示される。図8に示した画面においてaltキーが押下され、円型補助線が表示された画面を図11に示す。円型補助線は、ある「基点」を中心とし、選択状態である各操作要素を通過する円または円弧である。そして、ここに「基点」とは、直線型補助線の場合と同様に、受音点画像212が非選択状態であるときは該受音点画像212であり、受音点画像212が選択状態である場合は音響空間輪郭線204の中心である。図11の例においては受音点画像212は非選択状態であるから受音点画像212が基点になり、この基点を中心とし操作要素224,226,210を各々通過する円として、円型補助線252,254,256が描かれている。   Next, when one or more operation elements are in the selected state, when the alt key is pressed on the keyboard, a “circular auxiliary line” is displayed on the screen for each selected operation element. . FIG. 11 shows a screen on which the alt key is pressed and a circular auxiliary line is displayed on the screen shown in FIG. The circular auxiliary line is a circle or an arc that passes through each selected operation element with a certain “base point” as the center. The “base point” here is the sound receiving point image 212 when the sound receiving point image 212 is in the non-selected state, as in the case of the linear auxiliary line, and the sound receiving point image 212 is in the selected state. Is the center of the acoustic space outline 204. In the example of FIG. 11, since the sound receiving point image 212 is in a non-selected state, the sound receiving point image 212 becomes the base point, and the circular auxiliary is defined as a circle that passes through the operation elements 224, 226, and 210 centering on this base point. Lines 252, 254 and 256 are drawn.

このように円型補助線が描かれた場合は、選択状態である各操作要素は対応する円型補助線上のみを移動できるようになる。すなわち、ある操作要素がマウスでドラッグアンドドロップされたとき、ドロップ位置の直近に位置する円型補助線上の点の座標が求められ、操作要素はこの求められた点に移動されることになる。また、複数の操作要素が選択され円型補助線が表示された場合には、選択された何れかの操作要素がドラッグアンドドロップ操作によって移動されると、基点から見た回転角度が求められ、選択された他の要素は、各々対応する円型補助線上で同一の回転角度だけ回転するように移動される。   When the circular auxiliary line is drawn in this way, each operation element in the selected state can move only on the corresponding circular auxiliary line. That is, when a certain operation element is dragged and dropped with the mouse, the coordinates of a point on the circular auxiliary line positioned immediately near the drop position are obtained, and the operation element is moved to the obtained point. In addition, when a plurality of operation elements are selected and a circular auxiliary line is displayed, when any selected operation element is moved by a drag and drop operation, the rotation angle viewed from the base point is obtained, The other selected elements are moved so as to rotate by the same rotation angle on the corresponding circular auxiliary lines.

次に、図11の状態に対して軌道点画像224の選択を解除し、受音点画像212を選択状態にした場合の表示内容を図12に示す。受音点画像212が選択状態になると、同図に示すように、音響空間輪郭線204の中心点240が基点になり、この基点を中心とし、選択中の各操作要素226,210,212を各々通過する円として円型補助線262,264,266が描かれている。このように基点が変更され、これに伴って円型補助線も変更されたことを除けば、各操作要素の操作方法等は図11の場合と同様である。   Next, FIG. 12 shows display contents when the selection of the trajectory point image 224 is canceled with respect to the state of FIG. 11 and the sound receiving point image 212 is selected. When the sound receiving point image 212 is selected, as shown in the figure, the center point 240 of the acoustic space outline 204 becomes the base point, and the selected operation elements 226, 210, 212 are centered on this base point. Circular auxiliary lines 262, 264 and 266 are drawn as circles passing through each. Except that the base point is changed and the circular auxiliary line is changed accordingly, the operation method of each operation element is the same as in the case of FIG.

2.実施例のハードウエア構成
次に、本発明の一実施例の音声編集システムのハードウエア構成を図13を参照し説明する。なお、該音声編集システムは、音声信号または制御信号等を記録/再生するマルチトラックレコーダ51と、音声信号をミキシングするデジタルミキサ1と、該ミキシング状態を設定するパーソナルコンピュータ30と、編集された音声信号を再生するアンプ50およびスピーカシステム52とから構成されている。
2. Hardware Configuration of Embodiment Next, the hardware configuration of the voice editing system of one embodiment of the present invention will be described with reference to FIG. The audio editing system includes a multitrack recorder 51 that records / reproduces audio signals or control signals, a digital mixer 1 that mixes audio signals, a personal computer 30 that sets the mixing state, and edited audio. It comprises an amplifier 50 and a speaker system 52 for reproducing signals.

デジタルミキサ1の内部において4は電動フェーダ群であり、ユーザの操作に基づいて各入出力チャンネルの信号レベルを調節する。さらに、電動フェーダ群4は、バスライン12を介して操作コマンドが供給されると、その操作位置が自動設定されるように構成されている。2はスイッチ群であり、各種のスイッチおよびLEDキーから構成され、LEDキーに内蔵されたLEDの点滅状態はバスライン12を介して設定される。6は回転つまみ群であり、各入出力チャンネルの左右の音量バランス等を設定する。   In the digital mixer 1, reference numeral 4 denotes an electric fader group, which adjusts the signal level of each input / output channel based on a user operation. Furthermore, the electric fader group 4 is configured such that when an operation command is supplied via the bus line 12, the operation position is automatically set. Reference numeral 2 denotes a switch group, which includes various switches and LED keys, and the blinking state of the LED built in the LED key is set via the bus line 12. Reference numeral 6 denotes a rotary knob group for setting the left and right volume balance of each input / output channel.

8は波形I/O部であり、アナログ音声信号またはデジタル音声信号を入出力する。本実施例においては、例えば発音点104から放射される音声信号がマルチトラックレコーダ51の何れかのトラックに記録されていたとすると、この音声信号が波形I/O部8を介して入力されることになる。また、デジタルミキサ1において合成された5.1サラウンドシステムを構成する各音声信号は波形I/O部8を介してマルチトラックレコーダ51に供給され、ここで記録されることになる。さらに、5.1サラウンドシステムを構成する各音声信号は波形I/O部8においてアナログ信号に変換され、アンプ50およびスピーカシステム52を介して放音される。   A waveform I / O unit 8 inputs and outputs analog audio signals or digital audio signals. In the present embodiment, for example, if an audio signal radiated from the sound generation point 104 is recorded on any track of the multitrack recorder 51, this audio signal is input via the waveform I / O unit 8. become. The audio signals composing the 5.1 surround system synthesized in the digital mixer 1 are supplied to the multitrack recorder 51 via the waveform I / O unit 8 and recorded there. Further, each audio signal constituting the 5.1 surround system is converted into an analog signal in the waveform I / O unit 8 and emitted through the amplifier 50 and the speaker system 52.

次に、10は信号処理部であり、一群のDSP(デジタル・シグナル・プロセッサ)によって構成されている。信号処理部10は、波形I/O部8を介して供給されたデジタル音声信号に対してミキシング処理や効果処理を施し、その結果を波形I/O部8に出力する。14は大型表示器であり、ユーザに対して各種情報を表示する。15は入力装置であり、操作パネル上の各種操作子や、キーボードおよびマウス等から構成され、大型表示器14上のカーソル移動や該大型表示器14に表示されたボタンのオンオフ操作等を行う。16は制御I/O部であり、パーソナルコンピュータ30等との間で各種制御信号を入出力する。18はCPUであり、フラッシュメモリ20に記憶された制御プログラムに基づいて、バスライン12を介して各部を制御する。22はRAMであり、CPU18のワークメモリとして使用される。   Next, reference numeral 10 denotes a signal processing unit, which is constituted by a group of DSPs (digital signal processors). The signal processing unit 10 performs mixing processing and effect processing on the digital audio signal supplied via the waveform I / O unit 8 and outputs the result to the waveform I / O unit 8. A large display 14 displays various information to the user. Reference numeral 15 denotes an input device, which includes various operators on the operation panel, a keyboard, a mouse, and the like, and performs a cursor movement on the large display 14 and an on / off operation of buttons displayed on the large display 14. Reference numeral 16 denotes a control I / O unit which inputs / outputs various control signals to / from the personal computer 30 or the like. Reference numeral 18 denotes a CPU that controls each unit via the bus line 12 based on a control program stored in the flash memory 20. A RAM 22 is used as a work memory for the CPU 18.

次に、パーソナルコンピュータ30の内部において32はハードディスクであり、オペレーティングシステム、各種アプリケーションプログラム等が格納される。34はディスプレイであり、ユーザに対して各種情報を表示する。36は入力装置であり、文字入力用のキーボードおよびマウス等から構成されている。40は入出力インタフェースであり、デジタルミキサ1の制御I/O部16との間で各種制御信号を入出力する。42はCPUであり、バス38を介してパーソナルコンピュータ30内の他の構成要素を制御する。44はROMであり、イニシャルプログラムローダ等が記憶されている。46はRAMであり、CPU42のワークメモリとして用いられる。   Next, 32 in the personal computer 30 is a hard disk that stores an operating system, various application programs, and the like. Reference numeral 34 denotes a display that displays various types of information to the user. Reference numeral 36 denotes an input device, which includes a keyboard for inputting characters and a mouse. Reference numeral 40 denotes an input / output interface for inputting / outputting various control signals to / from the control I / O unit 16 of the digital mixer 1. A CPU 42 controls other components in the personal computer 30 via the bus 38. A ROM 44 stores an initial program loader and the like. A RAM 46 is used as a work memory for the CPU 42.

3.実施例の動作
3.1.デジタルミキサ1のアルゴリズム
上述したように、デジタルミキサ1においては、発音点104から放射される音声信号がマルチトラックレコーダ51から入力されると、この信号を入力音声信号Siとして、これに基づいて「5」チャンネルの音声信号S_C,S_L,S_R,S_SR,S_SLが信号処理部10において生成される。この信号処理部10において実行されるミキシングアルゴリズムの内容を図14を参照し説明する。
3. Operation of the embodiment
3.1. Algorithm of Digital Mixer 1 As described above, in the digital mixer 1, when an audio signal radiated from the sound generation point 104 is input from the multitrack recorder 51, this signal is set as an input audio signal Si based on this. The 5 ”channel audio signals S_C, S_L, S_R, S_SR, and S_SL are generated in the signal processing unit 10. The contents of the mixing algorithm executed in the signal processing unit 10 will be described with reference to FIG.

図14において60は遅延部であり、入力音声信号Siをサンプリング周期を単位として遅延させる。遅延された入力音声信号Siは、所定の最大遅延時間を限度として、サンプリング周期を単位とする任意の位置(タップ位置)から出力される。62はPAN制御部であり、図14(b)に示すように「5」個の乗算器74−1〜74−5から構成されている。これら乗算器は、遅延部60の指定されたタップ位置の信号に対して、指定された「5」種類の減衰率を各々乗算し、その結果である「5」チャンネルの信号を出力する。   In FIG. 14, 60 is a delay unit that delays the input audio signal Si in units of sampling periods. The delayed input audio signal Si is output from an arbitrary position (tap position) with a sampling period as a unit up to a predetermined maximum delay time. A PAN control unit 62 includes “5” multipliers 74-1 to 74-5 as shown in FIG. These multipliers multiply the signals at the designated tap positions of the delay unit 60 by designated “5” types of attenuation factors, respectively, and output the resulting “5” channel signals.

より具体的には、PAN制御部62に対するタップ位置は、直接音の遅延時間TD0(図2における直接音の音線経路110の長さに対する音声の伝搬時間)に相当する位置である。また、先に図2について説明したように、直接音は、音線経路長の二乗に反比例する減衰係数Zlenと、放射角θGに基づく減衰係数ZGと、入射角θRに基づく減衰係数ZRとによる減衰を受けることになる。従って、乗算器74−1〜74−5に設定される減衰率は、「Zlen・ZG・ZR」に対して、入射角θRに基づく分配率(図4参照)を乗算した結果に等しくなる。   More specifically, the tap position for the PAN control unit 62 is a position corresponding to the direct sound delay time TD0 (speech propagation time with respect to the length of the sound ray path 110 of the direct sound in FIG. 2). Further, as described above with reference to FIG. 2, the direct sound is caused by the attenuation coefficient Zlen that is inversely proportional to the square of the ray path length, the attenuation coefficient ZG based on the radiation angle θG, and the attenuation coefficient ZR based on the incident angle θR. It will be attenuated. Accordingly, the attenuation rate set in the multipliers 74-1 to 74-5 is equal to the result obtained by multiplying “Zlen · ZG · ZR” by the distribution rate (see FIG. 4) based on the incident angle θR.

ここで、信号処理部10における信号処理は実際にはDSPによって実行される。本実施例によれば、入射角θRに基づく分配率が「0%」を超えるチャンネル数は最大でも「2」チャンネルであるから、これら「2」チャンネルに対してのみ演算を行えばよい。結局、信号処理部10においては、PAN制御部62に関しては、乗算を「2」回だけ行えばよいことになる。   Here, the signal processing in the signal processing unit 10 is actually executed by the DSP. According to the present embodiment, the number of channels whose distribution rate based on the incident angle θR exceeds “0%” is “2” channels at the maximum, and therefore, only the “2” channels need be calculated. After all, in the signal processing unit 10, the PAN control unit 62 needs to perform multiplication only “2” times.

次に、64はマトリクスミキサであり、PAN制御部62と同様の回路を一次反射音の音線経路数nすなわち「6」系統設け、各系統毎の音声信号をミキシングするように構成されている。より具体的には、図14(c)に示すように、各系統毎に「5」個の乗算器70−1−k〜70−5−k(kは0〜5)と、これら乗算器の乗算結果を各チャンネル毎にミキシングする加算器72−1−k〜72−5−k(kは1〜5)とによってマトリクスミキサ64が構成されている。   Next, 64 is a matrix mixer, and a circuit similar to the PAN control unit 62 is provided with the number of sound ray paths n of primary reflected sound, that is, “6” systems, and is configured to mix audio signals for each system. . More specifically, as shown in FIG. 14 (c), “5” multipliers 70-1-k to 70-5-k (k is 0 to 5) for each system, and these multipliers. The matrix mixer 64 is composed of adders 72-1-k to 72-5-k (k is 1 to 5) that mix the multiplication results of each channel.

マトリクスミキサ64に供給される各系統の音声信号は、各々一次反射音の遅延時間に各々対応する遅延部60のタップ位置から出力された音声信号である。ここで、一次反射音は直接音と同様に、減衰係数Zlen,ZG,ZRによる減衰を受けることになる。さらに、一次反射音については、音響空間102の反射面におけるフィルタリングを受けるが、かかる処理は後段のフィルタ部69において実行される。従って、従って、乗算器70−1−k〜70−5−kに設定される減衰率は、直接音の場合と同様に、「Zlen・ZG・ZR」に対して、入射角θRに基づく分配率を乗算した値である。そして、直接音の場合と同様に、信号処理部10においては、各音線経路毎に乗算を「2」回づつ実行すればよいことになる。   The audio signal of each system supplied to the matrix mixer 64 is an audio signal output from the tap position of the delay unit 60 corresponding to the delay time of the primary reflected sound. Here, the primary reflected sound is attenuated by the attenuation coefficients Zlen, ZG, ZR in the same manner as the direct sound. Further, the primary reflected sound is subjected to filtering on the reflection surface of the acoustic space 102, but such processing is executed in the subsequent filter unit 69. Accordingly, the attenuation rate set in the multipliers 70-1-k to 70-5-k is distributed based on the incident angle θR with respect to “Zlen · ZG · ZR” as in the case of the direct sound. The value multiplied by the rate. As in the case of the direct sound, the signal processing unit 10 only needs to execute multiplication “2” times for each sound ray path.

次に、66は二次反射音用のマトリクスミキサであり、上記一次反射音用のマトリクスミキサ64と同様に構成されている。但し、二次反射音の音線経路数nは「18」であるから、マトリクスミキサ66における乗算器および加算器の数も音線経路数nに応じた数だけ設けられることになる。マトリクスミキサ66に供給される各系統の音声信号は、各々二次反射音の遅延時間に各々対応する遅延部60のタップ位置から出力された音声信号である。そして、一次反射音の場合と同様に、マトリクスミキサ66においては、各乗算器に設定される減衰率は「Zlen・ZG・ZR」に対して、入射角θRに基づく分配率を乗算した値である。   Next, reference numeral 66 denotes a matrix mixer for secondary reflected sound, which is configured in the same manner as the matrix mixer 64 for primary reflected sound. However, since the number of sound ray paths n of the secondary reflected sound is “18”, the number of multipliers and adders in the matrix mixer 66 is also set in accordance with the number of sound ray paths n. The audio signal of each system supplied to the matrix mixer 66 is an audio signal output from the tap position of the delay unit 60 corresponding to the delay time of the secondary reflected sound. Similarly to the case of the primary reflected sound, in the matrix mixer 66, the attenuation rate set in each multiplier is a value obtained by multiplying “Zlen · ZG · ZR” by the distribution rate based on the incident angle θR. is there.

次に、68はフィルタ部であり、マトリクスミキサ66から出力された「5」チャンネルの音声信号に対して音響空間102の反射面におけるフィルタリング処理を施す。65は加算器群であり、フィルタ部68の各出力信号と、マトリクスミキサ64の対応するチャンネルの出力信号とを加算する。69はフィルタ部68と同一の特性を有するフィルタ部であり、加算器群65の各出力信号に対してフィルタリング処理を施す。63は加算器群であり、フィルタ部69の各出力信号と、PAN制御部62の対応するチャンネルの出力信号とを加算し、その結果を音声信号S_C,S_L,S_R,S_SR,S_SLとして出力する。これらの音声信号S_C,S_L,S_R,S_SR,S_SLは、上述したように、波形I/O部8を介してマルチトラックレコーダ51に記録されることになる。   Next, reference numeral 68 denotes a filter unit, which applies a filtering process on the reflection surface of the acoustic space 102 to the “5” channel audio signal output from the matrix mixer 66. Reference numeral 65 denotes an adder group that adds each output signal of the filter unit 68 and the output signal of the corresponding channel of the matrix mixer 64. Reference numeral 69 denotes a filter unit having the same characteristics as the filter unit 68, and performs a filtering process on each output signal of the adder group 65. Reference numeral 63 denotes an adder group, which adds each output signal of the filter unit 69 and the output signal of the corresponding channel of the PAN control unit 62, and outputs the result as audio signals S_C, S_L, S_R, S_SR, S_SL. . These audio signals S_C, S_L, S_R, S_SR, and S_SL are recorded on the multitrack recorder 51 via the waveform I / O unit 8 as described above.

3.2.パーソナルコンピュータ30の処理
3.2.1.操作要素のクリックイベント(図15)
次に、パーソナルコンピュータ30における動作について説明する。パーソナルコンピュータ30の入力装置36において所定の操作が行われると、図5〜図12に示したような設定画面がディスプレイ34に表示される。該設定画面において何れかの操作要素がマウスでクリックされると、図15に示すマウス・クリックルーチンが起動される。
3.2. Processing of personal computer 30
3.2.1. Operation element click event (Figure 15)
Next, the operation in the personal computer 30 will be described. When a predetermined operation is performed on the input device 36 of the personal computer 30, a setting screen as shown in FIGS. 5 to 12 is displayed on the display 34. When any operation element is clicked with the mouse on the setting screen, a mouse click routine shown in FIG. 15 is started.

図15において処理がステップSP22に進むと、クリックされた操作要素が何れかの方向画像210a,212aであるか否かが判定される。ここで「YES」と判定されると、処理はステップSP28に進み、クリックされていない全ての操作要素の選択が解除される。次に、処理がステップSP29に進むと、クリックされた操作要素の選択/非選択状態が反転される。従って、方向画像210a,212aは各々単独でのみ選択状態にすることができ、何れかの方向画像210a,212aをクリックしてゆくと、クリックされる毎に選択/非選択状態が反転されることになる。   When the process proceeds to step SP22 in FIG. 15, it is determined whether or not the clicked operation element is any one of the direction images 210a and 212a. If "YES" is determined here, the process proceeds to step SP28, and selection of all operation elements that have not been clicked is cancelled. Next, when the process proceeds to step SP29, the selected / unselected state of the clicked operation element is reversed. Therefore, each of the direction images 210a and 212a can be selected only by itself, and when one of the direction images 210a and 212a is clicked, the selected / non-selected state is inverted each time the button is clicked. become.

また、方向画像210a,212a以外の操作要素がクリックされた場合には、処理はステップSP24に進み、入力装置36のキーボードにおいてshiftキーが押下されているか否かが判定される。ここで「NO」と判定されると、処理はステップSP28に進み、上述した方向画像210a,212aの場合と同様の処理が実行される。すなわち、shiftキーが押下されていない場合には各操作要素は単独でのみ選択することができ、クリックされていない操作要素は全て非選択状態に設定され、クリックされた操作要素はクリックされる毎に選択/非選択状態が反転されることになる。   If an operation element other than the direction images 210a and 212a is clicked, the process proceeds to step SP24 to determine whether or not the shift key is pressed on the keyboard of the input device 36. If "NO" is determined here, the process proceeds to step SP28, and the same process as in the case of the direction images 210a and 212a described above is executed. That is, when the shift key is not pressed, each operation element can be selected alone, all the operation elements that are not clicked are set to a non-selected state, and each clicked operation element is clicked. The selected / unselected state is inverted.

一方、shiftキーが押下されており、方向画像210a,212a以外の操作要素がクリックされた場合には、ステップSP24において「YES」と判定され処理はステップSP26に進む。ここでは、方向画像210a,212aのうち何れかが選択状態であれば、その選択状態が解除される。次に、処理がステップSP29に進むと、クリックされた操作要素の選択/非選択状態が反転される。すなわち、当該操作要素がこれまで選択状態であった場合は非選択状態に設定され、非選択状態であった場合は選択状態に設定される。この場合は方向画像を除けば、クリックされていない操作要素の状態は変更されないため、shiftキーを押下したまま非選択状態の操作要素を「1」回づつクリックしてゆくと、これらの操作要素が全て選択状態に設定されることになる。   On the other hand, if the shift key is pressed and an operation element other than the direction images 210a and 212a is clicked, “YES” is determined in step SP24, and the process proceeds to step SP26. Here, if any of the direction images 210a and 212a is in a selected state, the selected state is canceled. Next, when the process proceeds to step SP29, the selected / unselected state of the clicked operation element is reversed. That is, when the operation element has been selected so far, it is set to a non-selected state, and when it is not selected, it is set to a selected state. In this case, since the state of the operation element that has not been clicked is not changed except for the direction image, if the operation element that is not selected is clicked “1” times while the shift key is pressed, these operation elements Are all set to the selected state.

3.2.2.ズーム操作イベント
次に、ズームフェーダ202がマウスでドラッグアンドドロップされると、図16に示すズーム操作イベントルーチンが起動される。図において処理がステップSP2に進むと、変更後のズーム量(ズームフェーダ202がドロップされた位置)に応じて、設定画面上における受音点画像212からスピーカ画像214を構成する各スピーカまでの距離(ディスプレイ34上のドット数)が算出される。すなわち、スピーカ画像は音響空間102内では受音点106を中心とする半径「2.5m」の円周上にあると想定されているため、変更後のズーム量に応じた縮尺でスピーカ画像214を構成する各スピーカの位置が計算される。次に、処理がステップSP4に進むと、変更後のズーム量に応じて、スピーカ画像214を構成する各スピーカの大きさが計算される。これにより、ユーザがズームフェーダ202を操作してズームインすると、スピーカ画像214の半径および表示される各スピーカの大きさが大きくなり、ズームアウトすると、スピーカ画像214の半径および表示される各スピーカの大きさが小さくなる。
3.2.2. Zoom operation event Next, when the zoom fader 202 is dragged and dropped with the mouse, a zoom operation event routine shown in FIG. 16 is started. When the processing proceeds to step SP2 in the figure, the distance from the sound receiving point image 212 to each speaker constituting the speaker image 214 on the setting screen according to the changed zoom amount (position where the zoom fader 202 is dropped). (The number of dots on the display 34) is calculated. That is, since the speaker image is assumed to be on the circumference of the radius “2.5 m” with the sound receiving point 106 as the center in the acoustic space 102, the speaker image 214 is reduced in scale according to the changed zoom amount. Is calculated. Next, when the process proceeds to step SP4, the size of each speaker constituting the speaker image 214 is calculated according to the changed zoom amount. Accordingly, when the user operates the zoom fader 202 to zoom in, the radius of the speaker image 214 and the size of each displayed speaker increase, and when zoomed out, the radius of the speaker image 214 and the size of each displayed speaker appear. Becomes smaller.

次に、処理がステップSP6に進むと、変更後のズーム量に応じてセクション線206が再表示されるとともに、算出された距離および大きさでスピーカ画像214が表示される。次に、処理がステップSP8に進むと、ズーム量を変更結果を反映して、模擬する音響空間102(図2参照)内の大きさと、発音点104および受音点106の位置が変更される。すなわち、画面上に表示される各操作要素の画面上の位置に変化が生じないように、ズーム量に応じて、音響空間102の大きさや、発音点104および受音点106の位置が再計算される。   Next, when the process proceeds to step SP6, the section line 206 is displayed again according to the changed zoom amount, and the speaker image 214 is displayed at the calculated distance and size. Next, when the processing proceeds to step SP8, the size of the acoustic space 102 (see FIG. 2) to be simulated and the positions of the sound generation point 104 and the sound receiving point 106 are changed to reflect the zoom amount change result. . That is, the size of the acoustic space 102 and the positions of the sound generation point 104 and the sound receiving point 106 are recalculated according to the zoom amount so that the position on the screen of each operation element displayed on the screen does not change. Is done.

これにより、先に図6〜図8において説明したように、ズーム量を変更すると音響空間102内における各要素間の位置は変動するが、設定画面上の位置は変更されないのである。次に、処理がステップSP10に進むと、図21(a)に示す音場計算サブルーチンが呼び出される。その内容については後述するが、音響空間102内の状態に基づいて、遅延部60におけるタップ位置と、PAN制御部62およびマトリクスミキサ64,66内の各乗算器の減衰率とが設定される。   Thus, as described above with reference to FIGS. 6 to 8, when the zoom amount is changed, the position between the elements in the acoustic space 102 varies, but the position on the setting screen is not changed. Next, when the process proceeds to step SP10, a sound field calculation subroutine shown in FIG. Although details will be described later, based on the state in the acoustic space 102, the tap position in the delay unit 60 and the attenuation rate of each multiplier in the PAN control unit 62 and the matrix mixers 64 and 66 are set.

3.2.3.ctrlキーイベント処理
次に、入力装置36のキーボードにおいてctrlキーのオンイベントが発生すると、図17(a)に示すctrlキー・オンイベントルーチンが起動される。図において処理がステップSP32に進むと、設定画面において選択状態の操作要素が存在するか否かが判定される。ここで「NO」と判定されると、本ルーチンは直ちに終了する。一方、「YES」と判定されると処理はステップSP34に進み、選択状態の操作要素の中に受音点画像212が含まれているか否かが判定される。ここで「YES」と判定されると、処理はステップSP36に進み、図10において説明したように、音響空間輪郭線204の中心点240が基点に設定される。一方、ステップSP36において「NO」と判定されると、図9において説明したように、受音点画像212が基点に設定される。次に、処理がステップSP40に進むと、選択状態である各操作要素と基点とを結ぶ直線型補助線が設定画面上に表示される。
3.2.3. ctrl Key Event Processing Next, when a ctrl key on event occurs on the keyboard of the input device 36, a ctrl key on event routine shown in FIG. 17A is started. In the figure, when the process proceeds to step SP32, it is determined whether or not there is an operation element selected in the setting screen. If “NO” is determined here, the routine is immediately terminated. On the other hand, if "YES" is determined, the process proceeds to step SP34 to determine whether or not the sound receiving point image 212 is included in the selected operation element. If "YES" is determined here, the process proceeds to step SP36, and the center point 240 of the acoustic space outline 204 is set as a base point as described in FIG. On the other hand, if “NO” is determined in step SP36, the sound receiving point image 212 is set as the base point as described in FIG. Next, when the process proceeds to step SP40, a linear auxiliary line connecting each operation element in the selected state and the base point is displayed on the setting screen.

また、ctrlキーのオフイベントが発生すると、図17(b)に示すctrlキー・オフイベントルーチンが起動される。図において処理がステップSP45に進むと、設定画面上の全ての直線型補助線が消去され、本ルーチンの処理が終了する。   When the ctrl key off event occurs, the ctrl key off event routine shown in FIG. 17B is started. In the figure, when the process proceeds to step SP45, all the linear auxiliary lines on the setting screen are deleted, and the process of this routine ends.

3.2.4.altキーイベント処理
また、キーボードにおいてaltキーのオンイベントが発生すると、図18(a)に示すaltキー・オンイベントルーチンが起動される。図において処理がステップSP52に進むと、設定画面において選択状態の操作要素が存在するか否かが判定される。ここで「NO」と判定されると、本ルーチンは直ちに終了する。一方、「YES」と判定されると処理はステップSP54に進み、選択状態の操作要素の中に受音点画像212が含まれているか否かが判定される。ここで「YES」と判定されると、処理はステップSP56に進み、図12において説明したように、音響空間輪郭線204の中心点240が基点に設定される。一方、ステップSP56において「NO」と判定されると、図11において説明したように、受音点画像212が基点に設定される。次に、処理がステップSP60に進むと、この基点を中心とし、選択状態である各操作要素を通過する円または円弧である円型補助線が設定画面上に表示される。
3.2.4. alt Key Event Processing When an alt key on event occurs on the keyboard, an alt key on event routine shown in FIG. In the figure, when the process proceeds to step SP52, it is determined whether or not there is an operation element selected in the setting screen. If “NO” is determined here, the routine is immediately terminated. On the other hand, if "YES" is determined, the process proceeds to step SP54 to determine whether or not the sound receiving point image 212 is included in the selected operation element. If “YES” is determined here, the process proceeds to step SP56, and as described in FIG. 12, the center point 240 of the acoustic space outline 204 is set as a base point. On the other hand, if “NO” is determined in step SP56, the sound receiving point image 212 is set as the base point as described in FIG. Next, when the process proceeds to step SP60, a circular auxiliary line that is a circle or an arc passing through each operation element in the selected state with this base point as the center is displayed on the setting screen.

また、altキーのオフイベントが発生すると、図18(b)に示すaltキー・オフイベントルーチンが起動される。図において処理がステップSP65に進むと、設定画面上の全ての円型補助線が消去され、本ルーチンの処理が終了する。   When an alt key off event occurs, an alt key off event routine shown in FIG. 18B is started. In the figure, when the process proceeds to step SP65, all the circular auxiliary lines on the setting screen are deleted, and the process of this routine ends.

3.2.5.要素移動処理
(1)直線型補助線が表示されている場合
また、選択状態である何れかの操作要素がマウスでドラッグアンドドロップされると、図19に示す要素移動イベントルーチンが起動される。図19において処理がステップSP72に進むと、ドラッグアンドドロップ操作された操作要素が処理対象として選択される。次に、処理がステップSP74に進むと、直線型補助線が表示されているか否かが判定される。ここで「YES」と判定されると処理はステップSP76に進み、ドラッグアンドドロップ操作された操作要素の操作前後の座標から、直線型補助線上の移動距離が計算される。次に、処理がステップSP78に進むと、処理対象の操作要素が当該移動距離だけ直線型補助線を移動するように、設定画面上の表示内容が変更される。
3.2.5. Element move processing
(1) When a linear auxiliary line is displayed When any operation element in the selected state is dragged and dropped with the mouse, an element movement event routine shown in FIG. 19 is started. In FIG. 19, when the process proceeds to step SP72, an operation element that has been dragged and dropped is selected as a processing target. Next, when the process proceeds to step SP74, it is determined whether or not a linear auxiliary line is displayed. If "YES" is determined here, the process proceeds to step SP76, and the movement distance on the linear auxiliary line is calculated from the coordinates before and after the operation of the operation element dragged and dropped. Next, when the process proceeds to step SP78, the display content on the setting screen is changed so that the operation element to be processed moves the linear auxiliary line by the movement distance.

次に、処理がステップSP80に進むと、変更された設定画面の状態に基づいて、該操作要素の音響空間102内における位置および方向が算出される。次に、処理がステップSP82に進むと、選択状態である操作要素のうち未だ音響空間102における移動処理(ステップSP80)が完了していないものが残っているか否かが判定される。ここで「YES」と判定されると、処理はステップSP84に進み、残っている要素のうち一の操作要素が処理対象として選択され、ステップSP74〜SP80の処理が繰り返される。そして、選択状態である全ての操作要素に対してかかる処理が完了すると、ステップSP82において「NO」と判定され、処理はステップSP86に進む。ここでは、後述する音場計算サブルーチン(図21(a))が呼び出され、遅延部60におけるタップ位置と、PAN制御部62およびマトリクスミキサ64,66内の各乗算器の減衰率とが設定される。   Next, when the process proceeds to step SP80, the position and direction of the operation element in the acoustic space 102 are calculated based on the changed state of the setting screen. Next, when the process proceeds to step SP82, it is determined whether or not there remains an operation element that has not yet been moved in the acoustic space 102 (step SP80) among the selected operation elements. If “YES” is determined here, the process proceeds to step SP84, and one operation element among the remaining elements is selected as a processing target, and the processes of steps SP74 to SP80 are repeated. When such processing is completed for all operation elements in the selected state, “NO” is determined in step SP82, and the processing proceeds to step SP86. Here, a sound field calculation subroutine (FIG. 21A) to be described later is called, and the tap position in the delay unit 60 and the attenuation rate of each multiplier in the PAN control unit 62 and the matrix mixers 64 and 66 are set. The

(2)円型補助線が表示されている場合
また、設定画面に円型補助線が表示されていた場合には、上記ステップSP76,SP78に代えてステップSP88,SP90が実行される。まず、ステップSP88においては、ドラッグアンドドロップ操作された操作要素の操作前後の座標から、円型補助線上の回転角度が計算される。次に、処理がステップSP90に進むと、処理対象の操作要素が当該回転角度だけ対応する円型補助線上を移動するように、設定画面上の表示内容が変更される。上記以外の処理は直線型補助線が表示されていた場合と同様である。
(2) When a circular auxiliary line is displayed When a circular auxiliary line is displayed on the setting screen, steps SP88 and SP90 are executed instead of steps SP76 and SP78. First, in step SP88, the rotation angle on the circular auxiliary line is calculated from the coordinates before and after the operation of the operation element that has been dragged and dropped. Next, when the process proceeds to step SP90, the display content on the setting screen is changed so that the operation element to be processed moves on the circular auxiliary line corresponding to the rotation angle. Processes other than those described above are the same as when the straight auxiliary line is displayed.

(3)補助線が表示されていない場合
また、設定画面に何れの補助線も表示されていなかった場合には、上記ステップSP76,SP78に代えてステップSP92,SP94が実行される。まず、ステップSP92においては、ドラッグアンドドロップ操作された操作要素の操作前後の座標から、画面の縦および横方向に対する移動距離が計算される。次に、処理がステップSP94に進むと、処理対象の操作要素が画面の縦および横方向に沿って、計算された移動距離だけ移動するように、設定画面上の表示内容が変更される。上記以外の処理は直線型補助線が表示されていた場合と同様である。なお、上記ステップSP78,SP90またはSP94において受音点画像212の位置が変更され、あるいは受音点方向画像212aの方向が変更された場合には、スピーカ画像214の位置または方向がこれに応じて変更される。
(3) When no auxiliary line is displayed If no auxiliary line is displayed on the setting screen, steps SP92 and SP94 are executed instead of steps SP76 and SP78. First, in step SP92, the movement distance in the vertical and horizontal directions of the screen is calculated from the coordinates before and after the operation of the operation element that has been dragged and dropped. Next, when the process proceeds to step SP94, the display content on the setting screen is changed so that the operation element to be processed moves by the calculated movement distance along the vertical and horizontal directions of the screen. Processes other than those described above are the same as when the straight auxiliary line is displayed. When the position of the sound receiving point image 212 is changed or the direction of the sound receiving point direction image 212a is changed in step SP78, SP90 or SP94, the position or direction of the speaker image 214 is changed accordingly. Be changed.

3.2.6.自動駆動処理
また、入力装置36のキーボードにおいてユーザが所定の操作を行うと、図20に示す自動駆動ルーチンが起動される。図において処理がステップSP102に進むと、移動軌道線220のスタート位置すなわち軌道点画像222の位置に、発音点画像210が自動的に移動される。次に、処理がステップSP104に進むと、キーボードにおいて所定の停止操作が行われたか否かが判定される。ここで「YES」と判定されると、本ルーチンの処理は直ちに終了する。
3.2.6. Automatic Driving Process When the user performs a predetermined operation on the keyboard of the input device 36, an automatic driving routine shown in FIG. 20 is started. In the figure, when the process proceeds to step SP102, the pronunciation point image 210 is automatically moved to the start position of the moving trajectory line 220, that is, the position of the trajectory point image 222. Next, when the process proceeds to step SP104, it is determined whether or not a predetermined stop operation has been performed on the keyboard. If “YES” is determined here, the processing of this routine is immediately terminated.

一方、ステップSP104において「NO」と判定されると、処理はステップSP106に進み、発音点画像210の音響空間102内における位置および方向が算出される。次に、処理がステップSP107に進むと、後述する音場計算サブルーチン(図21(a))が呼び出され、遅延部60におけるタップ位置と、PAN制御部62およびマトリクスミキサ64,66内の各乗算器の減衰率とが設定される。次に、処理がステップSP108に進むと、発音点画像210が移動軌道線220上を所定距離だけ移動するように、該発音点画像210の位置が変更される。なお、移動軌道線220上における発音点画像210の移動方向は、軌道点画像222,224,226,222,……の順で発音点画像210が繰り返し通過する方向に設定される。以後、上記停止操作が行われるまで、ステップSP106〜SP108の処理が繰り返される。   On the other hand, if “NO” is determined in step SP104, the process proceeds to step SP106, and the position and direction of the pronunciation point image 210 in the acoustic space 102 are calculated. Next, when the processing proceeds to step SP107, a sound field calculation subroutine (FIG. 21A) described later is called, and the tap position in the delay unit 60 and each multiplication in the PAN control unit 62 and the matrix mixers 64 and 66 are called. Is set. Next, when the process proceeds to step SP108, the position of the sounding point image 210 is changed so that the sounding point image 210 moves on the moving trajectory line 220 by a predetermined distance. The moving direction of the sounding point image 210 on the moving trajectory line 220 is set to a direction in which the sounding point image 210 repeatedly passes in the order of the orbital point images 222, 224, 226, 222,. Thereafter, the processes of steps SP106 to SP108 are repeated until the stop operation is performed.

3.2.7.音場計算処理
次に、上述したステップSP10、SP86およびSP107において呼び出される音場計算サブルーチンの処理について説明する。まず、発音点画像210または受音点画像212が移動された場合、あるいはズーム量が変更された場合には、図21(a)のルーチンが呼び出される。図21(a)において処理がステップSP112に進むと、音響空間102内における発音点104の座標から、「6」個の一次鏡像および「18」個の二次鏡像の位置が算出される。次に、処理がステップSP114に進むと、「1」本の直接音、「6」本の一次反射音、「18」本の二次反射音の各音線経路について、長さと、放射角θGと、入射角θRとが求められる。
3.2.7. Next, the sound field calculation subroutine called in steps SP10, SP86 and SP107 will be described. First, when the pronunciation point image 210 or the sound receiving point image 212 is moved or when the zoom amount is changed, the routine of FIG. 21A is called. When the processing proceeds to step SP112 in FIG. 21A, the positions of “6” primary mirror images and “18” secondary mirror images are calculated from the coordinates of the sound generation point 104 in the acoustic space 102. Next, when the process proceeds to step SP114, the length and the radiation angle θG for each sound ray path of “1” direct sound, “6” primary reflected sound, and “18” secondary reflected sound. And the incident angle θR.

次に、処理がステップSP116に進むと、各音線経路の長さに基づいて各音線経路を介して受音点106に音が到達するまでの遅延時間が計算され、PAN制御部62、マトリクスミキサ64,66の各々の入力信号のタップ位置が、該遅延時間に応じた位置に設定される。次に、処理がステップSP118に進むと、音線経路長の二乗に反比例する減衰係数Zlenと、放射角θGに基づく減衰係数ZGと、入射角θRに基づく減衰係数ZRとによって、各音線経路の減衰率(Zlen・ZG・ZR)が求められる。そして、この減衰率に対して入射角θRに基づく分配率(図4参照)を乗算した結果が、PAN制御部62およびマトリクスミキサ64,66内の各乗算器に減衰率として設定される。   Next, when the process proceeds to step SP116, a delay time until the sound reaches the sound receiving point 106 via each sound ray path is calculated based on the length of each sound ray path, and the PAN control unit 62, The tap position of each input signal of the matrix mixers 64 and 66 is set to a position corresponding to the delay time. Next, when the process proceeds to step SP118, each sound ray path is determined by the attenuation coefficient Zlen inversely proportional to the square of the sound ray path length, the attenuation coefficient ZG based on the radiation angle θG, and the attenuation coefficient ZR based on the incident angle θR. Is obtained. (Zlen · ZG · ZR) The result obtained by multiplying this attenuation factor by the distribution factor (see FIG. 4) based on the incident angle θR is set as the attenuation factor in each multiplier in the PAN control unit 62 and the matrix mixers 64 and 66.

また、発音点104の方向のみが変化した場合には、図21(b)のルーチンが呼び出される。発音点104の方向に変化があると、各音線経路における放射角θGが変更されるため、これに基づく減衰係数ZGも変更されることになる。これにより、変更された減衰係数ZGに基づいて各音線経路の減衰率(Zlen・ZG・ZR)が再計算され、再計算された減衰率に対して入射角θRに基づく分配率(図4)を乗算した結果が、PAN制御部62およびマトリクスミキサ64,66内の各乗算器に減衰率として設定されることになる。   If only the direction of the sounding point 104 changes, the routine of FIG. 21 (b) is called. If there is a change in the direction of the sounding point 104, the radiation angle θG in each sound ray path is changed, so that the attenuation coefficient ZG based on this is also changed. As a result, the attenuation rate (Zlen, ZG, ZR) of each ray path is recalculated based on the changed attenuation coefficient ZG, and the distribution rate based on the incident angle θR with respect to the recalculated attenuation rate (FIG. 4). ) Is set as an attenuation factor in each multiplier in the PAN control unit 62 and the matrix mixers 64 and 66.

また、受音点106の方向のみが変化した場合には、図21(c)のルーチンが呼び出される。受音点106の方向に変化があると、各音線経路における入射角θRが変更されるため、これに基づく減衰係数ZRも変更されることになる。これにより、変更された減衰係数ZRに基づいて各音線経路の減衰率(Zlen・ZG・ZR)が再計算される。さらに、入射角θRに変化があると分配率(図4)にも変化が生じるため、新たに計算された各音線経路の減衰率(Zlen・ZG・ZR)と、新たに計算された分配率とに基づいて、PAN制御部62およびマトリクスミキサ64,66内の各乗算器に設定される減衰率が決定される。但し、図21(b)または(c)においては、各音線経路の長さ自体には変更が無いため、遅延部60のタップ位置を再計算する必要はない。   Further, when only the direction of the sound receiving point 106 changes, the routine of FIG. 21 (c) is called. If the direction of the sound receiving point 106 is changed, the incident angle θR in each sound ray path is changed, so that the attenuation coefficient ZR based on this is also changed. As a result, the attenuation rate (Zlen · ZG · ZR) of each sound ray path is recalculated based on the changed attenuation coefficient ZR. Furthermore, if the incident angle θR changes, the distribution rate (FIG. 4) also changes. Therefore, the newly calculated attenuation factor (Zlen, ZG, ZR) of each ray path and the newly calculated distribution Based on the rate, the attenuation rate set for each multiplier in the PAN control unit 62 and the matrix mixers 64 and 66 is determined. However, in FIG. 21 (b) or (c), there is no change in the length of each sound ray path, so there is no need to recalculate the tap position of the delay unit 60.

4.変形例
本発明は上述した実施例に限定されるものではなく、例えば以下のように種々の変形が可能である。
(1)上記実施例においては、パーソナルコンピュータ30および信号処理部10上で動作するプログラムによって各種データ処理を実行したが、このプログラムのみをCD−ROM、フレキシブルディスク等の記録媒体に格納して頒布し、あるいは伝送路を通じて頒布することもできる。
Four. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made as follows, for example.
(1) In the above embodiment, various data processing is executed by a program operating on the personal computer 30 and the signal processing unit 10, but only this program is stored in a recording medium such as a CD-ROM or a flexible disk and distributed. Alternatively, it can be distributed through a transmission line.

(2)上記実施例においては、遅延部60のタップ位置およびPAN制御部62、マトリクスミキサ64,66における各乗算器の減衰率をパーソナルコンピュータ30において決定し、実際の信号処理はデジタルミキサ1内の信号処理部10において実行したが、パーソナルコンピュータ30において実行した処理をデジタルミキサ1内のCPU18によって実行してもよいことは言うまでもない。 (2) In the above embodiment, the tap position of the delay unit 60 and the attenuation rate of each multiplier in the PAN control unit 62 and the matrix mixers 64 and 66 are determined by the personal computer 30, and the actual signal processing is performed in the digital mixer 1. However, it goes without saying that the processing executed in the personal computer 30 may be executed by the CPU 18 in the digital mixer 1.

(3)上記実施例においては、パーソナルコンピュータ30において求められたパラメータ(遅延部60のタップ位置およびPAN制御部62、マトリクスミキサ64,66における各乗算器の減衰率等)を、信号処理部10に対して直接的に適用したが、例えば求めたパラメータをマルチトラックレコーダ51の何れかのトラックに記憶しておき、後に該トラックの内容を読み出すことによって音声信号S_C,S_L,S_R,S_SR,S_SLを合成するようにしてもよい。 (3) In the above embodiment, the parameters obtained by the personal computer 30 (such as the tap position of the delay unit 60 and the attenuation rate of each multiplier in the PAN control unit 62 and the matrix mixers 64 and 66) are used as the signal processing unit 10. For example, the obtained parameters are stored in one of the tracks of the multitrack recorder 51, and the contents of the track are read out later to obtain the audio signals S_C, S_L, S_R, S_SR, S_SL. May be synthesized.

従来の音声編集システムの動作説明図である。It is operation | movement explanatory drawing of the conventional audio editing system. 本発明の一実施例の音声編集システムの原理を示す動作説明図である。It is operation | movement explanatory drawing which shows the principle of the audio editing system of one Example of this invention. 発音点104および受音点106の指向性特性の一例を示す図である。It is a figure which shows an example of the directivity characteristic of the sounding point 104 and the sound receiving point. 一実施例における音声信号の分配特性図である。It is a distribution characteristic figure of an audio signal in one example. ディスプレイ34に表示される設定画面の一例を示す図である。6 is a diagram illustrating an example of a setting screen displayed on a display 34. FIG. 設定画面の他の例を示す図である。It is a figure which shows the other example of a setting screen. 設定画面の他の例を示す図である。It is a figure which shows the other example of a setting screen. 設定画面の他の例を示す図である。It is a figure which shows the other example of a setting screen. 設定画面の他の例を示す図である。It is a figure which shows the other example of a setting screen. 設定画面の他の例を示す図である。It is a figure which shows the other example of a setting screen. 設定画面の他の例を示す図である。It is a figure which shows the other example of a setting screen. 設定画面の他の例を示す図である。It is a figure which shows the other example of a setting screen. 一実施例の音声編集システムのハードウエアブロック図である。It is a hardware block diagram of the audio editing system of one Example. 信号処理部10によって実行される処理のアルゴリズムのブロック図である。3 is a block diagram of an algorithm of processing executed by a signal processing unit 10. FIG. マウス・クリックルーチンのフローチャートである。It is a flowchart of a mouse click routine. ズーム操作イベントルーチンのフローチャートである。It is a flowchart of a zoom operation event routine. ctrlキー・イベントルーチンのフローチャートである。It is a flowchart of a ctrl key event routine. altキー・イベントルーチンのフローチャートである。It is a flowchart of an alt key event routine. 要素移動イベントルーチンのフローチャートである。It is a flowchart of an element movement event routine. 自動駆動ルーチンのフローチャートである。It is a flowchart of an automatic drive routine. 各種音場計算サブルーチンのフローチャートである。It is a flowchart of various sound field calculation subroutines.

符号の説明Explanation of symbols

1:デジタルミキサ、2:スイッチ群、4:電動フェーダ群、6:回転つまみ群、8:波形I/O部、10:信号処理部、12:バスライン、14:大型表示器、15:入力装置、16:制御I/O部、18:CPU、20:フラッシュメモリ、22:RAM、30:パーソナルコンピュータ、32:ハードディスク、34:ディスプレイ、36:入力装置、38:バス、40:入出力インタフェース、42:CPU、44:ROM、46:RAM、50:アンプ、51:マルチトラックレコーダ、52:スピーカシステム、52C〜52SL:スピーカ、54C〜54SL:分配特性、60:遅延部、62:PAN制御部、63,65:加算器群、64,66:マトリクスミキサ、68,69:フィルタ部、70−1−k〜70−5−k:乗算器、72−1−k〜72−5−k:加算器、74−1〜74−5:乗算器、102:音響空間、104:発音点、106:受音点、104b,106b:指向性特性、110:音線経路、112−1:音線経路、114−1:音線経路、116−1,118−1:鏡像、202:ズームフェーダ、204:音響空間輪郭線、206:セクション線、210:発音点画像、210a:発音点方向画像、212:受音点画像、212a:受音点方向画像、214:スピーカ画像、220:移動軌道線、240:中心点、222,224,226:軌道点画像、232〜246:直線型補助線、252〜266:円型補助線。   1: Digital mixer, 2: Switch group, 4: Electric fader group, 6: Rotary knob group, 8: Waveform I / O unit, 10: Signal processing unit, 12: Bus line, 14: Large display, 15: Input Device: 16: Control I / O unit, 18: CPU, 20: Flash memory, 22: RAM, 30: Personal computer, 32: Hard disk, 34: Display, 36: Input device, 38: Bus, 40: I / O interface 42: CPU, 44: ROM, 46: RAM, 50: amplifier, 51: multitrack recorder, 52: speaker system, 52C to 52SL: speaker, 54C to 54SL: distribution characteristics, 60: delay unit, 62: PAN control Part, 63, 65: adder group, 64, 66: matrix mixer, 68, 69: filter part, 70-1-k to 70-5-k: Calculator, 72-1-k to 72-5-k: adder, 74-1 to 74-5: multiplier, 102: acoustic space, 104: sounding point, 106: sound receiving point, 104b, 106b: directivity 110: sound ray path, 112-1: sound ray path, 114-1: sound ray path, 116-1, 118-1: mirror image, 202: zoom fader, 204: acoustic space contour line, 206: section 210: Sound generation point image, 210a: Sound reception point image, 212: Sound reception point image, 212a: Sound reception point direction image, 214: Speaker image, 220: Moving trajectory line, 240: Center point, 222, 224 226: Orbit point image, 232 to 246: linear auxiliary line, 252 to 266: circular auxiliary line.

Claims (6)

音を発する発音点と当該発音点から発せられた音を受ける受音点とが配置された音響空間の音響特性をシミュレートするデータ処理方法において、
前記音響空間内における前記受音点の向きを設定する受音点方向設定過程と、
前記発音点から前記受音点に向かう音の経路である複数の音線経路を算出する音線経路算出過程と、
前記受音点の向きを基準として、前記各音線経路が前記受音点に入射する入射角を算出する入射角算出過程と、
前記入射角に基づいて、少なくとも3チャンネル以上の多チャンネル音声信号に対応して、前記各音線経路に係る音声信号の分配率を決定する分配率決定過程と、
該決定された分配率に応じて、前記各音線経路に係る音声信号を前記多チャンネル音声信号の各々のチャンネルに対して分配する分配過程と
を有することを特徴とするデータ処理方法。
In a data processing method for simulating the acoustic characteristics of an acoustic space where sounding points that emit sound and sound receiving points that receive sound emitted from the sounding points are arranged,
A sound receiving point direction setting process for setting the direction of the sound receiving point in the acoustic space;
A sound ray path calculation process for calculating a plurality of sound ray paths that are sound paths from the sounding point toward the sound receiving point;
An incident angle calculating process for calculating an incident angle at which each sound ray path is incident on the sound receiving point with reference to the direction of the sound receiving point;
A distribution ratio determining step of determining a distribution ratio of the audio signal related to each sound ray path in accordance with the multi-channel audio signal of at least three channels based on the incident angle;
A data processing method comprising: distributing a sound signal related to each sound ray path to each channel of the multi-channel sound signal in accordance with the determined distribution rate.
前記多チャンネル音声信号は、少なくとも第1乃至第3の音声信号を含むものであり、前記分配率は、前記入射角が第1の範囲にあるときは、前記第1および第2の音声信号に対する分配率の合計が100%になるように前記音線経路に係る音声信号を分配し、前記入射角が前記第1の範囲に隣接する第2の範囲にあるときは、前記第2および第3の音声信号に対する分配率の合計が100%になるように前記音線経路に係る音声信号を分配するとともに、前記入射角が前記第1および第2の範囲の境界値に近づくほど前記第2の音声信号に対する分配率が高くなるように設定されていることを特徴とする請求項1記載のデータ処理方法。   The multi-channel audio signal includes at least first to third audio signals, and the distribution ratio is relative to the first and second audio signals when the incident angle is in the first range. When the sound signal related to the sound ray path is distributed so that the total distribution ratio becomes 100%, and the incident angle is in a second range adjacent to the first range, the second and third The sound signal related to the sound ray path is distributed so that the total of the distribution ratio for the sound signal of 100% becomes 100%, and the second angle becomes closer to the boundary value of the first and second ranges. 2. The data processing method according to claim 1, wherein a distribution ratio for the audio signal is set to be high. 前記各音線経路の距離に基づいて、前記各音線経路に係る音声信号に対して遅延を施す遅延過程と、
前記各音線経路の距離が長くなるほど前記各音線経路に係る音声信号が減衰するように、前記各音線経路に係る音声信号に対して減衰処理を施す減衰過程と
をさらに有することを特徴とする請求項1記載のデータ処理方法。
A delay process for delaying the sound signal associated with each sound ray path based on the distance of each sound ray path;
An attenuation process for performing an attenuation process on the sound signal related to each sound ray path so that the sound signal related to each sound ray path attenuates as the distance of each sound ray path becomes longer The data processing method according to claim 1.
前記音響空間を表す音響空間画像と、前記発音点を表す発音点画像と、前記受音点を表す受音点画像と、正面方向を基準として所定の配置関係で配置される複数のスピーカを表すスピーカ画像とをディスプレイ上に表示する表示過程
をさらに有し、前記スピーカ画像は、前記受音点画像の周囲に、前記受音点の向きを前記正面方向として表示されることを特徴とする請求項1記載のデータ処理方法。
An acoustic space image representing the acoustic space, a sounding point image representing the sounding point, a sound receiving point image representing the sound receiving point, and a plurality of speakers arranged in a predetermined arrangement relationship with respect to the front direction. A display step of displaying a speaker image on a display, wherein the speaker image is displayed around the sound receiving point image with the direction of the sound receiving point as the front direction. Item 2. A data processing method according to Item 1.
請求項1ないし4の何れかに記載のデータ処理方法を実行することを特徴とするデータ処理装置。   A data processing apparatus that executes the data processing method according to claim 1. 請求項1ないし4の何れかに記載のデータ処理方法を処理装置に実行させることを特徴とするプログラム。   A program for causing a processing device to execute the data processing method according to claim 1.
JP2005108309A 2005-04-05 2005-04-05 Data processing method, data processing apparatus, and program Expired - Fee Related JP4721097B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005108309A JP4721097B2 (en) 2005-04-05 2005-04-05 Data processing method, data processing apparatus, and program
US11/397,998 US7859533B2 (en) 2005-04-05 2006-04-04 Data processing apparatus and parameter generating apparatus applied to surround system
US12/951,993 US8331575B2 (en) 2005-04-05 2010-11-22 Data processing apparatus and parameter generating apparatus applied to surround system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005108309A JP4721097B2 (en) 2005-04-05 2005-04-05 Data processing method, data processing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2006287833A true JP2006287833A (en) 2006-10-19
JP4721097B2 JP4721097B2 (en) 2011-07-13

Family

ID=37409220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005108309A Expired - Fee Related JP4721097B2 (en) 2005-04-05 2005-04-05 Data processing method, data processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP4721097B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054698A (en) * 2010-08-31 2012-03-15 Square Enix Co Ltd Video game processing device and video game processing program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06269100A (en) * 1993-03-16 1994-09-22 Matsushita Electric Ind Co Ltd Sound image localizing device
JP2000224700A (en) * 1999-02-02 2000-08-11 Matsushita Electric Ind Co Ltd Sound field control system
JP2003061200A (en) * 2001-08-17 2003-02-28 Sony Corp Sound processing apparatus and sound processing method, and control program
JP2003316371A (en) * 2002-04-26 2003-11-07 Yamaha Corp Device, method, and program for giving echo, device, method, and program for generating impulse response, and recording medium
JP2004193877A (en) * 2002-12-10 2004-07-08 Sony Corp Sound image localization signal processing apparatus and sound image localization signal processing method
JP2004312109A (en) * 2003-04-02 2004-11-04 Yamaha Corp Reverberation providing apparatus and reverberation providing program
JP2004312355A (en) * 2003-04-07 2004-11-04 Yamaha Corp Sound field controller

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06269100A (en) * 1993-03-16 1994-09-22 Matsushita Electric Ind Co Ltd Sound image localizing device
JP2000224700A (en) * 1999-02-02 2000-08-11 Matsushita Electric Ind Co Ltd Sound field control system
JP2003061200A (en) * 2001-08-17 2003-02-28 Sony Corp Sound processing apparatus and sound processing method, and control program
JP2003316371A (en) * 2002-04-26 2003-11-07 Yamaha Corp Device, method, and program for giving echo, device, method, and program for generating impulse response, and recording medium
JP2004193877A (en) * 2002-12-10 2004-07-08 Sony Corp Sound image localization signal processing apparatus and sound image localization signal processing method
JP2004312109A (en) * 2003-04-02 2004-11-04 Yamaha Corp Reverberation providing apparatus and reverberation providing program
JP2004312355A (en) * 2003-04-07 2004-11-04 Yamaha Corp Sound field controller

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054698A (en) * 2010-08-31 2012-03-15 Square Enix Co Ltd Video game processing device and video game processing program

Also Published As

Publication number Publication date
JP4721097B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
US7859533B2 (en) Data processing apparatus and parameter generating apparatus applied to surround system
US9197977B2 (en) Audio spatialization and environment simulation
JP4913140B2 (en) Apparatus and method for controlling multiple speakers using a graphical user interface
JP4674505B2 (en) Audio signal processing method, sound field reproduction system
JP4501559B2 (en) Directivity control method of speaker device and audio reproducing device
TW201246060A (en) Audio spatialization and environment simulation
JP2004312355A (en) Sound field controller
US7424117B2 (en) System and method for generating sound transitions in a surround environment
JP4883197B2 (en) Audio signal processing method, sound field reproduction system
KR100955328B1 (en) Apparatus and method for surround soundfield reproductioin for reproducing reflection
US7751574B2 (en) Reverberation apparatus controllable by positional information of sound source
JP4721097B2 (en) Data processing method, data processing apparatus, and program
JP4457308B2 (en) Parameter generation method, parameter generation apparatus and program
JP4457307B2 (en) Parameter generation method, parameter generation apparatus and program
JP4426159B2 (en) Mixing equipment
Woszczyk et al. Space Builder: An Impulse Response-Based Tool for Immersive 22.2 Channel Ambiance Design
JP2007081710A (en) Signal processing apparatus
US11665498B2 (en) Object-based audio spatializer
US11924623B2 (en) Object-based audio spatializer
US20230007421A1 (en) Live data distribution method, live data distribution system, and live data distribution apparatus
US20230005464A1 (en) Live data distribution method, live data distribution system, and live data distribution apparatus
Barbour Applying aural research: the aesthetics of 5.1 surround
JP3671756B2 (en) Sound field playback device
CN115206332A (en) Sound effect processing method and device, electronic equipment and storage medium
JPH07321574A (en) Method for displaying and adjusting sound volume and volume ratio

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110311

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110324

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees