JP3380088B2 - Sound image localization simulation device - Google Patents

Sound image localization simulation device

Info

Publication number
JP3380088B2
JP3380088B2 JP13949095A JP13949095A JP3380088B2 JP 3380088 B2 JP3380088 B2 JP 3380088B2 JP 13949095 A JP13949095 A JP 13949095A JP 13949095 A JP13949095 A JP 13949095A JP 3380088 B2 JP3380088 B2 JP 3380088B2
Authority
JP
Japan
Prior art keywords
sound
localization
probability
calculating
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13949095A
Other languages
Japanese (ja)
Other versions
JPH08336200A (en
Inventor
敏樹 羽入
一博 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP13949095A priority Critical patent/JP3380088B2/en
Publication of JPH08336200A publication Critical patent/JPH08336200A/en
Application granted granted Critical
Publication of JP3380088B2 publication Critical patent/JP3380088B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音楽ホール、劇場等に
おける音像定位システムの性能を設計段階で予測するた
めの音像定位シミュレーション装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound image localization simulation apparatus for predicting the performance of a sound image localization system in a music hall, a theater, etc. at the design stage.

【0002】[0002]

【従来の技術】図10は従来の音像定位システムの設計段
階における性能確認に関する音像定位効果予測方法を示
す概略ブロック図であり、101は一つの定位パターンに
おけるディレイト値やアッテネイト値等の定位パラメー
タ、102は音像定位システムの各スピーカの出力や指向
特性等のデータであるスピーカデータ、103は室内の形
や壁面の材料等のデータである室形データ、104はエコ
ータイムパターン算出手段、105は、定位パラメータ10
1,スピーカデータ102および室形データ103を基に、エ
コータイムパターン算出手段104によって算出される、
定位パラメータ101を考慮したエコータイムパターン、1
06は先行音スピーカ判定手段を示し、エコータイムパタ
ーン105を基に先行音スピーカ判定手段106によって、定
位スピーカ方向に定位させるための必要条件である定位
スピーカからの音が先行音となっているかどうかの判定
を行う。
2. Description of the Related Art FIG. 10 is a schematic block diagram showing a method of predicting a sound image localization effect relating to performance confirmation in the design stage of a conventional sound image localization system, 101 is a localization parameter such as a delay value or an attenuation value in one localization pattern, 102 is speaker data which is data such as output and directivity of each speaker of the sound image localization system, 103 is room shape data which is data such as room shape and wall material, 104 is echo time pattern calculation means, and 105 is Localization parameter 10
1, calculated by the echo time pattern calculation means 104 based on the speaker data 102 and the room shape data 103,
Echo time pattern considering localization parameter 101, 1
Reference numeral 06 denotes a preceding sound speaker determination means, and whether or not the sound from the localization speaker, which is a necessary condition for the localization by the preceding sound speaker determination means 106 based on the echo time pattern 105, is the preceding sound. Is determined.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、確実に
定位スピーカに定位させる場合、先行音に対する後続音
の時間遅れおよびレベル差の情報が不可欠であり、図10
に示す方法のような、定位スピーカ方向に定位させるた
めの必要条件である定位スピーカからの音が先行音とな
っているか否かの判定だけでは、定位スピーカ方向に定
位するか否かの判定には不十分であり、確実に定位する
か否かは分からず、さらにどの程度の確率で定位するの
かといった定位の効果を定量化することができない。
However, in order to reliably localize the sound to the localization speaker, information on the time delay and the level difference of the succeeding sound with respect to the preceding sound is indispensable.
As in the method shown in (1), it is necessary to determine whether or not the sound from the localization speaker is the preceding sound, which is a necessary condition for localization in the localization speaker direction. Is insufficient, and it is not known whether or not the localization will be reliably performed, and it is not possible to quantify the localization effect such as the probability of localization.

【0004】また、従来例では1つ1つの受音点におい
て定位スピーカからの音が先行音となっているかどうか
の判定を行うだけで、客席エリア内全体の定位効果を分
布状に把握できないという問題点を有していた。
Further, in the conventional example, it is impossible to grasp the localization effect in the entire passenger seat area in a distributed manner only by determining whether or not the sound from the localization speaker is the preceding sound at each sound receiving point. I had a problem.

【0005】本発明は上記従来の問題点を解決するもの
であり、定位スピーカに定位するかどうかの十分な判定
精度を有し、かつどの程度の確率で定位するのかといっ
た定位の効果を定量化し、客席エリア内の定位効果を分
布状に表示することができる優れた音像定位シミュレー
ション装置を提供するものである。
The present invention solves the above-mentioned conventional problems, and has sufficient determination accuracy as to whether or not localization is performed by a localization speaker, and quantifies the localization effect such as the probability of localization. Provided is an excellent sound image localization simulation device capable of displaying the localization effect in the audience area in a distributed manner.

【0006】[0006]

【課題を解決するための手段】本発明は上記目的を達成
するために、音場の客席エリア内に分布状に受音点を設
定する受音点分布生成手段と、定位パラメータ,スピー
カデータおよび室形データからその各受音点における、
前記定位パラメータが考慮されたエコータイムパターン
を算出するエコータイムパターン算出手段と、先行音を
検出するとともに前記先行音が定位スピーカからの音か
否かを判定する先行音検出手段と、後続音を検出する後
続音検出手段と、前記先行音と後続音間のレベル差を算
出するレベル差算出手段と、前記先行音と後続音間の時
間差を算出する時間差算出手段と、時間差とレベル差の
情報に予め音響心理実験により求めた音像分離チャート
を適用して、定位スピーカ方向に音像が分離しないで定
位する確率を算出する定位確率算出手段と、音場の客席
エリア内で分布状に算出された定位確率の値を用いて定
位確率の分布を表示する定位確率分布表示手段とを有
し、カラーエリアマップ表示、または等定位確率曲線を
コンター表示することを特徴とするものである。
In order to achieve the above object, the present invention has a sound receiving point distribution generating means for setting sound receiving points in a distributed manner in a seat area of a sound field, a localization parameter, speaker data, and From the room shape data at each sound receiving point,
An echo time pattern calculation means for calculating an echo time pattern in which the localization parameter is considered, a preceding sound detection means for detecting a preceding sound and determining whether the preceding sound is a sound from a localization speaker, and a following sound. Subsequent sound detecting means for detecting, level difference calculating means for calculating a level difference between the preceding sound and the following sound, time difference calculating means for calculating a time difference between the preceding sound and the following sound, and time difference and level difference information By applying the sound image separation chart previously obtained by the psychoacoustic experiment to, the localization probability calculation means for calculating the probability that the sound image is localized without being separated in the localization speaker direction, and the distribution probability was calculated in the audience area of the sound field. It has a localization probability distribution display means for displaying the distribution of localization probability using the value of localization probability, and can display a color area map or contour localization probability curves in contours. The one in which the features.

【0007】[0007]

【作用】したがって、本発明によれば、音場の客席エリ
ア内に分布状に受音点を設定する受音点分布生成手段
と、定位パラメータ,スピーカデータおよび室形データ
を基に、各受音点における、前記定位パラメータが考慮
されたエコータイムパターンを算出するエコータイムパ
ターン算出手段と、先行音を検出するとともに先行音が
定位スピーカからの音か否かを判定する先行音検出手段
と、後続音を検出する後続音検出手段と、先行音と後続
音間のレベル差を算出するレベル差算出手段と、先行音
と後続音間の時間差を算出する時間差算出手段と、時間
差とのレベル差の情報に予め音響心理実験により求めた
音像分離チャートを適用して定位スピーカ方向に音像が
分離しないで定位する確率を算出する定位確率算出手段
と、音場の客席エリア内で分布状に算出された定位確率
の値を用いて定位確率の分布を表示する定位確率分布表
示手段とを有し、カラーエリアマップ表示、または等定
位確率曲線をコンター表示することによって客席内にお
ける定位の効果が予測できるものである。
Therefore, according to the present invention, the sound receiving point distribution generating means for setting the sound receiving points in a distributed manner in the audience seat area of the sound field, and the respective sound receiving points based on the localization parameters, the speaker data and the room shape data. At a sound point, an echo time pattern calculation means for calculating an echo time pattern in which the localization parameter is considered, a preceding sound detection means for detecting a preceding sound and determining whether or not the preceding sound is a sound from a localization speaker, Subsequent sound detection means for detecting a subsequent sound, level difference calculation means for calculating a level difference between the preceding sound and the subsequent sound, time difference calculation means for calculating a time difference between the preceding sound and the subsequent sound, and a level difference between the time differences. Localization probability calculation means for calculating the probability of localization without separating the sound image in the localization speaker direction by applying the sound image separation chart previously obtained by the psychoacoustic experiment to the information of And a localization probability distribution display means for displaying the distribution of localization probabilities by using the localization probability values calculated in a distributed manner within the audience by displaying a color area map or contour-displaying contour localization probability curves. The effect of localization is predictable.

【0008】[0008]

【実施例】以下、本発明の実施例について、図面を参照
しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0009】図1は本発明の第1実施例を示す概略ブロ
ック図である。図1において、1は定位効果算出手段、
2は受音点分布生成手段、3は受音点分布生成手段2よ
り出力される客席エリア内分布状受音点データ、4は音
像分離チャート、5は定位パラメータ、6はスピーカデ
ータ、7は室形データ、8はエコータイムパターン算出
手段、9はエコータイムパターン算出手段8の出力であ
る各受音点でのエコータイムパターン、10は先行音検出
手段、11は後続音検出手段、12はレベル差算出手段、13
は時間差算出手段、14は定位確率算出手段、15は定位確
率算出手段14の出力である各受音点での定位確率、16は
各受音点での定位確率15の値を用いて定位確率の分布を
表示する定位確率分布表示手段を示す。
FIG. 1 is a schematic block diagram showing a first embodiment of the present invention. In FIG. 1, 1 is a localization effect calculation means,
2 is a sound receiving point distribution generating means, 3 is a sound receiving point data distributed in the audience area output from the sound receiving point distribution generating means 2, 4 is a sound image separation chart, 5 is a localization parameter, 6 is speaker data, and 7 is Room shape data, 8 is an echo time pattern calculating means, 9 is an echo time pattern at each sound receiving point which is an output of the echo time pattern calculating means 8, 10 is a preceding sound detecting means, 11 is a succeeding sound detecting means, and 12 is Level difference calculation means, 13
Is a time difference calculation means, 14 is a localization probability calculation means, 15 is a localization probability at each sound receiving point which is the output of the localization probability calculation means 14, 16 is a localization probability using the value of the localization probability 15 at each sound receiving point The localization probability distribution display means for displaying the distribution of is shown.

【0010】定位効果算出手段1は、先行音を検出する
とともに先行音が定位スピーカからの音か否かを判定す
る先行音検出手段10と、後続音を検出する後続音検出手
段11と、先行音と後続音間のレベル差を算出するレベル
差算出手段12と、先行音と後続音間の時間差を算出する
時間差算出手段13と、時間差とレベル差の情報に予め音
響心理実験により求めた音像分離チャートを適用して定
位スピーカ方向に音像が分離しないで定位する確率を算
出する定位確率算出手段14とから構成されており、エコ
ータイムパターン算出手段8からエコータイムパターン
9および音像分離チャート4のデータを入力して、定位
確率15を出力するものである。
The localization effect calculation means 1 detects a preceding sound and determines whether the preceding sound is a sound from a localization speaker, a preceding sound detecting means 10, a succeeding sound detecting means 11 for detecting a succeeding sound, and a preceding sound detecting means 11. Level difference calculating means 12 for calculating the level difference between the sound and the subsequent sound, time difference calculating means 13 for calculating the time difference between the preceding sound and the subsequent sound, and a sound image previously obtained by psychoacoustic experiments on the information of the time difference and the level difference. And a localization probability calculating means 14 for calculating a probability that a sound image is localized without being separated in a localization speaker direction by applying a separation chart. The echo time pattern calculation means 8 to the echo time pattern 9 and the sound image separation chart 4 are included. It inputs data and outputs localization probability 15.

【0011】ところで、図13は音像分離チャートの一例
を示すものである。音像分離チャートとは音響心理実験
により求められたチャートであり、図13において、横軸
は先行音と後続音間の時間差を表し、縦軸は先行音と後
続音間の音圧レベル差を表しており、チャート中の斜線
は、楽音ソースがスピーチの場合における、先行音と後
続音間の時間差と音圧レベル差と音像の分離するパーセ
ンテージの関係を表している。そして、先行音と後続音
間の時間差と音圧レベル差の情報にこのチャートを適用
することによって、音像の分離するパーセンテージを求
めることができ、100%から音像の分散するパーセンテ
ージを減じることによって音像定位確率を求めることが
できる。
Incidentally, FIG. 13 shows an example of a sound image separation chart. The sound image separation chart is a chart obtained by psychoacoustic experiments, and in FIG. 13, the horizontal axis represents the time difference between the preceding sound and the subsequent sound, and the vertical axis represents the sound pressure level difference between the preceding sound and the subsequent sound. The diagonal lines in the chart represent the relationship between the time difference between the preceding sound and the following sound, the sound pressure level difference, and the percentage of separation of the sound image when the musical sound source is speech. Then, by applying this chart to the information of the time difference and the sound pressure level difference between the preceding sound and the subsequent sound, the separation percentage of the sound image can be obtained, and the sound image separation percentage can be subtracted from 100%. The localization probability can be calculated.

【0012】そして、この定位効果算出手段1の出力を
基に、定位確率分布表示手段16によって客席内の定位効
果分布図が表示される。
Then, based on the output of the localization effect calculation means 1, the localization probability distribution display means 16 displays the localization effect distribution map in the audience.

【0013】次に、その動作について図1を使用して説
明する。
Next, the operation will be described with reference to FIG.

【0014】まず、受音点分布生成手段2により音場の
客席エリア内分布状受音点データ3を生成し、定位パラ
メータ5,スピーカデータ6および室形データ7からエ
コータイムパターン算出手段8によりそれら各受音点に
おける、定位パラメータ5が考慮されたエコータイムパ
ターン9を算出する。
First, the sound receiving point distribution generating means 2 generates the distributed sound receiving point data 3 in the audience area of the sound field, and the echo time pattern calculating means 8 uses the localization parameter 5, the speaker data 6 and the room shape data 7. An echo time pattern 9 in which the localization parameter 5 is considered at each of the sound receiving points is calculated.

【0015】次に、先行音検出手段10により先行音を検
出するとともに先行音が定位スピーカからの音か否かを
判定し、後続音検出手段11により後続音を検出した後、
レベル差算出手段12により先行音と後続音間のレベル差
を、時間差算出手段13により先行音と後続音間の時間差
を算出し、時間差とレベル差の情報に予め音響心理実験
により求めた音像分離チャート4を適用して定位確率算
出手段14によって定位スピーカ方向に音像が分離しない
で定位する各受音点での定位確率15を算出する。さら
に、音場の客席エリア内で分布状に算出された定位確率
の値を用いて定位確率分布表示手段16により定位確率の
客席内分布を定位効果分布図として表示する。
Next, the preceding sound detecting means 10 detects the preceding sound, determines whether or not the preceding sound is a sound from a localization speaker, and the succeeding sound detecting means 11 detects the succeeding sound.
The level difference calculation means 12 calculates the level difference between the preceding sound and the subsequent sound, and the time difference calculation means 13 calculates the time difference between the preceding sound and the subsequent sound, and the sound image separation previously obtained by the psychoacoustic experiment on the information of the time difference and the level difference. Using the chart 4, the localization probability calculating means 14 calculates the localization probability 15 at each sound receiving point where the sound image is localized without being separated in the localization speaker direction. Further, the localization probability distribution display means 16 displays the in-seat distribution of localization probabilities as a localization effect distribution map by using the localization probability values calculated in a distributed manner within the audience area of the sound field.

【0016】このようにして算出される客席内の定位効
果分布図により、音像定位の効果を音像が定位スピーカ
方向に分離しないで定位する確率で定量化し、客席内に
おける定位の効果を音像定位システムの設計段階で予測
できるようになる。
From the localization effect distribution map in the passenger seat thus calculated, the effect of sound image localization is quantified with the probability that the sound image is localized without being separated in the direction of the localization speaker, and the effect of localization in the seat is determined by the sound image localization system. Can be predicted at the design stage.

【0017】図2は本発明の第2実施例を示す概略ブロ
ック図であり、21は第1後続音を用いた定位効果算出手
段、22は第1後続音検出手段を示す。なお、図1に示す
第1実施例における手段,データおよび出力と同一のも
のに関しては同一の符号を付して詳細な説明は省略し
た。
FIG. 2 is a schematic block diagram showing a second embodiment of the present invention, in which 21 is a localization effect calculating means using a first subsequent sound, and 22 is a first subsequent sound detecting means. The same parts, data and outputs as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof is omitted.

【0018】第1後続音を用いた定位効果算出手段21
は、先行音を検出するとともに先行音が定位スピーカか
らの音か否かを判定する先行音検出手段10と、先行音に
続く第1後続音を検出する第1後続音検出手段22と、先
行音と後続音間のレベル差を算出するレベル差算出手段
12と、先行音と後続音間の時間差を算出する時間差算出
手段13と、時間差とレベル差の情報に予め音響心理実験
により求めた音像分離チャートを適用して定位スピーカ
方向に音像が分離しないで定位する確率を算出する定位
確率算出手段14とから構成されている。
A localization effect calculation means 21 using the first subsequent sound
Is a preceding sound detecting means 10 which detects a preceding sound and determines whether the preceding sound is a sound from a localization speaker, a first succeeding sound detecting means 22 which detects a first succeeding sound following the preceding sound, and a preceding sound Level difference calculating means for calculating the level difference between the sound and the subsequent sound
12, the time difference calculation means 13 for calculating the time difference between the preceding sound and the subsequent sound, and the sound image separation chart previously obtained by the psychoacoustic experiment to the information of the time difference and the level difference is applied to the localization speaker direction without separating the sound image. It is composed of localization probability calculating means 14 for calculating the localization probability.

【0019】そして、第1後続音を用いた定位効果算出
手段21の出力である各受音点での定位確率15の値を基
に、定位確率分布表示手段16によって客席内の定位効果
分布図が表示される。
Then, based on the value of the localization probability 15 at each sound receiving point which is the output of the localization effect calculation means 21 using the first subsequent sound, the localization probability distribution display means 16 displays the localization effect distribution map in the audience. Is displayed.

【0020】次に、その動作を図2を使用して説明す
る。
Next, the operation will be described with reference to FIG.

【0021】まず、受音点分布生成手段2により音場の
客席エリア内分布状受音点データ3を生成し、定位パラ
メータ5,スピーカデータ6および室形データ7からエ
コータイムパターン算出手段8によりそれら各受音点に
おける、定位パラメータ5が考慮されたエコータイムパ
ターン9を算出する。
First, the sound receiving point distribution generating means 2 generates the distributed sound receiving point data 3 in the audience area of the sound field, and the echo time pattern calculating means 8 uses the localization parameter 5, the speaker data 6 and the room shape data 7. An echo time pattern 9 in which the localization parameter 5 is considered at each of the sound receiving points is calculated.

【0022】次に、先行音検出手段10により先行音を検
出するとともに先行音が定位スピーカからの音か否かを
判定し、同時に第1後続音検出手段22により先行音に続
く第1後続音を検出した後、レベル差算出手段12により
先行音と後続音間のレベル差を、時間差算出手段13によ
り先行音と後続音間の時間差を算出し、時間差とレベル
差の情報に予め音響心理実験により求めた音像分離チャ
ート4を適用して定位確率算出手段14によって定位スピ
ーカ方向に音像が分離しないで定位する各受音点での定
位確率15を算出する。さらに、音場の客席エリア内で分
布状に算出された定位確率15の値を用いて定位確率分布
表示手段16により定位確率の客席内分布を定位効果分布
図として表示する。
Next, the preceding sound detecting means 10 detects the preceding sound and determines whether or not the preceding sound is a sound from a localization speaker, and at the same time, the first succeeding sound detecting means 22 simultaneously follows the preceding sound. After detecting, the level difference calculation means 12 calculates the level difference between the preceding sound and the subsequent sound, and the time difference calculation means 13 calculates the time difference between the preceding sound and the subsequent sound. The localization probability calculation means 14 applies the sound image separation chart 4 obtained in step 1 to calculate the localization probability 15 at each sound receiving point where the sound image is localized without being separated in the localization speaker direction. Further, the localization probability distribution display means 16 displays the in-seat distribution of localization probabilities as a localization effect distribution map by using the value of localization probability 15 calculated in a distribution manner in the audience area of the sound field.

【0023】このようにして算出される客席内の定位効
果分布図により、音像定位の効果を音像が定位スピーカ
方向に分離しないで定位する確率で定量化し、比較的簡
便に客席内における定位の効果を音像定位システムの設
計段階で予測できるものである。
From the localization effect distribution map in the passenger seat thus calculated, the effect of sound image localization is quantified with the probability that the sound image is localized without being separated in the localization speaker direction, and the effect of localization in the passenger seat is relatively simple. Can be predicted at the design stage of the sound localization system.

【0024】図3は本発明の第3実施例を示す概略ブロ
ック図であり、31は最大レベルの後続音を用いた定位効
果算出手段、32は後続音レベル検出手段、33は最大レベ
ルの後続音検出手段を示す。なお、図1に示す第1実施
例における手段,データおよび出力と同一のものに関し
ては同一の符号を付して詳細な説明は省略した。
FIG. 3 is a schematic block diagram showing a third embodiment of the present invention, in which 31 is a localization effect calculating means using a maximum level succeeding sound, 32 is a succeeding sound level detecting means, and 33 is a maximum level succeeding sound. A sound detection means is shown. The same parts, data and outputs as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof is omitted.

【0025】最大レベルの後続音を用いた定位効果算出
手段31は、先行音を検出するとともに先行音が定位スピ
ーカからの音か否かを判定する先行音検出手段10と、後
続音のレベルを検出する後続音レベル検出手段32と、一
番大きなレベルの後続音を検出する最大レベルの後続音
検出手段33と、先行音と検出した後続音間のレベル差を
算出するレベル差算出手段12と、先行音と後続音間の時
間差を算出する時間差算出手段13と、時間差とレベル差
の情報に予め音響心理実験により求めた音像分離チャー
トを適用して定位スピーカ方向に音像が分離しないで定
位する確率を算出する定位確率算出手段14とから構成さ
れている。
The localization effect calculating means 31 using the maximum level succeeding sound detects the preceding sound and determines the preceding sound and the preceding sound detecting means 10 for judging whether or not the preceding sound is a sound from a localization speaker. A subsequent sound level detecting means 32 for detecting, a maximum level succeeding sound detecting means 33 for detecting the highest level succeeding sound, and a level difference calculating means 12 for calculating a level difference between the preceding sound and the detected succeeding sound. The time difference calculation means 13 for calculating the time difference between the preceding sound and the subsequent sound, and the sound image separation chart previously obtained by the psychoacoustic experiment are applied to the information of the time difference and the level difference to localize the sound image in the localization speaker direction. It is composed of localization probability calculating means 14 for calculating the probability.

【0026】そして、最大レベルの後続音を用いた定位
効果算出手段31の出力を基に、定位確率分布表示手段16
によって、客席内の定位効果分布図が表示される。
Then, based on the output of the localization effect calculation means 31 using the maximum level succeeding sound, the localization probability distribution display means 16
Displays the localization effect distribution map in the audience.

【0027】次に、その動作を図3を使用して説明す
る。
Next, the operation will be described with reference to FIG.

【0028】まず、第1実施例と同様に、エコータイム
パターン算出手段8により各受音点における、定位パラ
メータ5が考慮されたエコータイムパターン9を算出す
る。次に、先行音検出手段10により先行音を検出すると
ともに先行音が定位スピーカからの音か否かを判定し、
同時に後続音レベル検出手段32により後続音のレベルを
検出し、最大レベルの後続音検出手段33により一番大き
なレベルの後続音を検出し、レベル差算出手段12により
この後続音と先行音との間のレベル差を、時間差算出手
段13により先行音と後続音間の時間差を算出し、時間差
とレベル差の情報に予め音響心理実験により求めた音像
分離チャート4を適用して定位確率算出手段14によって
定位スピーカ方向に音像が分離しないで定位する各受音
点での定位確率15を算出する。さらに、音場の客席エリ
ア内で分布状に算出された定位確率15の値を用いて定位
確率分布表示手段16により定位確率の客席内分布を定位
効果分布図として表示する。
First, as in the first embodiment, the echo time pattern calculation means 8 calculates the echo time pattern 9 at each sound receiving point in consideration of the localization parameter 5. Next, the preceding sound detection means 10 detects the preceding sound and determines whether the preceding sound is a sound from a localization speaker,
At the same time, the succeeding sound level detecting means 32 detects the level of the succeeding sound, the maximum level succeeding sound detecting means 33 detects the largest succeeding sound, and the level difference calculating means 12 detects the difference between the succeeding sound and the preceding sound. With respect to the level difference between them, the time difference calculation means 13 calculates the time difference between the preceding sound and the subsequent sound, and the localization probability calculation means 14 is applied to the information of the time difference and the level difference by applying the sound image separation chart 4 previously obtained by the psychoacoustic experiment. The localization probability 15 at each sound receiving point where the sound image is localized without being separated in the localization speaker direction is calculated by. Further, the localization probability distribution display means 16 displays the in-seat distribution of localization probabilities as a localization effect distribution map by using the value of localization probability 15 calculated in a distribution manner in the audience area of the sound field.

【0029】このようにして算出される客席内の定位効
果分布図により、音像定位の効果を音像が定位スピーカ
方向に分離しないで定位する確率で定量化し、客席内に
おける定位の効果を音像定位システムの設計段階で予測
できる。
From the localization effect distribution map in the passenger seat thus calculated, the effect of sound image localization is quantified by the probability that the sound image is localized without separating in the direction of the localization speaker, and the effect of localization in the seat is determined by the sound image localization system. Can be predicted at the design stage.

【0030】図4は本発明の第4実施例を示す概略ブロ
ック図であり、41は後続音レベルに時間窓内積分レベル
を用いた定位効果算出手段、42は後続音に対する時間窓
設定手段、43は時間窓内後続音レベル積分手段を示す。
なお、図1に示す第1実施例における手段,データおよ
び出力と同一のものに関しては同一の符号を付して詳細
な説明は省略した。
FIG. 4 is a schematic block diagram showing a fourth embodiment of the present invention, in which 41 is a localization effect calculating means using the integration level within the time window for the subsequent sound level, 42 is a time window setting means for the following sound, Reference numeral 43 indicates a subsequent sound level integrating means within the time window.
The same parts, data and outputs as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof is omitted.

【0031】後続音レベルに時間窓内積分レベルを用い
た定位効果算出手段41は、先行音を検出するとともに先
行音が定位スピーカからの音か否かを判定する先行音検
出手段10と、後続音を検出する後続音検出手段11と、後
続音に対してある時間幅の時間窓を設定する後続音に対
する時間窓設定手段42と、その時間窓内の音の合成レベ
ルを積分して求める時間窓内後続音レベル積分手段43
と、先行音と後続音の時間窓内積分レベルとの間のレベ
ル差を算出するレベル差算出手段12と、先行音と設定し
た時間窓との間の時間差を算出する時間差算出手段13
と、時間差とレベル差の情報に予め音響心理実験により
求めた音像分離チャートを適用して定位スピーカ方向に
音像が分離しないで定位する確率を算出する定位確率算
出手段14とから構成されている。
The localization effect calculating means 41 using the integration level within the time window as the subsequent sound level detects the preceding sound and determines whether or not the preceding sound is from the localization speaker, and the following sound detecting means 10. Subsequent sound detecting means 11 for detecting a sound, time window setting means 42 for setting a time window of a certain time width for the subsequent sound, and time obtained by integrating the synthesis level of the sound within the time window Window succeeding sound level integrating means 43
And a level difference calculating means 12 for calculating the level difference between the preceding sound and the integrated level within the time window of the following sound, and a time difference calculating means 13 for calculating the time difference between the preceding sound and the set time window.
And a localization probability calculating means 14 for calculating a probability that a sound image is localized without being separated in a localization speaker direction by applying a sound image separation chart previously obtained by an acoustic psychology experiment to the information of the time difference and the level difference.

【0032】そして、後続音レベルに時間窓内積分レベ
ルを用いた定位効果算出手段41の出力を基に、定位確率
分布表示手段16によって、客席内の定位効果分布図が表
示され、客席内における定位の効果が予測できる。
Then, based on the output of the localization effect calculation means 41 using the integration level within the time window as the subsequent sound level, the localization probability distribution display means 16 displays the localization effect distribution map in the audience seat, and the localization effect distribution map in the audience seat is displayed. The localization effect can be predicted.

【0033】次に、その動作を図4を使用して説明す
る。
Next, the operation will be described with reference to FIG.

【0034】まず、第1実施例と同様に、エコータイム
パターン算出手段8によりそれら各受音点における定位
パラメータが考慮されたエコータイムパターン9を算出
する。次に、先行音検出手段10により先行音を検出する
とともに先行音が定位スピーカからの音か否かを判定
し、後続音検出手段11により後続音を検出した後、後続
音に対する時間窓設定手段42により後続音に対してある
時間幅の時間窓を設定し、時間窓内後続音レベル積分手
段43によりその時間窓内の音の積分レベルを求め、レベ
ル差算出手段12によって先行音と後続音の時間窓内積分
レベルとの間のレベル差を算出し、時間差算出手段13に
より先行音と設定した時間窓との間の時間差を算出し、
時間差とレベル差の情報に予め音響心理実験により求め
た音像分離チャート4を適用して定位確率算出手段14に
よって定位スピーカ方向に音像が分離しないで定位する
各受音点での定位確率15を算出する。
First, similarly to the first embodiment, the echo time pattern calculation means 8 calculates the echo time pattern 9 in which the localization parameters at each sound receiving point are taken into consideration. Next, the preceding sound detection means 10 detects the preceding sound and determines whether or not the preceding sound is a sound from a localization speaker, the succeeding sound detection means 11 detects the succeeding sound, and then a time window setting means for the succeeding sound. A time window having a certain time width is set for the succeeding sound by 42, and the integrated level of the sound within the time window is calculated by the succeeding sound level integrating means 43 within the time window, and the preceding sound and the succeeding sound are calculated by the level difference calculating means 12. Calculate the level difference between the integrated level within the time window of, the time difference between the preceding sound and the set time window by the time difference calculation means 13,
By applying the sound image separation chart 4 previously obtained by the psychoacoustic experiment to the information of the time difference and the level difference, the localization probability calculating means 14 calculates the localization probability 15 at each sound receiving point where the sound image is localized without being separated in the localization speaker direction. To do.

【0035】さらに、音場の客席エリア内で分布状に算
出された定位確率15の値を用いて定位確率分布表示手段
16により定位確率の客席内分布を定位効果分布図として
表示する。
Further, the localization probability distribution display means using the value of localization probability 15 calculated in a distributed manner in the audience area of the sound field.
Display the distribution of the localization probability in the audience by 16 as a localization effect distribution map.

【0036】このようにして算出される客席内の定位効
果分布図により、音像定位の効果を音像が定位スピーカ
方向に分離しないで定位する確率で定量化し、客席内に
おける定位の効果を音像定位システムの設計段階で予測
できるものである。
From the localization effect distribution map in the passenger seat thus calculated, the effect of sound image localization is quantified by the probability that the sound image is localized without being separated in the direction of the localization speaker, and the effect of localization in the seat is determined by the sound image localization system. Can be predicted at the design stage.

【0037】図5は本発明の第5実施例を示す概略ブロ
ック図であり、51は先行音と全後続音の組み合わせを用
いる定位効果算出手段、52は先行音−全後続音組み合せ
手段、53は全組み合せに対するレベル差算出手段、54は
全組み合せに対する時間差算出手段、55は定位確率最小
値検出手段を示す。なお、図1に示す第1実施例におけ
る手段,データおよび出力と同一のものに関しては同一
の符号を付して詳細な説明は省略した。
FIG. 5 is a schematic block diagram showing a fifth embodiment of the present invention. Reference numeral 51 is a localization effect calculating means using a combination of a preceding sound and all subsequent sounds, 52 is a combining means of preceding sound and all subsequent sounds, and 53. Is a level difference calculating means for all combinations, 54 is a time difference calculating means for all combinations, and 55 is a localization probability minimum value detecting means. The same parts, data and outputs as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof is omitted.

【0038】先行音と全後続音の組み合わせを用いる定
位効果算出手段51は、先行音を検出するとともに先行音
が定位スピーカからの音か否かを判定する先行音検出手
段10と、後続音を検出する後続音検出手段11と、先行音
と全後続音をそれぞれ1対1に組み合わせる先行音−全
後続音組み合わせ手段52と、先行音と後続音の全ての組
み合わせ1つ1つについてレベル差を算出する全組み合
わせに対するレベル差算出手段53と、先行音と後続音の
全ての組み合わせ1つ1つについて時間差を算出する全
組み合わせに対する時間差算出手段54と、それによって
得られる全組み合わせに関する時間差とレベル差の情報
に予め音響心理実験により求めた音像分離チャートを適
用して定位スピーカ方向に音像が分離しないで定位する
確率を算出する定位確率算出手段14と、全組み合わせに
対する定位確率の中から最小値、すなわち安全側の値を
検出する全組み合わせに対する定位確率最小値検出手段
55とから構成されている。
The localization effect calculation means 51 using a combination of the preceding sound and all the subsequent sounds detects the preceding sound and determines the preceding sound and whether or not the preceding sound is a sound from a localization speaker, and the following sound. The level difference is detected for each of the following sound detecting means 11 for detecting, the preceding sound-all subsequent sound combining means 52 for combining the preceding sound and all subsequent sounds in a one-to-one relationship, and all combinations of the preceding sound and all subsequent sounds. The level difference calculation means 53 for all the combinations to be calculated, the time difference calculation means 54 for all the combinations of the preceding sound and the subsequent sound, and the time difference and the level difference for all the combinations obtained thereby. By applying the sound image separation chart previously obtained by the psychoacoustic experiment to the information of the position, A calculating means 14, the minimum value from among the localization probability for all combinations, namely localization probability minimum value detecting means for all combinations for detecting a value of the safety side
It is composed of 55 and.

【0039】そして、先行音と全後続音の組み合わせを
用いる定位効果算出手段51の出力でを基に、定位確率分
布表示手段16の出力として客席内の定位効果分布図が表
示される。
Then, based on the output of the localization effect calculation means 51 using the combination of the preceding sound and all the subsequent sounds, the localization effect distribution map in the audience is displayed as the output of the localization probability distribution display means 16.

【0040】次に、その動作を図5を使用して説明す
る。
Next, the operation will be described with reference to FIG.

【0041】まず、第1実施例と同様に、エコータイム
パターン算出手段8によりそれら各受音点における定位
パラメータが考慮されたエコータイムパターン9を算出
する。次に、先行音検出手段10により先行音を検出する
とともに先行音が定位スピーカからの音か否かを判定
し、後続音検出手段11により後続音を検出した後、先行
音−全後続音組み合わせ手段52により先行音と全後続音
をそれぞれ1対1に組み合わせ、全組み合わせに対する
レベル差算出手段53により先行音と後続音の全ての組み
合わせ1つ1つについてレベル差を算出し、全組み合わ
せに対する時間差算出手段54により先行音と後続音の全
ての組み合わせ1つ1つについて時間差を算出する。そ
してそれらによって得られる全組み合わせに関する時間
差とレベル差の情報に予め音響心理実験により求めた音
像分離チャート4を適用して定位確率算出手段14によっ
て定位スピーカ方向に音像が分離しないで定位する確率
を算出した後、全組み合わせに対する定位確率の中から
定位確率最小値検出手段55により最小値、すなわち安全
側の値を検出することによって定位スピーカ方向に音像
が分離しないで定位する各受音点での定位確率15を算出
する。
First, as in the first embodiment, the echo time pattern calculation means 8 calculates the echo time pattern 9 in which the localization parameters at each sound receiving point are taken into consideration. Next, the preceding sound detection unit 10 detects the preceding sound and determines whether the preceding sound is a sound from a localization speaker, and the succeeding sound detection unit 11 detects the succeeding sound, and then the preceding sound-all succeeding sounds combination The preceding sound and all subsequent sounds are combined in a one-to-one manner by means 52, and the level difference calculation means 53 calculates level differences for all combinations of the preceding sound and subsequent sounds, and the time difference for all combinations is calculated. The calculation means 54 calculates the time difference for each of all the combinations of the preceding sound and the subsequent sound. Then, the sound image separation chart 4 previously obtained by the psychoacoustic experiment is applied to the information of the time difference and the level difference regarding all the combinations obtained by them, and the localization probability calculation means 14 calculates the probability that the sound image is localized without being separated in the localization speaker direction. After that, the localization probability at all sound receiving points is localized by the localization probability minimum value detection means 55 by detecting the minimum value, that is, the value on the safe side by the localization probability minimum value detecting means 55 without separating the sound image in the localization speaker direction. Probability 15 is calculated.

【0042】さらに、音場の客席エリア内で分布状に算
出された定位確率の値を用いて定位確率分布表示手段16
により定位確率の客席内分布を定位効果分布図として表
示する。
Further, the localization probability distribution display means 16 is used by using the localization probability values calculated in a distributed manner in the audience area of the sound field.
The distribution of the localization probability in the audience is displayed as a localization effect distribution map.

【0043】このようにして算出される客席内の定位効
果分布図により、音像定位の効果を音像が定位スピーカ
方向に分離しないで定位する確率で定量化し、客席内に
おける定位の効果を音像定位システムの設計段階で予測
できるものである。
From the localization effect distribution map in the passenger seat thus calculated, the effect of sound image localization is quantified with the probability that the sound image is localized without being separated in the direction of the localization speaker, and the effect of localization in the passenger seat is determined by the sound image localization system. Can be predicted at the design stage.

【0044】図6は本発明の第6実施例を示す概略ブロ
ック図である。図6において、61は時間的に隣り合う音
波の組み合わせを用いる定位効果算出手段、62は時間的
に隣り合う音波の組み合わせ手段を示す。なお、図1に
示す第1実施例、および図5に示す第5実施例における
手段,データおよび出力と同一のものに関しては同一の
符号を付して詳細な説明は省略した。
FIG. 6 is a schematic block diagram showing a sixth embodiment of the present invention. In FIG. 6, reference numeral 61 denotes a localization effect calculation means that uses a combination of sound waves that are temporally adjacent to each other, and 62 is a combination means of sound waves that are temporally adjacent to each other. The same parts, data, and outputs as those in the first embodiment shown in FIG. 1 and the fifth embodiment shown in FIG. 5 are designated by the same reference numerals, and detailed description thereof will be omitted.

【0045】時間的に隣り合う音波の組み合わせを用い
る定位効果算出手段61は、時間的に隣り合う音をそれぞ
れ1対1に組み合わせる時間的に隣り合う音波の組み合
わせ手段62と、それら全ての組み合わせ1つ1つについ
てレベル差を算出する全組み合わせに対するレベル差算
出手段53と、全ての組み合わせ1つ1つについて時間差
を算出する全組み合わせに対する時間差算出手段54と、
それによって得られる全組み合わせに関する時間差とレ
ベル差の情報に予め音響心理実験により求めた音像分離
チャートを適用して定位スピーカ方向に音像が分離しな
いで定位する確率を算出する定位確率算出手段14と、全
組み合わせに対する定位確率の中から最小値、すなわち
安全側の値を検出する全組み合わせに対する定位確率最
小値検出手段55とから構成されている。
The localization effect calculation means 61 using a combination of sound waves that are temporally adjacent to each other is a combination means 62 of sound waves that are temporally adjacent to each other, and a combination of all of them. Level difference calculating means 53 for all combinations for calculating the level difference for each one, and time difference calculating means 54 for all combinations for calculating the time difference for each and every combination,
Localization probability calculating means 14 for calculating the probability of localization without separating the sound image in the localization speaker direction by applying the sound image separation chart previously obtained by the psychoacoustic experiment to the information of the time difference and the level difference regarding all the combinations obtained by it, It is composed of localization probability minimum value detection means 55 for all combinations that detects the minimum value, that is, the value on the safe side, from the localization probabilities for all combinations.

【0046】そして、時間的に隣り合う音波の組み合わ
せを用いる定位効果算出手段61の出力を基に、定位確率
分布表示手段16によって、客席内の定位効果分布図が表
示される。
Then, based on the output of the localization effect calculation means 61 using a combination of sound waves that are temporally adjacent to each other, the localization probability distribution display means 16 displays the localization effect distribution map in the audience.

【0047】次に、その動作を図6を使用して説明す
る。
Next, the operation will be described with reference to FIG.

【0048】まず、第1実施例と同様に、エコータイム
パターン算出手段8によりそれら各受音点における定位
パラメータが考慮されたエコータイムパターン9を算出
する。次に、時間的に隣り合う音波の組み合わせ手段62
により時間的に隣り合う音をそれぞれ1対1に組み合わ
せ、全組み合わせに対するレベル差算出手段53によりそ
れら全ての組み合わせ1つ1つについてレベル差を算出
し、全組み合わせに対する時間差算出手段54によって全
ての組み合わせ1つ1つについて時間差を算出し、それ
によって得られる全組み合わせに関する時間差とレベル
差の情報に予め音響心理実験により求めた音像分離チャ
ート4を適用して定位確率算出手段14により定位スピー
カ方向に音像が分離しないで定位する確率を算出し、全
組み合わせに対する定位確率最小値検出手段55により時
間的に隣り合う音波の全組み合わせに対する定位確率の
中から最小値、すなわち安全側の値を検出することによ
って各受音点での定位確率15が出力される。
First, similarly to the first embodiment, the echo time pattern calculating means 8 calculates the echo time pattern 9 in which the localization parameters at each sound receiving point are taken into consideration. Next, the means 62 for combining sound waves that are temporally adjacent to each other
The time-adjacent sounds are combined in a one-to-one manner with each other, the level difference calculation means 53 for all the combinations calculates level differences for each of the combinations, and the time difference calculation means 54 for all the combinations calculates all the combinations. The time difference is calculated for each one, and the sound image separation chart 4 previously obtained by the psychoacoustic experiment is applied to the information of the time difference and the level difference regarding all the combinations obtained thereby, and the localization probability calculation means 14 applies the sound image in the localization speaker direction. Calculate the probability of localization without separation, by the localization probability minimum value detection means 55 for all combinations, the minimum value from among the localization probabilities for all combinations of sound waves temporally adjacent to each other, that is, by detecting the value on the safe side. A localization probability of 15 at each sound receiving point is output.

【0049】さらに、音場の客席エリア内で分布状に算
出された定位確率15の値を用いて定位確率分布表示手段
16により定位確率の客席内分布を定位効果分布図として
表示する。
Furthermore, the localization probability distribution display means using the value of localization probability 15 calculated in a distributed manner in the audience area of the sound field.
Display the distribution of the localization probability in the audience by 16 as a localization effect distribution map.

【0050】このようにして算出される客席内の定位効
果分布図により、音像定位の効果を音像が定位スピーカ
方向に分離しないで定位する確率で定量化し、客席内に
おける定位の効果を音像定位システムの設計段階で予測
できるものである。
From the localization effect distribution map in the passenger seat thus calculated, the effect of sound image localization is quantified with the probability that the sound image is localized without being separated in the direction of the localization speaker, and the effect of localization in the passenger seat is determined by the sound image localization system. Can be predicted at the design stage.

【0051】図7は本発明の第7実施例を示す概略ブロ
ック図であり、71は疑似先行音とそれ以降の全後続音の
組み合わせを用いる定位効果算出手段、72は疑似先行音
更新手段、73は疑似先行音に対する後続音検出手段、74
は全疑似先行音に対する定位確率の最小値検出手段を示
す。なお、図1に示す第1実施例、および図5に示す第
5実施例における手段,データおよび出力と同一のもの
に関しては同一の符号を付して詳細な説明は省略した。
FIG. 7 is a schematic block diagram showing a seventh embodiment of the present invention, in which 71 is a localization effect calculating means using a combination of a pseudo preceding sound and all subsequent sounds thereafter, 72 is a pseudo preceding sound updating means, 73 is a succeeding sound detecting means for the pseudo preceding sound;
Indicates a means for detecting the minimum value of localization probability for all pseudo preceding sounds. The same parts, data, and outputs as those in the first embodiment shown in FIG. 1 and the fifth embodiment shown in FIG. 5 are designated by the same reference numerals, and detailed description thereof will be omitted.

【0052】疑似先行音とそれ以降の全後続音の組み合
わせを用いる定位効果算出手段71は、算出されたすべて
の音波をに対して到達時間順に疑似的な先行音として順
次更新していく疑似先行音更新手段72と、疑似先行音を
変更するごとに疑似先行音より遅れて到達する音波を疑
似先行音に対する後続音とする疑似先行音に対する後続
音検出手段73と、先行音と全後続音をそれぞれ1対1に
組み合わせる先行音−全後続音組み合わせ手段52と、先
行音と後続音の全ての組み合わせ1つ1つについてレベ
ル差を算出する全組み合わせに対するレベル差算出手段
53と、先行音と後続音の全ての組み合わせ1つ1つにつ
いて時間差を算出する全組み合わせに対する時間差算出
手段54と、それによって得られる全組み合わせに関する
時間差とレベル差の情報に予め音響心理実験により求め
た音像分離チャート4を適用して定位スピーカ方向に音
像が分離しないで定位する確率を算出する定位確率算出
手段14と、全組み合わせに対する定位確率の中から最小
値、すなわち安全側の値を検出する全組み合わせに対す
る定位確率最小値検出手段55と、すべての疑似先行音に
対する定位確率最小値の中からさらに最小値を検出する
全疑似先行音に対する定位確率の最小値検出手段74とか
ら構成されている。
The localization effect calculating means 71 using a combination of the pseudo preceding sound and all subsequent sounds thereafter sequentially updates all the calculated sound waves as pseudo preceding sounds in order of arrival time. Sound updating means 72, subsequent sound detecting means 73 for the pseudo preceding sound, which is a succeeding sound to the pseudo preceding sound, the sound wave that arrives later than the pseudo preceding sound each time the pseudo preceding sound is changed, and the preceding sound and all the succeeding sounds. The preceding sound / all subsequent sound combining means 52 which are respectively combined in a one-to-one manner, and the level difference calculating means for all the combinations for calculating the level difference for all the combinations of the preceding sound and the subsequent sound
53, time difference calculating means 54 for all combinations for calculating the time difference for each combination of the preceding sound and the subsequent sound, and information on the time difference and the level difference for all the combinations obtained by the psychoacoustic experiment in advance. The localization probability calculating means 14 for calculating the probability that the sound image is localized without separating in the localization speaker direction by applying the sound image separation chart 4 and the minimum value, that is, the value on the safe side from the localization probabilities for all combinations. It is composed of localization probability minimum value detection means 55 for all combinations, and localization probability minimum value detection means 74 for all pseudo preceding sounds that further detects the minimum value from the localization probability minimum values for all pseudo preceding sounds. .

【0053】そして、疑似先行音とそれ以降の全後続音
の組み合わせを用いる定位効果算出手段71の出力を基
に、定位確率分布表示手段16によって、客席内の定位効
果分布図が表示される。
Then, based on the output of the localization effect calculation means 71 using a combination of the pseudo preceding sound and all subsequent sounds, the localization probability distribution display means 16 displays the localization effect distribution map in the audience.

【0054】次に、その動作を図7を使用して説明す
る。
Next, the operation will be described with reference to FIG.

【0055】まず、受音点分布生成手段2により音場の
客席エリア内分布状受音点データ3を生成し、定位パラ
メータ5、スピーカデータ6、室形データ7からエコー
タイムパターン算出手段8によりそれら各受音点におけ
る定位パラメータが考慮されたエコータイムパターン9
を算出する。次に、算出されたすべての音波に対して疑
似先行音更新手段72により到達時間順に疑似的な先行音
として順次更新し、疑似先行音に対する後続音検出手段
73により疑似先行音を変更するごとに疑似先行音より遅
れて到達する音波を疑似先行音に対する後続音とみなす
ことにし、先行音とその全後続音を先行音−全後続音組
み合わせ手段52によりそれぞれ1対1に組み合わせ、全
組み合わせに対するレベル差算出手段53により先行音と
後続音の全ての組み合わせ1つ1つについてレベル差を
算出し、全組み合わせに対する時間差算出手段54により
先行音と後続音の全ての組み合わせ1つ1つについて時
間差を算出し、それによって得られる全組み合わせに関
する時間差とレベル差の情報に予め音響心理実験により
求めた音像分離チャート4を適用して定位確率算出手段
14により定位スピーカ方向に音像が分離しないで定位す
る確率を算出する。
First, the sound receiving point distribution generating means 2 generates the distributed sound receiving point data 3 in the audience area of the sound field, and the echo time pattern calculating means 8 uses the localization parameter 5, the speaker data 6 and the room shape data 7. Echo time pattern 9 in which localization parameters at each sound receiving point are considered
To calculate. Next, all the calculated sound waves are sequentially updated as pseudo preceding sounds in the order of arrival time by the pseudo preceding sound updating means 72, and subsequent sound detecting means for the pseudo preceding sound is detected.
Each time the pseudo preceding sound is changed by 73, the sound wave that arrives later than the pseudo preceding sound is regarded as the succeeding sound to the pseudo preceding sound, and the preceding sound and all the succeeding sounds are respectively separated by the preceding sound-all succeeding sound combining means 52. One-to-one combination, level difference calculation means 53 for all the combinations calculates level differences for all combinations of the preceding sound and the subsequent sound, and time difference calculation means 54 for all the combinations calculates all of the preceding sound and the subsequent sound. Of the localization probability calculation means by calculating the time difference for each of the combinations, and applying the sound image separation chart 4 obtained in advance by the psychoacoustic experiment to the information of the time difference and the level difference regarding all the combinations obtained thereby.
By 14, the probability that the sound image is localized without being separated in the direction of the localization speaker is calculated.

【0056】そして、全組み合わせに対する定位確率最
小値検出手段55によって全組み合わせに対する定位確率
の中から最小値、すなわち安全側の値を検出し、全疑似
先行音に対する定位確率の最小値検出手段74によりすべ
ての疑似先行音に対する定位確率最小値の中からさらに
最小値を検出して各受音点での定位確率15が出力され
る。また、音場の客席エリア内で分布状に算出された定
位確率の値を用いて定位確率分布表示手段16により定位
確率の客席内分布を定位効果分布図として表示する。
The localization probability minimum value detecting means 55 for all the combinations detects the minimum value, that is, the safe value, from the localization probabilities for all the combinations, and the minimum localization probability value detecting means 74 for all the pseudo preceding sounds. A minimum value is further detected from the minimum localization probabilities for all pseudo preceding sounds, and the localization probability 15 at each sound receiving point is output. Further, the in-seat distribution of the localization probabilities is displayed as a localization effect distribution map by the localization probability distribution display means 16 using the values of the localization probabilities calculated in a distributed manner in the audience area of the sound field.

【0057】このようにして算出される客席内の定位効
果分布図により、音像定位の効果を音像が定位スピーカ
方向に分離しないで定位する確率で定量化し、客席内に
おける定位の効果を音像定位システムの設計段階で予測
できるものである。
From the localization effect distribution map in the passenger seat thus calculated, the effect of sound image localization is quantified with the probability that the sound image is localized without separating in the direction of the localization speaker, and the effect of localization in the passenger seat is determined by the sound image localization system. Can be predicted at the design stage.

【0058】図8は本発明の第8実施例を示す概略ブロ
ック図であり、81は定位確率から色への変換手段、82は
客席内定位確率分布カラーエリアマップ表示手段を示
す。なお、図1に示す第1実施例における手段,データ
および出力と同一のものに関しては同一の符号を付して
詳細な説明は省略した。
FIG. 8 is a schematic block diagram showing an eighth embodiment of the present invention, in which 81 is a localization probability-to-color conversion means, and 82 is an in-seat localization probability distribution color area map display means. The same parts, data and outputs as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof is omitted.

【0059】定位確率分布表示手段16は、得られた定位
確率の違いを色の違いへマッピングする定位確率から色
への変換手段81と、その出力である受音点毎の定位確率
と色情報からカラーエリアマップで表示する客席内定位
確率分布カラーエリアマップ表示手段82とから構成され
ている。そして、この定位確率分布表示手段16は、定位
効果算出手段1の出力である各受音点での定位確率15の
値を入力として、各受音点で分布状に算出された定位確
率の値の違いを色の違いで表現し、音場の客席エリア内
の定位状況の分布をカラーエリアマップとして客席内の
定位効果分布図を表示するものである。
The localization probability distribution display means 16 is a localization probability-to-color conversion means 81 for mapping the obtained localization probability difference into a color difference, and the localization probability and color information for each sound receiving point which is the output thereof. And a probability distribution color area map display means 82 for in-seat localization displayed by a color area map. The localization probability distribution display means 16 receives the value of the localization probability 15 at each sound receiving point, which is the output of the localization effect calculating means 1, as an input, and the value of the localization probability calculated in a distributed manner at each sound receiving point. The difference of colors is expressed by the difference of colors, and the distribution of localization situation in the seat area of the sound field is displayed as a color area map to display the localization effect distribution map in the seat.

【0060】なお、定位効果算出手段1の部分には、第
1実施例から第7実施例にかかるどの定位効果算出手段
を用いてもよい。
Any localization effect calculating means according to the first to seventh embodiments may be used for the localization effect calculating means 1.

【0061】次に、その動作を図8,図11を使用して説
明する。
Next, the operation will be described with reference to FIGS.

【0062】まず、第1実施例と同様に、定位効果算出
手段1が客席エリア内の各受音点での定位の効果を定位
確率として出力し、得られた定位確率の違いを色の違い
として定位確率から色への変換手段81がマッピングし
て、その出力である受音点毎の定位確率と色情報から客
席内定位確率分布カラーエリアマップ表示手段82によっ
て図11に示すようにカラーエリアマップ表示する。
First, similarly to the first embodiment, the localization effect calculating means 1 outputs the localization effect at each sound receiving point in the audience seat area as localization probability, and the difference in localization probability obtained is the difference in color. As the localization probability to color conversion means 81 is mapped, the localization probability and color information for each sound receiving point, which is the output of the localization probability distribution in the audience, is displayed by the color area map display means 82 as shown in FIG. To do.

【0063】このように、各受音点で分布状に算出され
た定位確率の値の違いを色の違いで表現し、音場の客席
エリア内の定位状況の分布をカラーエリアマップ表示す
ることで、客席内における定位の効果を設計段階におい
て予め視覚的に色の違いによって確認でき、客席内にお
ける定位の効果が予測できる。
As described above, the difference in the localization probability calculated in a distributed manner at each sound receiving point is represented by the difference in color, and the distribution of the localization situation in the audience area of the sound field is displayed in a color area map. The effect of localization in the passenger seat can be visually confirmed in advance in the design stage by the color difference, and the effect of localization in the passenger seat can be predicted.

【0064】図9は本発明の第9実施例を示す概略ブロ
ック図であり、91は等定位確率コンター作成手段、92は
客席内定位確率分布コンター表示手段を示す。なお、図
1に示す第1実施例における手段,データおよび出力と
同一のものに関しては同一の符号を付して詳細な説明は
省略した。
FIG. 9 is a schematic block diagram showing a ninth embodiment of the present invention, in which 91 is an isosteric probability contour creating means and 92 is an in-seat localization probability distribution contour displaying means. The same parts, data and outputs as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals and detailed description thereof is omitted.

【0065】定位確率分布表示手段16は、各受音点で得
られた定位確率の値を用いて等定位確率コンターを作成
する等定位確率コンター作成手段91と、このコンター情
報を用いて定位確率分布をコンター表示する客席内定位
確率分布コンター表示手段92とから構成されている。
The localization probability distribution display means 16 uses the values of localization probability obtained at each sound receiving point to create the isosteric probability contour contour generating means 91 and the localization probability using this contour information. It is composed of a passenger probability localization distribution contour display means 92 for contour-displaying the distribution.

【0066】そして、定位効果算出手段1の出力である
各受音点での定位確率15の値を入力として、音場の客席
エリア内の定位状況の分布をコンター表示することを特
徴とし、客席内における定位の効果を予め視覚的に等確
率コンターの形状によって確認できるものである。
The localization probability 15 at each sound receiving point, which is the output of the localization effect calculating means 1, is input, and the distribution of localization conditions in the audience area of the sound field is displayed in contours. The effect of localization inside can be visually confirmed beforehand by the shape of equiprobable contours.

【0067】なお、ここで定位効果算出手段1の部分に
は、第1実施例から第7実施例にかかるどの定位効果算
出手段を用いてもよい。
Any localization effect calculating means according to the first to seventh embodiments may be used for the localization effect calculating means 1 here.

【0068】次に、その動作を図9,図12を使用して説
明する。
Next, the operation will be described with reference to FIGS.

【0069】まず、第1実施例と同様に、定位効果算出
手段1が客席エリア内の各受音点での定位の効果を定位
確率として出力し、各受音点で得られた定位確率の値を
用いて等定位確率コンター作成手段91により等定位確率
コンターを作成し、このコンター情報を用いて客席内定
位確率分布コンター表示手段92により定位確率分布を図
12に示すようにコンター表示する。
First, as in the first embodiment, the localization effect calculating means 1 outputs the localization effect at each sound receiving point in the audience seat area as a localization probability, and the localization probability obtained at each sound receiving point is calculated. Using the values, the orienting probability contour creating means 91 creates an orienting probability contour, and using this contour information, the in-seat orientation probability distribution contour displaying means 92 displays the orienting probability distribution.
Display contours as shown in 12.

【0070】このように、音場の客席エリア内の定位状
況の分布をコンター表示することで、客席内における定
位の効果を予め視覚的に等確率コンターの形状によって
確認でき、客席内における定位の効果が予測できる。
As described above, by displaying the distribution of the localization situation in the audience area of the sound field by contour display, the effect of localization in the audience seat can be visually confirmed in advance by the shape of the equal probability contour, and the localization in the audience seat can be confirmed. The effect can be predicted.

【0071】[0071]

【発明の効果】以上、説明した本発明によれば、まず、
受音点分布生成手段により音場の客席エリア内に分布状
に受音点を設定し、定位パラメータ、スピーカデータ、
室形データからエコータイムパターン算出手段によりそ
れら各受音点における定位パラメータが考慮されたエコ
ータイムパターンを算出する。次に、先行音検出手段に
より先行音を検出するとともに先行音が定位スピーカか
らの音か否かを判定し、後続音検出手段により後続音を
検出した後、レベル差算出手段により先行音と後続音間
のレベル差を、時間差算出手段により先行音と後続音間
の時間差を算出し、時間差とレベル差の情報に予め音響
心理実験により求めた音像分離チャートを適用して定位
確率算出手段によって定位スピーカ方向に音像が分離し
ないで定位する確率を算出する。さらに、音場の客席エ
リア内で分布状に算出された定位確率の値を用いて定位
確率分布表示手段により定位確率の分布をカラーエリア
マップ表示、または等定位確率曲線をコンター表示する
ことによって客席内における定位の効果が予測できる。
According to the present invention described above, first,
The sound receiving point distribution generating means sets the sound receiving points in a distributed manner in the audience area of the sound field, and the localization parameters, speaker data,
From the room shape data, the echo time pattern calculation means calculates the echo time pattern in which the localization parameters at each of the sound receiving points are taken into consideration. Next, the preceding sound detection means detects the preceding sound and determines whether or not the preceding sound is a sound from a localization speaker, the succeeding sound detection means detects the succeeding sound, and the level difference calculating means then detects the preceding sound and the succeeding sound. The level difference between sounds is calculated by the time difference calculation means, and the time difference between the preceding sound and the subsequent sound is calculated, and the localization probability calculation means is applied to the information of the time difference and the level difference by applying the sound image separation chart previously obtained by the psychoacoustic experiment. The probability that the sound image is localized without being separated in the speaker direction is calculated. Furthermore, by using the localization probability values calculated in a distributed manner within the audience area of the sound field, the localization probability distribution display means displays the localization probability distribution in a color area map, or the isolocation probability curve is contour-displayed in the audience. Can predict the effect of localization.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 1 is a schematic block diagram showing a sound image localization simulation apparatus according to a first embodiment of the present invention.

【図2】本発明の第2実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 2 is a schematic block diagram showing a sound image localization simulation apparatus according to a second embodiment of the present invention.

【図3】本発明の第3実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 3 is a schematic block diagram showing a sound image localization simulation apparatus according to a third embodiment of the present invention.

【図4】本発明の第4実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 4 is a schematic block diagram showing a sound image localization simulation apparatus according to a fourth embodiment of the present invention.

【図5】本発明の第5実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 5 is a schematic block diagram showing a sound image localization simulation apparatus of a fifth embodiment of the present invention.

【図6】本発明の第6実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 6 is a schematic block diagram showing a sound image localization simulation apparatus of a sixth embodiment of the present invention.

【図7】本発明の第7実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 7 is a schematic block diagram showing a sound image localization simulation apparatus according to a seventh embodiment of the present invention.

【図8】本発明の第8実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 8 is a schematic block diagram showing a sound image localization simulation apparatus of an eighth embodiment of the present invention.

【図9】本発明の第9実施例の音像定位シミュレーショ
ン装置を示す概略ブロック図である。
FIG. 9 is a schematic block diagram showing a sound image localization simulation apparatus of a ninth embodiment of the present invention.

【図10】従来の音像定位シミュレーション装置を示す
概略ブロック図である。
FIG. 10 is a schematic block diagram showing a conventional sound image localization simulation apparatus.

【図11】定位確率分布のカラーエリアマップ表示例で
ある。
FIG. 11 is a color area map display example of a localization probability distribution.

【図12】定位確率分布のコンター表示例である。FIG. 12 is a contour display example of a localization probability distribution.

【図13】音像定位確率を求めるために用いられる音像
分離チャートである。
FIG. 13 is a sound image separation chart used for obtaining a sound image localization probability.

【符号の説明】[Explanation of symbols]

1,21,31,41,51,61,71…定位効果算出手段、 2
…受音点分布生成手段、3…客席エリア内分布状受音点
データ、 4…音像分離チャート、 5,101…定位パ
ラメータ、 6,102…スピーカデータ、 7,103…室
形データ、 8,104…エコータイムパターン算出手
段、 9,105…エコータイムパターン、10…先行音検
出手段、 11,73…後続音検出手段、 12,53…レベル
差算出手段、 13,54…時間差算出手段、 14…定位確
率算出手段、 15…各受音点での定位確率、 16…定位
確率分布表示手段、 17…客席内の定位効果分布図、
22…第1後続音検出手段、 32…後続音レベル検出手
段、 33…最大レベルの後続音検出手段、 42…時間窓
設定手段、 43…時間窓内後続音レベル積分手段、 52
…先行音−全後続音組み合わせ手段、 55,74…定位確
率最小値検出手段、 62…組み合わせ手段、 72…疑似
先行音更新手段、 81…変換手段、 82…客席内定位確
率分布カラーエリアマップ表示手段、 91…等定位確率
コンター作成手段、 92…客席内定位確率分布コンター
表示手段、 106…先行音スピーカ判定手段、 107…判
定結果。
1, 21, 31, 41, 51, 61, 71 ... localization effect calculation means, 2
... sound receiving point distribution generation means, 3 ... distributed sound receiving point data in the audience area, 4 ... sound image separation chart, 5, 101 ... localization parameter, 6, 102 ... speaker data, 7, 103 ... room shape data, 8, 104 ... Echo time pattern calculation means, 9, 105 ... Echo time pattern, 10 ... Preceding sound detecting means, 11, 73 ... Subsequent sound detecting means, 12, 53 ... Level difference calculating means, 13, 54 ... Time difference calculating means, 14 ... localization probability calculation means, 15 ... localization probability at each sound receiving point, 16 ... localization probability distribution display means, 17 ... localization effect distribution map in the audience,
22 ... First subsequent sound detecting means, 32 ... Subsequent sound level detecting means, 33 ... Maximum level subsequent sound detecting means, 42 ... Time window setting means, 43 ... Time window subsequent sound level integrating means, 52
... preceding sound-all succeeding sounds combination means, 55, 74 ... localization probability minimum value detection means, 62 ... combination means, 72 ... pseudo preceding sound update means, 81 ... conversion means, 82 ... audience localization probability distribution color area map display means , 91 ... etc. localization probability creating means, 92 ... localization probability distribution contour display in seat, 106 ... preceding sound speaker determination means, 107 ... determination result.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G10K 15/00 M (58)調査した分野(Int.Cl.7,DB名) H04S 7/00 G06F 17/00 G10K 15/00 H04S 5/02 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 identification code FI G10K 15/00 M (58) Fields investigated (Int.Cl. 7 , DB name) H04S 7/00 G06F 17/00 G10K 15 / 00 H04S 5/02

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 定位パラメータ,スピーカデータおよび
室形データを基に、音場内に設定した各受音点におけ
る、前記定位パラメータが考慮されたエコータイムパタ
ーンを算出するエコータイムパターン算出手段と、先行
音を検出するとともにこの先行音が定位スピーカからの
音か否かを判定する先行音検出手段と、後続音を検出す
る後続音検出手段と、前記先行音と後続音間のレベル差
を算出するレベル差算出手段と、前記先行音と後続音間
の時間差を算出する時間差算出手段と、時間差とレベル
差の情報に予め音響心理実験により求めた音像分離チャ
ートを適用して、前記定位スピーカ方向に音像が分離し
ないで定位する確率を算出する定位確率算出手段とを有
し、各受音点における定位確率を算出して、音像定位の
効果を音像が定位スピーカ方向に分離しないで定位する
確率で定量的に予測することを特徴とする音像定位シミ
ュレーション装置。
1. An echo time pattern calculation means for calculating an echo time pattern in consideration of the localization parameter at each sound receiving point set in a sound field based on the localization parameter, speaker data and room shape data, and a preceding method. A preceding sound detecting unit that detects a sound and determines whether the preceding sound is a sound from a localization speaker, a succeeding sound detecting unit that detects a succeeding sound, and a level difference between the preceding sound and the succeeding sound. Level difference calculation means, time difference calculation means for calculating the time difference between the preceding sound and the subsequent sound, and a sound image separation chart previously obtained by an acoustic psychological experiment is applied to the information of the time difference and the level difference, in the localization speaker direction. It has a localization probability calculation means for calculating the probability of localization without separating the sound image, calculates the localization probability at each sound receiving point, and the sound image localization effect is determined by the sound image localization effect. A sound image localization simulation device characterized by quantitatively predicting the probability of localization without separation in the speaker direction.
【請求項2】 定位パラメータ,スピーカデータおよび
室形データを基に、音場内に設定した各受音点におけ
る、前記定位パラメータが考慮されたエコータイムパタ
ーンを算出するエコータイムパターン算出手段と、先行
音を検出するとともにこの先行音が定位スピーカからの
音か否かを判定する先行音検出手段と、前記先行音に続
く第1後続音を検出する第1後続音検出手段と、前記先
行音と後続音間のレベル差を算出するレベル差算出手段
と、前記先行音と後続音間の時間差を算出する時間差算
出手段と、時間差とレベル差の情報に予め音響心理実験
により求めた音像分離チャートを適用して、定位スピー
カ方向に音像が分離しないで定位する確率を算出する定
位確率算出手段とを有し、各受音点での定位確率を算出
して、音像定位の効果を音像が定位スピーカ方向に分離
しないで定位する確率で定量的に予測することを特徴と
する音像定位シミュレーション装置。
2. Echo time pattern calculation means for calculating an echo time pattern in consideration of the localization parameter at each sound receiving point set in the sound field based on the localization parameter, speaker data and room shape data, and preceding. A preceding sound detecting means for detecting a sound and determining whether or not the preceding sound is a sound from a localization speaker; a first succeeding sound detecting means for detecting a first succeeding sound following the preceding sound; and the preceding sound. A level difference calculation means for calculating a level difference between subsequent sounds, a time difference calculation means for calculating a time difference between the preceding sound and the subsequent sound, and a sound image separation chart previously obtained by an psychoacoustic experiment on the information of the time difference and the level difference. And a localization probability calculating means for calculating the probability that the sound image is localized without being separated in the localization speaker direction, and the localization probability at each sound receiving point is calculated to obtain the effect of the sound image localization. A sound image localization simulation device that quantitatively predicts the sound image with the probability of being localized without being separated in the localization speaker direction.
【請求項3】 定位パラメータ,スピーカデータおよび
室形データを基に、音場内に設定した各受音点におけ
る、前記定位パラメータが考慮されたエコータイムパタ
ーンを算出するエコータイムパターン算出手段と、先行
音を検出するとともにこの先行音が定位スピーカからの
音か否かを判定する先行音検出手段と、後続音のレベル
を検出する後続音レベル検出手段と、一番大きなレベル
の後続音を検出する最大レベルの後続音検出手段と、前
記先行音と検出した後続音間のレベル差を算出するレベ
ル差算出手段と、前記先行音と後続音間の時間差を算出
する時間差算出手段と、時間差とレベル差の情報に予め
音響心理実験により求めた音像分離チャートを適用し
て、定位スピーカ方向に音像が分離しないで定位する確
率を算出する定位確率算出手段とを有し、各受音点での
定位確率を算出して、音像定位の効果を音像が定位スピ
ーカ方向に分離しないで定位する確率で定量的に予測す
ることを特徴とする音像定位シミュレーション装置。
3. Echo time pattern calculation means for calculating an echo time pattern in consideration of the localization parameter at each sound receiving point set in the sound field based on the localization parameter, speaker data and room shape data, and a preceding method. A preceding sound detecting unit that detects a sound and determines whether or not the preceding sound is a sound from a localization speaker, a succeeding sound level detecting unit that detects a level of the succeeding sound, and a succeeding sound of the highest level is detected. Maximum level succeeding sound detecting means, level difference calculating means for calculating a level difference between the preceding sound and the detected succeeding sound, time difference calculating means for calculating a time difference between the preceding sound and the succeeding sound, time difference and level A localization probability calculation that applies the sound image separation chart previously obtained by psychoacoustic experiments to the difference information to calculate the probability that the sound image is localized without separation in the localization speaker direction. A sound image localization characterized by having an output means, calculating the localization probability at each sound receiving point, and quantitatively predicting the effect of sound image localization with the probability that the sound image is localized without being separated in the localization speaker direction. Simulation device.
【請求項4】 定位パラメータ,スピーカデータおよび
室形データを基に、音場内に設定した各受音点におけ
る、前記定位パラメータが考慮されたエコータイムパタ
ーンを算出するエコータイムパターン算出手段と、先行
音を検出するとともにこの先行音が定位スピーカからの
音か否かを判定する先行音検出手段と、後続音のレベル
を検出する後続音レベル検出手段と、後続音に対してあ
る時間幅の時間窓を設定する時間窓設定手段と、その時
間窓内の音の合成レベルを積分して求める時間窓内後続
音レベル積分手段と、前記先行音のレベルと後続音の時
間窓内積分レベルとの間のレベル差を算出するレベル差
算出手段と、前記先行音と設定した時間窓との間の時間
差を算出する時間差算出手段と、時間差とレベル差の情
報に予め音響心理実験により求めた音像分離チャートを
適用して、定位スピーカ方向に音像が分離しないで定位
する確率を算出する定位確率算出手段とを有し、各受音
点での定位確率を算出して、音像定位の効果を音像が定
位スピーカ方向に分離しないで定位する確率で定量的に
予測することを特徴とする音像定位シミュレーション装
置。
4. Echo time pattern calculation means for calculating an echo time pattern in consideration of the localization parameter at each sound receiving point set in the sound field based on the localization parameter, the speaker data and the room shape data, and the preceding. A preceding sound detecting unit that detects a sound and determines whether or not the preceding sound is a sound from a localization speaker, a succeeding sound level detecting unit that detects a level of the succeeding sound, and a time of a certain time width with respect to the succeeding sound. A time window setting means for setting a window, a time window succeeding sound level integrating means which is obtained by integrating a sound synthesis level in the time window, and a level of the preceding sound and a time window integration level of the following sound. Level difference calculating means for calculating a level difference between the preceding sound and a time difference between the preceding sound and the set time window, and a psychoacoustic experiment in advance for information on the time difference and the level difference. By using the sound image separation chart obtained by the above, and having a localization probability calculating means for calculating the probability of localization without separating the sound image in the localization speaker direction, the localization probability at each sound receiving point is calculated, and the sound image localization is performed. A sound image localization simulation device, which quantitatively predicts the effect of (1) with the probability that the sound image is localized without being separated in the localization speaker direction.
【請求項5】 定位パラメータ,スピーカデータおよび
室形データを基に、音場内に設定した各受音点におけ
る、前記定位パラメータが考慮されたエコータイムパタ
ーンを算出するエコータイムパターン算出手段と、先行
音を検出するとともにこの先行音が定位スピーカからの
音か否かを判定する先行音検出手段と、後続音を検出す
る後続音検出手段と、前記先行音と全後続音をそれぞれ
1対1に組み合わせる先行音−全後続音組み合わせ手段
と、前記先行音と後続音の全ての組み合わせ1つ1つに
ついてレベル差を算出する全組み合わせに対するレベル
差算出手段と、前記先行音と後続音の全ての組み合わせ
1つ1つについて時間差を算出する時間差算出手段と、
それらによって得られる全組み合わせに関する時間差と
レベル差の情報に予め音響心理実験により求めた音像分
離チャートを適用して、定位スピーカ方向に音像が分離
しないで定位する確率を算出する定位確率算出手段と、
全組み合わせに対する定位確率の中から最小値を検出す
る全組み合わせに対する定位確率最小値検出手段とを有
し、各受音点での定位確率を算出して、音像定位の効果
を音像が定位スピーカ方向に分離しないで定位する確率
で定量的に予測することを特徴とする音像定位シミュレ
ーション装置。
5. Echo time pattern calculation means for calculating an echo time pattern in consideration of the localization parameter at each sound receiving point set in the sound field based on the localization parameter, speaker data and room shape data, and a preceding method. A preceding sound detecting means for detecting a sound and determining whether or not the preceding sound is a sound from a localization speaker, a succeeding sound detecting means for detecting a succeeding sound, and the preceding sound and all succeeding sounds are set to one to one respectively. Combined preceding sound-all subsequent sounds combination means, level difference calculation means for all combinations for calculating level differences for all combinations of the preceding sound and subsequent sounds, and all combinations of the preceding sound and subsequent sounds A time difference calculating means for calculating a time difference for each one,
By applying the sound image separation chart previously obtained by the psychoacoustic experiment to the information of the time difference and the level difference regarding all combinations obtained by them, the localization probability calculating means for calculating the probability of localization without separating the sound image in the localization speaker direction,
It has a localization probability minimum value detection means for all combinations that detects the minimum value from the localization probabilities for all combinations, calculates the localization probability at each sound receiving point, and determines the effect of sound image localization as a sound image localization speaker direction. A sound image localization simulation device characterized by quantitatively predicting the probability of localization without being separated into two.
【請求項6】 定位パラメータ,スピーカデータおよび
室形データを基に、音場内に設定した各受音点におけ
る、前記定位パラメータが考慮されたエコータイムパタ
ーンを算出するエコータイムパターン算出手段と、時間
的に隣り合う音をそれぞれ1対1に組み合わせる時間的
に隣り合う音波の組み合わせ手段と、それら全ての組み
合わせ1つ1つについてレベル差を算出するレベル差算
出手段と、全ての組み合わせ1つ1つについて時間差を
算出する時間差算出手段と、それらによって得られる全
組み合わせに関する時間差とレベル差の情報に予め音響
心理実験により求めた音像分離チャートを適用して、定
位スピーカ方向に音像が分離しないで定位する確率を算
出する定位確率算出手段と、全組み合わせに対する定位
確率の中から最小値を検出する定位確率最小値検出手段
とを有し、受音点での定位確率を算出して、音像定位の
効果を音像が定位スピーカ方向に分離しないで定位する
確率で定量的に予測することを特徴とする音像定位シミ
ュレーション装置。
6. Echo time pattern calculation means for calculating an echo time pattern in consideration of the localization parameter at each sound receiving point set in the sound field based on the localization parameter, speaker data and room shape data, and time. Of sound waves that are adjacent to each other in a one-to-one manner, the sound wave adjoining means, the level difference calculating means that calculates the level difference for each of all the combinations, and all the combinations one by one The time difference calculation means for calculating the time difference and the sound image separation chart obtained in advance by the psychoacoustic experiment are applied to the information of the time difference and the level difference for all combinations obtained by them, and the sound image is localized without being separated in the localization speaker direction. The localization probability calculation means that calculates the probability and the minimum value among the localization probabilities for all combinations It has a localization probability minimum value detection means for detecting, calculates the localization probability at the sound receiving point, and quantitatively predicts the effect of sound image localization with the probability that the sound image is localized without being separated in the localization speaker direction. Characteristic sound localization simulation device.
【請求項7】 定位パラメータ,スピーカデータおよび
室形データを基に、音場内に設定した各受音点におけ
る、前記定位パラメータが考慮されたエコータイムパタ
ーンを算出するエコータイムパターン算出手段と、算出
されたすべての音波に対して到達時間順に疑似的な先行
音として順次更新していく疑似先行音更新手段と、疑似
先行音を変更するごとに疑似先行音より遅れて到達する
音波を疑似先行音に対する後続音として検出する後続音
検出手段と、前記先行音と全後続音をそれぞれ1対1に
組み合わせる先行音−全後続音組み合わせ手段と、前記
先行音と後続音の全ての組み合わせ1つ1つについてレ
ベル差を算出するレベル差算出手段と、前記先行音と後
続音の全ての組み合わせ1つ1つについて時間差を算出
する時間差算出手段と、それらによって得られる全組み
合わせに関する時間差とレベル差の情報に予め音響心理
実験により求めた音像分離チャートを適用して、定位ス
ピーカ方向に音像が分離しないで定位する確率を算出す
る定位確率算出手段と、全組み合わせに対する定位確率
の中から最小値を検出する全組み合わせに対する定位確
率最小値検出手段と、すべての疑似先行音に対する定位
確率最小値の中からさらに最小値を検出する定位確率最
小値検出手段とを有し、各受音点での定位確率を算出し
て、音像定位の効果を音像が定位スピーカ方向に分離し
ないで定位する確率で定量的に予測することを特徴とす
る音像定位シミュレーション装置。
7. Echo time pattern calculation means for calculating an echo time pattern in consideration of the localization parameter at each sound receiving point set in the sound field based on the localization parameter, speaker data and room shape data, Pseudo-preceding sound updating means that sequentially updates all the sound waves that have been generated as pseudo-preceding sounds in order of arrival time, and each time the pseudo-preceding sound is changed, the sound waves that arrive after the pseudo-preceding sound are delayed. Subsequent sound detecting means for detecting as a subsequent sound to the preceding sound, preceding sound and all subsequent sound combining means for combining the preceding sound and all subsequent sounds in a one-to-one relationship, and all combinations of the preceding sound and subsequent sound Level difference calculating means for calculating a level difference for each of the preceding sound and time difference calculating means for calculating a time difference for each of all combinations of the preceding sound and the subsequent sound. , A localization probability calculating means for applying a sound image separation chart previously obtained by an psychoacoustic experiment to the information of the time difference and the level difference for all combinations obtained by them, and calculating the probability that the sound image is localized without being separated in the localization speaker direction. , A localization probability minimum value detecting means for all combinations that detects a minimum value among localization probabilities for all combinations, and a localization probability minimum value detecting means for further detecting a minimum value among localization probability minimum values for all pseudo preceding sounds And a sound image localization simulation device characterized by calculating the localization probability at each sound receiving point, and quantitatively predicting the effect of sound image localization with the probability of localization without separating the sound image in the localization speaker direction. .
【請求項8】 音場の客席エリア内に分布状に受音点を
設定する受音点分布生成手段と、定位パラメータ,スピ
ーカデータおよび室形データを基に、その各受音点にお
ける、前記定位パラメータが考慮されたエコータイムパ
ターンを算出するエコータイムパターン算出手段と、そ
のエコータイムパターンを入力として音像分離チャート
により各受音点での定位の効果を定位確率として出力す
る定位効果算出手段と、各受音点で得られた定位確率の
違いを色の違いへマッピングする変換手段と、この変換
手段の出力である受音点毎の定位確率と色情報からカラ
ーエリアマップで表示する客席内定位確率分布カラーエ
リアマップ表示手段とを有し、各受音点で分布状に算出
された定位確率の値の違いを色の違いで表現し、音場の
客席エリア内の定位状況の分布をカラーエリアマップ表
示して、客席内における定位の効果を予め視覚的に色の
違いによって確認することを特徴とする音像定位シミュ
レーション装置。
8. The sound receiving point distribution generating means for setting the sound receiving points in a distributed manner in the audience seat area of the sound field, and the sound receiving points at each of the sound receiving points based on localization parameters, speaker data and room shape data. An echo time pattern calculation means for calculating an echo time pattern in which the localization parameters are considered, and a localization effect calculation means for outputting the localization effect at each sound receiving point as a localization probability with a sound image separation chart using the echo time pattern as an input. , A conversion means for mapping the difference in localization probability obtained at each sound receiving point to a difference in color, and the localization probability in each seat which is the output of this conversion means and the localization in the audience seat displayed in a color area map from color information Probability distribution color area map display means is provided, and the difference in localization probability values calculated in a distributed manner at each sound receiving point is expressed by different colors, and localization in the audience area of the sound field is performed. A sound image localization simulation device characterized by displaying the distribution of the situation in a color area map and visually confirming in advance the effect of localization in the passenger seat by the color difference.
【請求項9】 音場の客席エリア内に分布状に受音点を
設定する受音点分布生成手段と、定位パラメータ,スピ
ーカデータおよび室形データを基に、その各受音点にお
ける、前記定位パラメータが考慮されたエコータイムパ
ターンを算出するエコータイムパターン算出手段と、そ
のエコータイムパターンを入力とし、音像分離チャート
により各受音点での定位の効果を定位確率として出力す
る定位効果算出手段と、各受音点で得られた定位確率の
値を用いて等定位確率コンターを作成する等定位確率コ
ンター作成手段と、このコンター情報を用いて定位確率
分布をコンター表示する客席内定位確率分布コンター表
示手段とを有し、音場の客席エリア内の定位状況の分布
をコンター表示して、客席内における定位の効果を予め
視覚的に等確率コンターの形状によって確認することを
特徴とする音像定位シミュレーション装置。
9. A sound receiving point distribution generating means for setting sound receiving points in a distributed manner in a seat area of a sound field, and the sound receiving point at each sound receiving point based on localization parameters, speaker data and room shape data. Echo time pattern calculation means for calculating the echo time pattern in which the localization parameters are taken into consideration, and localization effect calculation means for inputting the echo time pattern and outputting the localization effect at each sound receiving point as localization probability by a sound image separation chart. And a localization probability distribution method that creates a localization localization contour using the localization probability values obtained at each sound receiving point, and a localization probability distribution in the audience that displays the localization probability distribution as a contour using this contour information. The contour display means is provided to contour-display the distribution of the localization situation in the audience area of the sound field to visually visually estimate the localization effect in the audience seat with equal probability. A sound image localization simulation device characterized by checking the shape of the target.
JP13949095A 1995-06-06 1995-06-06 Sound image localization simulation device Expired - Fee Related JP3380088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13949095A JP3380088B2 (en) 1995-06-06 1995-06-06 Sound image localization simulation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13949095A JP3380088B2 (en) 1995-06-06 1995-06-06 Sound image localization simulation device

Publications (2)

Publication Number Publication Date
JPH08336200A JPH08336200A (en) 1996-12-17
JP3380088B2 true JP3380088B2 (en) 2003-02-24

Family

ID=15246482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13949095A Expired - Fee Related JP3380088B2 (en) 1995-06-06 1995-06-06 Sound image localization simulation device

Country Status (1)

Country Link
JP (1) JP3380088B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427648B1 (en) 2007-10-12 2014-08-07 삼성전자주식회사 Method and apparatus for canceling the non-uniform radiation patterns in array speaker system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3587088B2 (en) 1999-06-15 2004-11-10 ヤマハ株式会社 Audio system, control method thereof, and recording medium
JP5611119B2 (en) * 2011-05-19 2014-10-22 株式会社日立製作所 Acoustic simulator, acoustic consulting apparatus, and processing method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427648B1 (en) 2007-10-12 2014-08-07 삼성전자주식회사 Method and apparatus for canceling the non-uniform radiation patterns in array speaker system

Also Published As

Publication number Publication date
JPH08336200A (en) 1996-12-17

Similar Documents

Publication Publication Date Title
US9286908B2 (en) Method and system for noise reduction
EP3304936B1 (en) Processing object-based audio signals
EP2708040B1 (en) System and method for emitting and especially controlling an audio signal in an environment using an objective intelligibility measure
US20190225147A1 (en) Detection of hazard sounds
US8345887B1 (en) Computationally efficient synthetic reverberation
EP2367169A2 (en) Masker sound generation apparatus and program
EP3664079B1 (en) Electric vehicle driving sound control system and control method
US8111583B2 (en) Method and apparatus for determining and indicating direction and type of sound
Nakatani et al. Harmonic sound stream segregation using localization and its application to speech stream segregation
Vroomen et al. Selective adaptation and recalibration of auditory speech by lipread information: dissipation
CN106575499A (en) System and method of microphone placement for noise attenuation
KR20000070673A (en) Vehicle collision warning system
JP2003514412A (en) How to determine if a sound source is near or far from a pair of microphones
CN110488225B (en) Voice direction indicating method and device, readable storage medium and mobile terminal
JP3380088B2 (en) Sound image localization simulation device
CN110310514A (en) Support to hearing impaired driver
JP2006227499A (en) Device for speech recognition
KR101812159B1 (en) Method and apparatus for localizing sound source using deep learning
EP3797415B1 (en) Sound processing apparatus and method for sound enhancement
JP2005227512A (en) Sound signal processing method and its apparatus, voice recognition device, and program
CN110251139A (en) Hearing test is oriented used in the active driver assistance system
US20180041854A1 (en) Device for creation of object dependent audio data and method for creating object dependent audio data in a vehicle interior
Orth et al. Analysis of a speech-based intersection assistant in real urban traffic
JPH11313272A (en) Video/audio output device
JP2013143744A (en) Sound image presentation device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071213

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081213

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091213

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101213

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111213

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111213

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121213

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees