JP2973764B2 - Sound image localization control device - Google Patents

Sound image localization control device

Info

Publication number
JP2973764B2
JP2973764B2 JP5014287A JP1428793A JP2973764B2 JP 2973764 B2 JP2973764 B2 JP 2973764B2 JP 5014287 A JP5014287 A JP 5014287A JP 1428793 A JP1428793 A JP 1428793A JP 2973764 B2 JP2973764 B2 JP 2973764B2
Authority
JP
Japan
Prior art keywords
sound
sound image
image localization
supplied
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5014287A
Other languages
Japanese (ja)
Other versions
JPH0651759A (en
Inventor
聡 関根
潤一 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP5014287A priority Critical patent/JP2973764B2/en
Priority to EP93105352A priority patent/EP0563929B1/en
Priority to DE69322805T priority patent/DE69322805T2/en
Publication of JPH0651759A publication Critical patent/JPH0651759A/en
Priority to US08/378,478 priority patent/US5822438A/en
Priority to US08/379,771 priority patent/US5581618A/en
Application granted granted Critical
Publication of JP2973764B2 publication Critical patent/JP2973764B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、例えば、電子楽器に用
いて好適な音像定位制御装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound image localization control device suitable for use in, for example, an electronic musical instrument.

【0002】[0002]

【従来の技術】音に広がり感を持たせる装置として、ス
テレオコーラス装置やリバーブ装置などがある。前者
は、元の音の位相を僅かにずらした音を作成し、この音
と元の音とを左右のスピーカから交互に発生する装置で
あり、後者は音に残響効果を付加する装置である。ま
た、その他の装置としては、パンニング装置が掲げられ
る。このパンニング装置は、左右スピーカから発生され
る音に出力レベル差を持たせることによって、音に立体
感を与えるものである。
2. Description of the Related Art There are a stereo chorus device, a reverb device and the like as a device for giving a sense of spaciousness to a sound. The former is a device that creates a sound in which the phase of the original sound is slightly shifted, and generates this sound and the original sound alternately from the left and right speakers, and the latter is a device that adds a reverberation effect to the sound. . As another device, a panning device is cited. This panning device gives a three-dimensional effect to a sound generated by left and right speakers by giving a difference in output level.

【0003】[0003]

【発明が解決しようとする課題】ところで、ステレオコ
ーラス装置やリバーブ装置においては、音の広がり感を
増すことはできるが、音像位置はぼやけてしまい、その
位置を識別することは困難となる欠点があった。また、
パンニング装置においては、音像の位置が左右のスピー
カを結ぶ直線上にだけ存在し、奥行きがないため、音像
位置の異なる複数の音を同時に発音すると、これらが混
ざった感じになった。ところで、パンニング装置は、し
ばしば電子楽器に用いられ、または内蔵され、ピアノ、
オルガン、ビブラフォン等の比較的大型の楽器をシミュ
レートする際に用いられている。これは、ピアノ等の大
型の楽器においては、音が出る位置が音階に伴って移動
するため、パンニング装置によってそれを模倣するため
である。
By the way, in a stereo chorus device or a reverb device, the sound spread can be increased, but the sound image position is blurred and it is difficult to identify the position. there were. Also,
In the panning device, since the position of the sound image exists only on a straight line connecting the left and right speakers and has no depth, when a plurality of sounds having different sound image positions are simultaneously generated, the sounds are mixed. By the way, panning devices are often used or built into electronic musical instruments, pianos,
It is used to simulate relatively large instruments such as organs and vibraphones. This is because, in a large musical instrument such as a piano, the position at which a sound is emitted moves along with the scale, and is imitated by a panning device.

【0004】しかしながら、従来のパンニング装置にあ
っては、上述した欠点があるため、模倣の際に一応のパ
ンニング効果は得られるものの、個々の音の音像位置を
明確に識別することは困難であり、正確なシミュレート
ができないという問題があった。この発明は、上述した
事情に鑑みてなされたもので、音像位置の異なる複数の
音を同時に発音しても、各音の音像位置を明確に識別す
ることができ、かつ、音の広がり感および奥行き感も得
ることができる音像定位制御装置を提供することを目的
としている。
[0004] However, the conventional panning apparatus has the above-mentioned drawbacks, and although a tentative panning effect can be obtained at the time of imitation, it is difficult to clearly identify the sound image position of each sound. However, there is a problem that accurate simulation cannot be performed. The present invention has been made in view of the above-described circumstances, and even when a plurality of sounds having different sound image positions are simultaneously generated, the sound image positions of the sounds can be clearly identified, and the sound spread and It is an object of the present invention to provide a sound image localization control device capable of obtaining a sense of depth.

【0005】[0005]

【課題を解決するための手段】この発明は、上記課題を
解決するために、供給された信号を所定位置に各々音像
定位させる複数の音像定位手段(例えば後述するディレ
イDL10〜DL13、乗算器KL10〜KL13、乗
算器KR10〜KR13に相当する構成要素)と、複数
の入力部と、前記複数の入力部に供給される信号を前
記各音像定位手段のいずれにどのような比率で供給する
かを各信号毎に設定する発音対応位置設定手段(例えば
後述するマトリックスコントローラMTR1の機能の相
当する要素)と、前記発音対応位置設定手段の設定にし
たがって、前記複数の入力部に供給される前記信号を前
記複数の音像定位手段に供給する供給手段であって、前
記複数の入力部に供給される前記信号のうちの少なくと
も1つの信号を前記複数の音像定位手段のうちの少なく
とも2つの音像定位手段に供給するもの(例えば後述す
るマトリックスコントローラMTR1を構成する乗算器
M1〜M12、加算器IN10〜IN13に相当する構
成要素)と、を具備することを特徴とする。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a plurality of sound image localizing means (for example, a later-described directory controller) for localizing a supplied signal to a predetermined position.
DL10-DL13, multipliers KL10-KL13, power
A component) corresponding to adder KR10~KR13, a plurality of input portions, each signal or supplied in any ratio to any of the signals supplied to the plurality of input portions each sound image localization means Sound- corresponding position setting means (for example,
Aspects of the functions of the matrix controller MTR1 described later
And those elements), according to the settings of the sound corresponding position setting means, a supply means for supplying the signal to be supplied to the plurality of input to the plurality of sound image localization hand stage, before
At least one of the signals supplied to the plurality of inputs.
Also, one signal is output to at least one of the plurality of sound image localization means.
Both supplied to two sound image localization means (for example, described later).
Multiplier Constituting Matrix Controller MTR1
M1 to M12 and structures corresponding to the adders IN10 to IN13.
Component) .

【0006】[0006]

【作用】発音対応位置設定手段によって実際のスピーカ
の位置以外の広い空間に複数の仮想の音像位置(仮想的
なスピーカ)が設定される。そして、前記音像定位手段
によって、少なくとも1つの入力部に供給される信号
が、少なくとも2つの仮想の音像位置(仮想的なスピー
カ)に割り当てられる。これにより、任意の音像位置か
ら発音させることができる。
[Operation] A plurality of virtual sound image positions (virtual sound image positions ) are set in a wide space other than the actual speaker positions by the sound generation corresponding position
Speaker) is set. And a signal supplied to at least one input unit by the sound image localization means.
Are at least two virtual sound image positions (virtual speeds).
F) assigned to Thus, sound can be generated from an arbitrary sound image position.

【0007】[0007]

【実施例】【Example】

A:第1の実施例の構成 以下、図面を参照してこの発明の実施例について説明す
る。なお、以下の説明に際して、演奏者Pと楽器Iの位
置関係は図4に示すようになっているものとする。そし
て、横方向といった場合には同図矢印aの方向を指し、
縦方向といった場合には同図矢印bの方向を指すものと
する。図1(b)は、この発明の第1の実施例の外観の
概略を示す平面図である。図において、KBは鍵盤であ
り、各鍵が押下されると、その音高に対応した楽音波形
信号がトーンジェネレータ(図示略)から出力されるよ
うになっている。また、SP(L)およびSP(R)
は、各々左側および右側スピーカである。これらのスピ
ーカは、本体上面左側および右側に配置されている。
A: Configuration of First Embodiment Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the following description, it is assumed that the positional relationship between the player P and the musical instrument I is as shown in FIG. And in the case of a horizontal direction, it points to the direction of arrow a in the figure,
The vertical direction indicates the direction of arrow b in FIG. FIG. 1B is a plan view schematically showing the appearance of the first embodiment of the present invention. In the figure, KB is a keyboard, and when each key is pressed, a tone waveform signal corresponding to the pitch is output from a tone generator (not shown). SP (L) and SP (R)
Are left and right speakers, respectively. These speakers are arranged on the left and right sides of the upper surface of the main body.

【0008】次に、図1(a)は、同実施例の構成を示
すブロック図である。この図において、音像定位制御装
置1のチャンネルCh10〜Ch17(以下、総称する
場合にはチャンネルChとする)には、それぞれ、トー
ンジェネレータから出力された楽音波形信号が供給され
る。この場合、各チャンネルChに供給される楽音信号
は、音域に応じて割り当てられるようになっている。具
体的には、以下の通りに割り当てられている。すなわ
ち、最低音〜C1までの楽音波形信号は、チャンネルC
h10に供給され、C#1〜C2までの楽音波形信号
は、チャンネルCh11に供給される。以下同様にし
て、C#2〜F2、F#2〜C3、C#3〜F3、F#
3〜C4およびC#4〜C#5までの各楽音波形信号
は、チャンネルCh12,13,14,15,16に各
々供給され、D5〜最高音までの楽音波形信号は、チャ
ンネルCh17に供給される。
FIG. 1A is a block diagram showing the configuration of the embodiment. In this figure, a tone waveform signal output from a tone generator is supplied to each of channels Ch10 to Ch17 (hereinafter collectively referred to as channel Ch) of the sound image localization control device 1. In this case, the tone signal supplied to each channel Ch is assigned according to the sound range. Specifically, they are assigned as follows. That is, the tone waveform signal from the lowest tone to C1 is the channel C
h10, and the tone waveform signals of C # 1 to C2 are supplied to the channel Ch11. Similarly, C # 2 to F2, F # 2 to C3, C # 3 to F3, F #
The tone waveform signals 3 to C4 and C # 4 to C # 5 are supplied to channels Ch12, 13, 14, 15, and 16, respectively, and the tone waveform signals from D5 to the highest tone are supplied to channel Ch17. You.

【0009】次に、M1〜M12は各々乗算器であり、
上述したチャンネルCh1xを介して供給される楽音波
形信号に、各々係数CM1〜CM12を乗算する。IN
10〜IN13は各々加算器であり、乗算器M1〜M1
2の出力信号のうち所定のものが入力信号として供給さ
れる。上述した乗算器M1〜M12、加算器IN10〜
13およびチャンネルCh10〜Ch17は、各々マト
リックスコントローラMTR1の構成要素であり、各要
素の接続関係や配列関係は、制御信号等に基づいて任意
に変えられるようになっている。なお、マトリックスコ
ントローラMTR1の詳細については、後述する。DL
10〜DL13は各々加算器IN10〜IN13の出力
信号を遅延させるディレイであり、各ディレイは遅延時
間を異ならせた2つの出力端子を有している。
Next, M1 to M12 are multipliers, respectively.
The tone waveform signal supplied via the above-mentioned channel Ch1x is multiplied by coefficients CM1 to CM12, respectively. IN
10 to IN13 are adders, respectively, and multipliers M1 to M1
A predetermined one of the two output signals is supplied as an input signal. The multipliers M1 to M12 and the adders IN10 to
The channel 13 and the channels Ch10 to Ch17 are constituent elements of the matrix controller MTR1, and the connection relation and arrangement relation of each element can be arbitrarily changed based on a control signal or the like. The details of the matrix controller MTR1 will be described later. DL
Reference numerals 10 to DL13 denote delays for delaying the output signals of the adders IN10 to IN13, respectively, and each delay has two output terminals having different delay times.

【0010】ディレイDL10の出力端子TL10から
出力される信号は、乗算器KL10によって所定の係数
が乗算された後に、加算器AD10を介してクロストー
クキャンセラの一方の(左側発音用の)入力端子に供給
される。また、ディレイDL10の出力端子TR10か
ら出力される信号は乗算器KR10によって所定の係数
が乗算された後に加算器AD12およびAD13を介し
てクロストークキャンセラ2の他方の(右側発音用)の
入力端子に供給される。
The signal output from the output terminal TL10 of the delay DL10 is multiplied by a predetermined coefficient by a multiplier KL10, and then is applied to one input terminal (for left-side sound generation) of the crosstalk canceller via an adder AD10. Supplied. The signal output from the output terminal TR10 of the delay DL10 is multiplied by a predetermined coefficient by a multiplier KR10, and then, through adders AD12 and AD13, to the other input terminal (for right-side sound generation) of the crosstalk canceller 2. Supplied.

【0011】同様にして、ディレイDL11の出力端子
TL11から出力される信号は乗算器KL11および加
算器AD10を介してクロストークキャンセラ2の一方
の入力端に供給され、出力端子TR11から出力される
信号は乗算器KR11、加算器AD12およびAD13
を順次介してクロストークキャンセラ2の他方の入力端
に供給される。ディレイDL12の出力端子TL12か
ら出力される信号は、乗算器KL12、加算器AD11
およびAD10を介してクロストークキャンセラ2の一
方の入力端に供給され、出力端子TR12から出力され
る信号は乗算器KR12および加算器AD13を介して
クロストークキャンセラ2の他方の入力端に供給され
る。ディレイDL13の出力端子TL13から出力され
た信号は、乗算器KL13、加算器AD11および加算
器AD10を介してクロストークキャンセラ2の一方の
入力端に供給され、ディレイDL13の出力端子TR1
3から出力された信号は乗算器KR13および加算器A
D13を介してクロストークキャンセラ2の他方の入力
端に供給される。
Similarly, the signal output from the output terminal TL11 of the delay DL11 is supplied to one input terminal of the crosstalk canceller 2 via the multiplier KL11 and the adder AD10, and the signal output from the output terminal TR11. Is a multiplier KR11, adders AD12 and AD13
Are sequentially supplied to the other input terminal of the crosstalk canceller 2. The signal output from the output terminal TL12 of the delay DL12 is supplied to the multiplier KL12 and the adder AD11.
The signal supplied from the output terminal TR12 to the other input terminal of the crosstalk canceller 2 is supplied to the other input terminal of the crosstalk canceller 2 via the multiplier KR12 and the adder AD13. . The signal output from the output terminal TL13 of the delay DL13 is supplied to one input terminal of the crosstalk canceller 2 via the multiplier KL13, the adder AD11 and the adder AD10, and the output terminal TR1 of the delay DL13
3 is output to multiplier KR13 and adder A
It is supplied to the other input terminal of the crosstalk canceller 2 via D13.

【0012】クロストークキャンセラ2は、人間が音を
聞く際に生じるクロストーク、すなわち、右側の音が左
耳に入り込み左側の音が右耳に入り込む現象をキャンセ
ルするもので、図3(a)にその回路構成例を示す。こ
の回路は、ダミーヘッド及び人間の耳による頭部伝達関
数の実測値を元に左右両耳間の到達時間差、インパルス
応答のピーク値を求め、それに応じたディレイと重み付
けを行う。実測は、例えば、図3(b)に示すようにス
ピーカSP(L)、SP(R)が人Mを中心にして左右
45゜の向きに、距離1.5m離れているとして行われ
る。人Mの頭部伝達関数は左右対象であるので、スピー
カSP(L)、SP(R)のうちのどちらかを発音さ
せ、左右両耳間の到達時間差およびインパルス応答のピ
ーク値を実測する。そして、実測の結果、左右レベル差
が6dB(0.5)、左右時間差が200μsであった
とすると、図3(a)に示す回路の乗算器KL30,K
R32の係数を−0.5とし、ディレイDL30,DL
32の遅延時間を200μsとする。なお、図3(a)
に示す回路のディレイDL31,33および乗算器KL
31,KR33は位相の整合性をとるためのオールパス
フィルタを構成している。
The crosstalk canceller 2 cancels the crosstalk that occurs when a human hears the sound, that is, the phenomenon that the sound on the right enters the left ear and the sound on the left enters the right ear. Fig. 2 shows an example of the circuit configuration. This circuit calculates the arrival time difference between the left and right ears and the peak value of the impulse response based on the measured values of the head-related transfer functions of the dummy head and the human ear, and performs delay and weighting accordingly. The actual measurement is performed, for example, assuming that the speakers SP (L) and SP (R) are separated from each other by a distance of 1.5 m in the direction of 45 ° left and right about the person M as shown in FIG. Since the head-related transfer function of the person M is left-right symmetric, one of the speakers SP (L) and SP (R) is emitted, and the arrival time difference between the left and right ears and the peak value of the impulse response are measured. Then, as a result of the actual measurement, if the left and right level difference is 6 dB (0.5) and the left and right time difference is 200 μs, the multipliers KL30 and KL30 of the circuit shown in FIG.
The coefficient of R32 is -0.5, and the delays DL30 and DL
The delay time of 32 is 200 μs. FIG. 3 (a)
DL31, 33 and multiplier KL of the circuit shown in FIG.
Reference numerals 31, KR33 constitute an all-pass filter for achieving phase matching.

【0013】上述したクロストークキャンセラ2の左側
および右側の各出力信号は、図1(a)に示すように、
アンプ3によって増幅された後に、左側および右側の各
スピーカSP(L)およびSP(R)によって発音され
る。このようにして、クロストークキャンセラ2を介し
て発音された音を聞くと、聴感上クロストークが相殺さ
れ、左右のスピーカの音の分離が明瞭になる。
The output signals on the left and right sides of the above-described crosstalk canceller 2 are, as shown in FIG.
After being amplified by the amplifier 3, the sound is generated by the left and right speakers SP (L) and SP (R). In this manner, when the user hears the sound generated through the crosstalk canceller 2, the crosstalk is canceled out in terms of audibility, and the sound of the left and right speakers is clearly separated.

【0014】ここで、上記構成におけるディレイDL1
0〜13の機能について説明する。ディレイDL10を
例にとると、その出力端子TR10から出力される信号
は、乗算器KR10によって所定の係数が掛けられた後
に、右側のスピーカSP(R)によって発音され、ま
た、出力端子TL10から出力される信号は乗算器KL
10によって所定の係数が掛けられた後に左側のスピー
カSP(L)によって発音される。このとき、左右のス
ピーカについてのディレイ時間差、および左右のスピー
カへの音量比率によってディレイDL10を介して出力
される音の音像位置が決まる。この場合、左右の音量比
率だけでなく、左右のディレイ時間差をも設定している
ので、その音像位置は、実際のスピーカSP(L)およ
びSP(R)より遠く、かつ、両スピーカを結ぶ線から
外れた位置に設定することができる。すなわち、両スピ
ーカを結ぶ線から外れた任意の空間に音像位置を設定す
ることができる。言い替えれば、仮想的なスピーカを空
間の任意の位置に設定し、あたかもその位置から音が発
せられるようにすることができる訳である。そして、こ
の実施例においては、図1(b)の符号VS10によっ
て示される位置に発音位置が設定される。以下において
は、このような仮想位置の発音源を仮想スピーカとい
う。
Here, the delay DL1 in the above configuration
The functions 0 to 13 will be described. Taking the delay DL10 as an example, the signal output from the output terminal TR10 is multiplied by a predetermined coefficient by the multiplier KR10, then sounded by the right speaker SP (R), and output from the output terminal TL10. The signal to be output is a multiplier KL
After being multiplied by a predetermined coefficient by 10, the sound is generated by the left speaker SP (L). At this time, the sound image position of the sound output via the delay DL10 is determined by the delay time difference between the left and right speakers and the volume ratio to the left and right speakers. In this case, since not only the left and right volume ratios but also the left and right delay time differences are set, the sound image position is farther than the actual speakers SP (L) and SP (R) and a line connecting both speakers. It can be set at a position outside the range. That is, the sound image position can be set in an arbitrary space outside the line connecting the two speakers. In other words, the virtual speaker can be set at an arbitrary position in the space so that sound can be emitted from that position. Then, in this embodiment, the sound generation position is set at the position indicated by reference numeral VS10 in FIG. Hereinafter, a sound source at such a virtual position is referred to as a virtual speaker.

【0015】同様にして、ディレイDL11,DL1
2,DL13もそれぞれ仮想スピーカに対応し、各々図
1(b)に示す仮想スピーカVS11,VS12,VS
13を構成する。この場合、図1(b)に示すように、
仮想スピーカVS10〜VS13は、演奏者を中心にし
てほぼ円形に配置され、それぞれ演奏者からみて左方6
0゜,左方24゜,右方24゜、および右方60゜に配
置されている。
Similarly, delays DL11, DL1
2 and DL13 also correspond to the virtual speakers, respectively, and the virtual speakers VS11, VS12, and VS shown in FIG.
13. In this case, as shown in FIG.
The virtual speakers VS10 to VS13 are arranged in a substantially circular shape with the performer at the center.
0 °, 24 ° to the left, 24 ° to the right, and 60 ° to the right.

【0016】次に、マトリックスコントローラMTR1
の機能について説明する。前述のように、マトリックス
コントローラMTR1は、乗算器M1〜M12、加算器
IN10〜13およびチャンネルCh10〜Ch17の
接続関係や配列関係を制御するが、これは、各チャンネ
ルCh10〜Ch17の信号を仮想スピーカVS10〜
VS13にどのように割り当てるかを制御することにな
る。そして、どの仮想スピーカにどのような比率で割り
当てるかによって、各チャンネルChの音像位置が決定
される。言い替えれば、仮想スピーカVS10〜VS1
3に対するパンニングを制御し、各チャンネルの音像位
置を制御する。
Next, the matrix controller MTR1
The function of will be described. As described above, the matrix controller MTR1 controls the connection relation and the arrangement relation between the multipliers M1 to M12, the adders IN10 to 13, and the channels Ch10 to Ch17. VS10
It will control how to assign to VS13. Then, the sound image position of each channel Ch is determined depending on which ratio is assigned to which virtual speaker. In other words, the virtual speakers VS10 to VS1
3 is controlled, and the sound image position of each channel is controlled.

【0017】図1(a)に示す場合は、乗算器M1〜M
12の各係数を次のように設定して、仮想スピーカへの
配分比率を制御している。すなわち、CM1=0.75
(楽音波形信号と乗算することによって、この楽音波形
信号の音圧を2.5dB下げる),CM2=0.75,
CM3=0.25(楽音波形信号と乗算することによっ
て、この楽音波形信号の音圧を12dB下げる),CM
4=0.75,CM5=0.625(楽音波形信号と乗
算することによって、この楽音波形信号の音圧を4.0
8dB下げる),CM6=0.313(楽音波形信号と
乗算することによって、この楽音波形信号の音圧を1
0.08dB下げる),CM7=0.313,CM8=
0.625,CM9=0.75,CM10=0.25,
CM11=0.75,CM12=0.75である。
In the case shown in FIG. 1A, the multipliers M1 to M
Twelve coefficients are set as follows to control the distribution ratio to the virtual speakers. That is, CM1 = 0.75
(By multiplying the tone waveform signal, the sound pressure of the tone waveform signal is reduced by 2.5 dB), CM2 = 0.75
CM3 = 0.25 (by multiplying the tone waveform signal to lower the sound pressure of the tone waveform signal by 12 dB), CM
4 = 0.75, CM5 = 0.625 (By multiplying the tone waveform signal, the sound pressure of the tone waveform signal is increased to 4.0.
8dB lower), CM6 = 0.313 (multiplying by the musical tone waveform signal, the sound pressure of this musical tone waveform signal is reduced by 1)
0.08 dB), CM7 = 0.313, CM8 =
0.625, CM9 = 0.75, CM10 = 0.25
CM11 = 0.75, CM12 = 0.75.

【0018】次に、図2(a)に示す状態は、マトリッ
クスコントローラMTR1による他の配列である。この
例の場合は、仮想スピーカとなるディレイとしてディレ
イDL10とディレイDL13とを用いている。すなわ
ち、図2(b)に示すように、仮想スピーカVS10と
VS13の2つを用いて発音を行う。マトリックスコン
トローラMTR1は、チャンネルCh10〜Ch17の
信号を加算器IN10およびいIN13に適宜分配し、
それらの音像位置を制御する。この例の場合、乗算器M
1〜M14の係数は、各々CM1=0.75,CM2=
0.75,CM3=0.313,CM4=0.625,
CM5=0.375(楽音波形信号と乗算することによ
って、この楽音波形信号の音圧を8.5dB下げる),
CM6=0.5(楽音波形信号と乗算することによっ
て、この楽音波形信号の音圧を6dB下げる),CM7
=0.439(楽音波形信号と乗算することによって、
この楽音波形信号の音圧を7.16dB下げる),CM
8=0.439,CM9=0.5,CM10=0.37
5,CM11=0.625,CM12=0.313,C
M13=0.75,CM14=0.75に設定される。
Next, the state shown in FIG. 2A is another arrangement by the matrix controller MTR1. In the case of this example, the delay DL10 and the delay DL13 are used as delays serving as virtual speakers. That is, as shown in FIG. 2B, sound is generated using two virtual speakers VS10 and VS13. The matrix controller MTR1 appropriately distributes the signals of the channels Ch10 to Ch17 to the adders IN10 and IN13,
The positions of those sound images are controlled. In this example, the multiplier M
The coefficients of 1 to M14 are respectively CM1 = 0.75, CM2 =
0.75, CM3 = 0.313, CM4 = 0.625,
CM5 = 0.375 (by multiplying the tone waveform signal to lower the sound pressure of the tone waveform signal by 8.5 dB),
CM6 = 0.5 (by multiplying the tone waveform signal to lower the sound pressure of the tone waveform signal by 6 dB), CM7
= 0.439 (by multiplying the tone waveform signal,
The sound pressure of this tone waveform signal is reduced by 7.16 dB), CM
8 = 0.439, CM9 = 0.5, CM10 = 0.37
5, CM11 = 0.625, CM12 = 0.313, C
M13 = 0.75 and CM14 = 0.75 are set.

【0019】B:第1の実施例の動作 次に、上記構成によるこの実施例の動作について説明す
る。演奏者Pがキーボードを用いて演奏を行うと、操作
された各キーに応じた楽音波形信号が出力され、これが
音域別にチャンネルに振り分けられてマトリックスコン
トローラMTR1に入力される。今、マトリックスコン
トローラMTR1が図1(a)に示す状態であったとす
ると、楽音波形信号は、4つの仮想スピーカVS10〜
VS13から音域に応じて適宜出力される。
B: Operation of First Embodiment Next, the operation of this embodiment having the above configuration will be described. When the player P performs a performance using the keyboard, a musical tone waveform signal corresponding to each key operated is output, and the tone waveform signal is divided into channels according to a sound range and input to the matrix controller MTR1. Now, assuming that the matrix controller MTR1 is in the state shown in FIG. 1A, the tone waveform signals are output from the four virtual speakers VS10 to VS10.
VS13 outputs as appropriate according to the sound range.

【0020】詳細に言えば、次の通りである。まず、最
低音〜C1までの楽音波形信号は、仮想スピーカVS1
0から出力される。また、C#1〜C2までの楽音波形
信号は、仮想スピーカVS12とVS10から出力され
るが、乗算器M2、M3の係数のためその音像位置は、
仮想スピーカVS10に近い位置になる。すなわち、仮
想スピーカVS12とVS10を結ぶ直線上であって仮
想スピーカVS10に近い位置で発音される。また、C
#2〜F2までの楽音波形信号は仮想スピーカVS11
によって発音される。以下同様にして、各音域毎に所定
の音像位置で発音がなされ、これにより、各音域の楽音
波形信号の音像位置は、演奏者Pを中心にしたほぼ円形
のラインに沿って、左側から順次右側に移動する。した
がって、演奏者Pが低音側から高音側に向けて順次押鍵
を行うと、音像位置は上述した円形のラインに沿って左
側から右側に移動する。すなわち、音像の左右および前
後の位置が制御される。
The details are as follows. First, the musical tone waveform signals from the lowest tone to C1 are output from the virtual speaker VS1.
Output from 0. The musical sound waveform signals of C # 1 to C2 are output from the virtual speakers VS12 and VS10.
The position is close to the virtual speaker VS10. That is, the sound is generated at a position close to the virtual speaker VS10 on a straight line connecting the virtual speakers VS12 and VS10. Also, C
The tone waveform signals from # 2 to F2 are virtual speakers VS11.
Pronounced by In the same manner, sound is generated at a predetermined sound image position for each sound range, whereby the sound image position of the musical tone waveform signal in each sound range is sequentially arranged from the left side along a substantially circular line centered on the player P. Move to the right. Therefore, when the player P sequentially presses the keys from the low tone side to the high tone side, the sound image position moves from the left side to the right side along the above-mentioned circular line. That is, the left, right, front and back positions of the sound image are controlled.

【0021】一方、マトリックスコントローラMTR1
が図2(a)に示す状態の場合は、各音域の楽音波形信
号は、仮想スピーカVS10とVS13によって発音さ
れるので、これらの仮想スピーカを結んだ直線上におい
て音像位置が制御される。したがって、前後方向の音の
広がりは、図1(a)に示す場合に較べて劣るが、実際
のスピーカSP(L)、SP(R)で発音するより、左
右および前後方向ともに音が広がる。上述したように、
この実施例によれば、マトリックスコントローラMTR
1による楽音波形信号の配分方法を変えることにより、
音像位置の制御態様を容易に切り替えることができる。
On the other hand, the matrix controller MTR1
In the state shown in FIG. 2A, the tone waveform signals in each range are generated by the virtual speakers VS10 and VS13, and the sound image position is controlled on a straight line connecting these virtual speakers. Therefore, the sound spread in the front-back direction is inferior to the case shown in FIG. 1A, but the sound spreads in the left-right direction and the front-back direction as compared with the actual speakers SP (L) and SP (R). As mentioned above,
According to this embodiment, the matrix controller MTR
By changing the method of distributing the musical tone waveform signal by (1),
The control mode of the sound image position can be easily switched.

【0022】C:第1の実施例の変形例 図5は前述した第1の実施例の変形例を示すブロック図
である。この変形例は、仮想スピーカを構成するディレ
イがDL50からDL57まで8個設けられている。ま
た、図示しないがマトリックスコントローラMTR1内
の加算器もディレイDL50〜DL57に対応して8個
設けられている。このような構成によれば、8個の仮想
スピーカに楽音波形信号を適宜割り振ることができるの
で、より細かな音像定位制御を行うことができる。
C: Modification of First Embodiment FIG. 5 is a block diagram showing a modification of the first embodiment. In this modification, eight delays constituting the virtual speaker are provided from DL50 to DL57. Although not shown, eight adders in the matrix controller MTR1 are also provided corresponding to the delays DL50 to DL57. According to such a configuration, a musical tone waveform signal can be appropriately allocated to the eight virtual speakers, so that finer sound image localization control can be performed.

【0023】D:第2の実施例の構成および動作 次に、図6を参照して本発明の第2の実施例について説
明する。なお、図示しない部分の構成は、前述した第1
の実施例と同様になっている。この図において、STR
60〜STR65は、各々トーンジェネレータであり、
MIDI信号(Musical Instrument Digital Interface
規格による信号)によって制御される。すなわち、トー
ンジェネレータSTR60〜STR65のうち、MID
I信号によって指定されたものが、同MIDI信号によ
って指定された音高の楽音波形信号を発生する。これら
トーンジェネレータSTR60〜STR65の各出力信
号は、各々仮想スピーカを構成するディレイDL60〜
DL65に供給される。ディレイDL60〜DL65の
各出力信号は、所定の係数が掛けられた後に加算器VS
R1〜VSR4またはVSL1〜VSL4によって加算
されてクロストークキャンセラ2(図1参照)に供給さ
れる。
D: Configuration and Operation of Second Embodiment Next, a second embodiment of the present invention will be described with reference to FIG. The configuration of the portion not shown is the same as that of the first
This is the same as the embodiment. In this figure, STR
60 to STR65 are tone generators, respectively.
MIDI signal (Musical Instrument Digital Interface
Standardized signal). That is, of the tone generators STR60 to STR65,
The signal designated by the I signal generates a tone waveform signal having the pitch designated by the MIDI signal. The output signals of the tone generators STR60 to STR65 are respectively output to delays DL60 to DL60 constituting a virtual speaker.
DL65. The output signals of the delays DL60 to DL65 are added to the adder VS after being multiplied by a predetermined coefficient.
The signals are added by R1 to VSR4 or VSL1 to VSL4 and supplied to the crosstalk canceller 2 (see FIG. 1).

【0024】上記構成によれば、各トーンジェネレータ
毎に所定の仮想スピーカから発音がなされる。そこで、
例えば、トーンジェネレータSTR60〜STR65に
ギターの各弦の音を発音させると、ギターの発音状態を
良好にシミュレートすることができる。これは次の理由
による。すなわち、ギターがリスナーの近くにある場合
には、弦とリスナーの耳とが近接しているので、各弦の
音がそれぞれ分離して聞こえるが、ギターとリスナーと
が離れるに従って、各弦の分離感は次第に低下し、最後
には1点で鳴っているように聞こえる。したがって、上
述したディレイDL60〜DL65のディレイ時間およ
びその出力信号に掛ける係数を適切に設定することによ
り、楽器音の距離感をリスナーに与えることができる。
According to the above configuration, sound is generated from a predetermined virtual speaker for each tone generator. Therefore,
For example, when the tone generators STR60 to STR65 emit the sound of each string of the guitar, the sounding state of the guitar can be simulated well. This is for the following reason. That is, when the guitar is close to the listener, the strings and the ears of the listener are close to each other, so that the sound of each string can be heard separately. The sensation gradually diminishes, and at the end it sounds like it's ringing at one point. Therefore, by appropriately setting the delay times of the above-described delays DL60 to DL65 and the coefficient to be multiplied by the output signal, it is possible to give the listener a sense of distance of the instrument sound.

【0025】この場合、ディレイによって実現すべき音
源までの距離は図7に示すようにして求められる。図に
おいて、rは人Mの頭部の半径、dは頭部の中心から音
源までの距離、θは音源の角度である。そして、右耳と
音源との距離dr、左耳と音源との距離dlは、各々図
示する式によって求められるから、各弦についてこれら
の距離を求め、それをディレイDL60〜DL65によ
って実現すればよい。なお、上述した実施例において
は、音像定位制御装置1のマトリックスコントローラM
TR1の結線および各乗算器に与えられる計数は、ユー
ザが任意に設定可能にしてなり、また、この結線および
各係数を複数パターン予め記憶しておき、ユーザがその
パターンを選択するようにしてもよい。
In this case, the distance to the sound source to be realized by the delay is obtained as shown in FIG. In the figure, r is the radius of the head of the person M, d is the distance from the center of the head to the sound source, and θ is the angle of the sound source. Since the distance dr between the right ear and the sound source and the distance dl between the left ear and the sound source can be obtained by the equations shown in the drawing, these distances can be obtained for each string, and this can be realized by the delays DL60 to DL65. . In the embodiment described above, the matrix controller M of the sound image localization control device 1
The connection of TR1 and the count given to each multiplier can be arbitrarily set by the user, and the connection and each coefficient may be stored in advance in a plurality of patterns, and the user may select the pattern. Good.

【0026】E:音像定位制御装置を適用したゲーム機
の構成および動作 次に、上述した音像定位制御装置1を適用したゲーム機
について図8ないし図10を参照して説明する。図8は
上記ゲーム機9の構成を示すブロック図である。図にお
いて、コントローラ10は、図示しないジョイスティッ
クや、トラックボール、および各種ボタンスイッチ等か
らなり、これらの操作状態を制御部11へ出力する。制
御部11は図示しないCPU、各種インターフエイスか
らなり、プログラムメモリ12に格納されたゲームプロ
グラムを実行し、ゲームを進行させるとともに、ゲーム
機全体の制御を行なう。また、ワークメモリ13には、
上記ゲームプログラムの実行時に得られた各種データ等
が記憶される。画像情報メモリ14は、実行されるゲー
ムプログラムに応じて、表示すべき画像データとして、
例えば、キャラクタC1,C2,C3および背景BG
1,BG2,BG3(以下、総称してBGという)等を
記憶している。キャラクタC1,C2,C3(以下、総
称してCという)は、例えば、人間、自動車、飛行機、
あるいは動物等、いかなる種類のものでもよい。これら
の画像データはゲーム進行時に読み出され、ゲームの進
行に応じて、ディスプレイ15の所定の位置に、所定の
大きさで表示される。
E: Configuration and operation of a game machine to which the sound image localization control device is applied Next, a game machine to which the above-described sound image localization control device 1 is applied will be described with reference to FIGS. FIG. 8 is a block diagram showing a configuration of the game machine 9. 1, a controller 10 includes a joystick (not shown), a trackball, various button switches, and the like. The control unit 11 includes a CPU (not shown) and various interfaces, executes a game program stored in the program memory 12, advances the game, and controls the entire game machine. The work memory 13 has
Various data and the like obtained during execution of the game program are stored. The image information memory 14 stores image data to be displayed according to a game program to be executed.
For example, characters C1, C2, C3 and background BG
1, BG2, BG3 (hereinafter collectively referred to as BG) and the like. The characters C1, C2, and C3 (hereinafter collectively referred to as C) are, for example, humans, cars, airplanes,
Alternatively, it may be of any kind, such as an animal. These image data are read out during the progress of the game, and are displayed at a predetermined position on the display 15 in a predetermined size according to the progress of the game.

【0027】次に、座標−音像定位係数変換メモリ16
には、ディスプレイ15上におけるキャラクタCの位置
を2次元空間における音像位置に対応させるためのパラ
メータが記憶されている。ここで、図9に上記座標−音
像定位係数変換メモリ16の構成を示す。また、図10
にプレーヤPとゲーム機9の実空間における位置関係を
示す。図9に示すように、座標−音像定位係数変換メモ
リ16におけるX−Y座標は、ディスプレイ15のX−
Y座標に対応するよう構成されており、ディスプレイ1
5におけるキャラクタCの位置を示すX,Yの値に対す
る各々の位置に、音源17の出力チャンネル番号CH、
および音像定位制御装置1の乗算器M1〜M12に供給
すべき係数CM1〜CM12のいくつかが記憶されてい
る。例えば、図示する領域ARには、出力チャンネル番
号CHとして「13」が記憶されており、乗算器M5に
供給すべき係数CM5として「0.6」、乗算器M6に
供給すべき係数CM6として「0.8」が記憶されてい
る。
Next, the coordinate-sound image localization coefficient conversion memory 16
Stores parameters for causing the position of the character C on the display 15 to correspond to the sound image position in the two-dimensional space. Here, FIG. 9 shows the configuration of the coordinate-sound image localization coefficient conversion memory 16. FIG.
3 shows a positional relationship between the player P and the game machine 9 in the real space. As shown in FIG. 9, the XY coordinates in the coordinate-sound image localization coefficient conversion memory 16 are the X-Y coordinates of the display 15.
The display 1 is configured to correspond to the Y coordinate.
5, the output channel number CH of the sound source 17 is provided at each position corresponding to the values of X and Y indicating the position of the character C in
Some of the coefficients CM1 to CM12 to be supplied to the multipliers M1 to M12 of the sound image localization control device 1 are stored. For example, in the illustrated area AR, “13” is stored as the output channel number CH, “0.6” is the coefficient CM5 to be supplied to the multiplier M5, and “0.6” is the coefficient CM6 to be supplied to the multiplier M6. 0.8 "is stored.

【0028】また、上記座標−音像定位係数変換メモリ
16におけるX−Y座標は、図10に示す実空間におけ
るX−Y座標にも対応している。すなわち、ディスプレ
イ15上におけるキャラクタCの位置は、図10に示す
プレーヤがいる実際の空間(2次元)に対応している。
したがって、上述したパラメータを適宜設定しておけ
ば、キャラクタCの位置に対応した実空間の位置から音
が発せられることになる。なお、座標−音像定位係数変
換メモリ16は、ディスプレイ15の表示範囲より大と
なるよう構成されており、ディスプレイ15に表示でき
ない座標にキャラクタCがあると想定される場合でも、
キャラクタCの座標に対応する実空間の位置から音が発
せられるように、チャンネル番号CHおよび係数CM1
〜CM12のいくつかが記憶されるようになっている。
また、キャラクタCの位置は、プログラムメモリ12に
格納されたゲームプログラムに基づき、ゲームの進行に
応じて自動的に変更制御されるか、あるいはコントロー
ラ10の操作に応じて変更制御される。
The XY coordinates in the coordinate-sound image localization coefficient conversion memory 16 also correspond to the XY coordinates in the real space shown in FIG. That is, the position of the character C on the display 15 corresponds to the actual space (two-dimensional) where the player is located as shown in FIG.
Therefore, if the above-mentioned parameters are appropriately set, a sound is emitted from a position in the real space corresponding to the position of the character C. Note that the coordinate-sound image localization coefficient conversion memory 16 is configured to be larger than the display range of the display 15, and even if it is assumed that the character C exists at coordinates that cannot be displayed on the display 15,
The channel number CH and the coefficient CM1 are set so that sound is emitted from a position in the real space corresponding to the coordinates of the character C.
~ CM12 are stored.
Further, the position of the character C is controlled to be automatically changed according to the progress of the game, or is controlled to be changed according to the operation of the controller 10, based on the game program stored in the program memory 12.

【0029】次に、音源17は、時分割で動作する複数
の発音チャンネルを有し、制御部11の指示に応じて楽
音波形信号を生成するとともに、生成した楽音波形信号
を音像定位制御装置1の8つのチャンネルCh10〜C
h17のうちのいずれか1つ、あるいは複数のチャンネ
ルに出力する。特に、キャラクタCに関する楽音波形信
号は、上述した出力チャンネル番号CHで示されるチャ
ンネルChに出力される。また、音像定位制御装置1
は、図1(a)に示す構成であって、上記乗算器M1〜
M12に所定の係数CM1〜CM12を供給し、各チャ
ンネルChの音像位置を制御してスピーカSP(L),
SP(R)により発音する。
Next, the sound source 17 has a plurality of sounding channels operating in a time-division manner, generates a musical tone waveform signal in accordance with an instruction from the control unit 11, and converts the generated musical tone waveform signal into the sound image localization control device 1. 8 channels Ch10-C
h17 to one or a plurality of channels. In particular, the tone waveform signal relating to the character C is output to the channel Ch indicated by the output channel number CH described above. In addition, the sound image localization control device 1
Has the configuration shown in FIG.
M12 is supplied with predetermined coefficients CM1 to CM12, and controls the sound image position of each channel Ch to control the speakers SP (L),
Generated by SP (R).

【0030】上述した構成によれば、ゲーム機9に電源
が投入されると、制御部11がプログラムメモリ12に
記憶されたプログラムを実行し、ゲームを進行する。ゲ
ームの進行に応じて、画像情報メモリ14から背景BG
1,BG2,BG3のいずれかが読み出されてディスプ
レイ15に表示される。また、同様に、キャラクタC
1,C2,C3のいずれかが読み出されてディスプレイ
15に表示される。一方、制御部11は、ゲームの進行
に応じたBGMの楽音波形信号の生成を音源17に指示
する。また、制御部11は、上記キャラクタCに対応し
た楽音特性(音色、音高、効果等)の楽音波形信号の生
成を音源17に指示するとともに、上記キャラクタCの
ディスプレイ15上の表示位置に対応した、座標−音像
定位係数変換メモリ16の位置の出力チャンネル番号C
Hと係数CM(CM1〜CM12)を読み込み、各々、
音源17および音像定位制御装置1へ供給する。音源1
7によって生成されたキャラクタCに対応した楽音波形
信号は、上記出力チャンネル番号CHによって示される
チャンネルChから音像定位制御装置1へ出力される。
また、その他の楽音波形信号も所定のチャンネルChか
ら音像定位制御装置1へ出力される。音像定位制御装置
1においては、座標−音像定位係数変換メモリ16から
読み出された係数CMが乗算器M1〜M12に供給さ
れ、この係数CMに応じて各チャンネルの音像位置が制
御されてスピーカSP(L),SP(R)により発音さ
れる。
According to the configuration described above, when the game machine 9 is powered on, the control unit 11 executes the program stored in the program memory 12 and proceeds with the game. The background BG is read from the image information memory 14 according to the progress of the game.
One of BG1, BG2 and BG3 is read and displayed on the display 15. Similarly, character C
One of C1, C2 and C3 is read and displayed on the display 15. On the other hand, the control unit 11 instructs the sound source 17 to generate a tone waveform signal of BGM according to the progress of the game. Further, the control unit 11 instructs the sound source 17 to generate a tone waveform signal having a tone characteristic (tone, pitch, effect, and the like) corresponding to the character C, and corresponds to the display position of the character C on the display 15. The output channel number C at the position of the coordinate-sound image localization coefficient conversion memory 16
H and coefficients CM (CM1 to CM12) are read, and
It is supplied to the sound source 17 and the sound image localization control device 1. Sound source 1
The tone waveform signal corresponding to the character C generated by 7 is output to the sound image localization control device 1 from the channel Ch indicated by the output channel number CH.
Further, other tone waveform signals are also output to the sound image localization control device 1 from the predetermined channel Ch. In the sound image localization control device 1, the coefficient CM read from the coordinate-sound image localization coefficient conversion memory 16 is supplied to the multipliers M1 to M12, and the sound image position of each channel is controlled in accordance with the coefficient CM, and the speaker SP (L) and SP (R).

【0031】また、プレーヤPがキャラクタCを移動さ
せる意図でコントローラ10を操作すると、制御部11
は、その操作量に応じて、ディスプレイ15上における
キャラクタCを移動させ、その表示位置を変えるととも
に、新たな表示位置に対応した、座標−音像定位係数変
換メモリ16の位置の出力チャンネル番号CHと係数C
Mを読み込み、各々、音源17および音像定位制御装置
1へ供給する。したがって、実空間における音像位置も
キャラクタCの移動に伴って移動する。本実施例によれ
ば、例えば、飛行機のキャラクタCがディスプレイ15
の表示範囲外で、かつ、プレーヤPの背後から近づく場
合は、ディスプレイ15上には表示されない。しかし、
座標−音像定位係数変換メモリ16は、ディスプレイ1
5の表示範囲より大なる領域が設けられているため、上
記キャラクタCの音がプレーヤPの背後から近づくよう
に発せられる。この結果、飛行機の存在と動きが分り、
これまでのゲーム機になかったような臨場感が得られ
る。なお、上記実施例では、2次元座標でキャラクタC
の動きを管理しているが、これに限定されることなく、
3次元座標でもよい。この時、実在スピーカの数を増や
し、3次元上に実在スピーカを配置すればよい。
When the player P operates the controller 10 with the intention of moving the character C, the controller 11
Moves the character C on the display 15 in accordance with the operation amount, changes the display position, and sets the output channel number CH of the position of the coordinate-sound image localization coefficient conversion memory 16 corresponding to the new display position. Coefficient C
M are read and supplied to the sound source 17 and the sound image localization control device 1, respectively. Therefore, the sound image position in the real space also moves with the movement of the character C. According to the present embodiment, for example, the character C of the airplane is displayed on the display 15.
Are not displayed on the display 15 when the player is approaching from behind the player P and outside the player P. But,
The coordinate-sound image localization coefficient conversion memory 16 stores the display 1
Since the area larger than the display range of No. 5 is provided, the sound of the character C is emitted so as to approach from behind the player P. As a result, the presence and movement of the airplane can be understood,
A sense of realism that is not available in conventional game machines can be obtained. In the above embodiment, the character C is represented by two-dimensional coordinates.
, But without being limited to this,
It may be three-dimensional coordinates. At this time, the number of the real speakers may be increased and the real speakers may be arranged three-dimensionally.

【0032】また、上記実施例では、ディスプレイ15
のX−Y座標を図10に示す実空間におけるX−Y座標
に対応するようにしているが、例えば、自動車レースの
ゲームのように、プレーヤPの前方に位置するキャラク
タCのみをディスプレイ15に表示するようにして、プ
レーヤPの視覚範囲とディスプレイ15の表示とを一致
させるようにしてもよい。
In the above embodiment, the display 15
Are made to correspond to the XY coordinates in the real space shown in FIG. 10. For example, only the character C located in front of the player P is displayed on the display 15 as in a car racing game. The display may be performed so that the visual range of the player P matches the display on the display 15.

【0033】[0033]

【発明の効果】以上説明したように、この発明によれ
ば、発音対応位置設定手段および供給手段により、複数
の入力部に供給される信号を選択的に複数の音像定位手
段に供給するようにしたので、音像位置の異なる複数の
音を同時に発音しても、各音の音像位置を明確に識別す
ることができる。しかも、発音対応位置設定手段によ
り、複数の音像定位手段のいずれにどのような比率で各
楽音波形信号を供給するかを設定するとともに、供給手
段により、発音対応位置設定手段の設定に従って信号を
少なくとも2つの音像定位手段に供給するようにしたの
で、音像定位位置を多彩に変化させることが可能とな
る。
As described above, according to the present invention , a plurality of sound-generating position setting means and supply means can be used.
The signals supplied to the input section of the
Since then supplied to the stage, even if pronunciation different sound of the sound image position at the same time, Ru can clearly identify the sound image position of each note. Moreover, the sound-corresponding position setting means
Of each of the multiple sound image localization means
Set whether to supply the tone waveform signal and
By the step, the signal is generated according to the setting of the sound-corresponding position setting means.
To supply at least two sound image localization means
It is possible to change the sound image localization position in various ways.
You.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 音像定位制御装置のブロック図および外観概
略平面図である。
FIG. 1 is a block diagram and an external schematic plan view of a sound image localization control device.

【図2】 マトリックスコントローラMTR1による他
の実施例の構成を示すブロック図および外観概略平面図
である。
FIG. 2 is a block diagram and a schematic external plan view showing a configuration of another embodiment using a matrix controller MTR1.

【図3】 クロストークキャンセラの構成を示すブロッ
ク図および設定例を示す外観概略平面図である。
FIG. 3 is a block diagram showing a configuration of a crosstalk canceller and an outline schematic plan view showing a setting example.

【図4】 演奏者と楽器の関係を示す外観概略平面図で
ある。
FIG. 4 is a schematic plan view showing the external appearance of a relationship between a player and a musical instrument.

【図5】 音像定位制御装置のブロック図である。FIG. 5 is a block diagram of a sound image localization control device.

【図6】 音像定位制御装置のブロック図である。FIG. 6 is a block diagram of a sound image localization control device.

【図7】 種々のパラメータを説明するための概念図で
ある。
FIG. 7 is a conceptual diagram for explaining various parameters.

【図8】 音像定位制御装置を適用したゲーム装置の構
成を示すブロック図である。
FIG. 8 is a block diagram illustrating a configuration of a game device to which the sound image localization control device is applied.

【図9】 図8に示す座標−音像定位係数変換メモリを
説明するための概念図である。
FIG. 9 is a conceptual diagram for explaining a coordinate-sound image localization coefficient conversion memory shown in FIG. 8;

【図10】 ゲームプレーヤとゲーム機の位置関係を示
す平面図である。
FIG. 10 is a plan view showing a positional relationship between a game player and a game machine.

【符号の説明】[Explanation of symbols]

1……音像定位制御装置のブロック図、Ch10〜Ch
17……チャンネル、M1〜M14……乗算器、IN1
0〜IN13……加算器、DL10〜DL13……ディ
レイ、AD10〜AD13……加算器、2……クロスト
ークキャンセラ、3……アンプ、SP(L),SP
(R)……スピーカ、MTR1……マトリックスコント
ローラ、VS10〜VS13……仮想スピーカ。
1. Block diagram of sound image localization control device, Ch10 to Ch
17 channel, M1 to M14 multiplier, IN1
0 to IN13 Adder, DL10 to DL13 Delay, AD10 to AD13 Adder 2, Crosstalk canceller 3, Amplifier, SP (L), SP
(R): speaker, MTR1: matrix controller, VS10 to VS13: virtual speaker.

フロントページの続き (56)参考文献 特開 平4−90300(JP,A) 特開 平4−125692(JP,A) 特開 昭57−67995(JP,A) 特開 昭49−52618(JP,A) 特開 平3−98096(JP,A) 特開 平3−103900(JP,A) 米国特許5581618(US,A) 米国特許5822438(US,A) 米国特許4685134(US,A) 米国特許5046097(US,A) 欧州特許563929(EP,B1) (58)調査した分野(Int.Cl.6,DB名) G10H 1/00 G10K 15/12 H04S 1/00 H04S 7/00 Continuation of the front page (56) References JP-A-4-90300 (JP, A) JP-A-4-125692 (JP, A) JP-A-57-67995 (JP, A) JP-A-49-52618 (JP, A) JP-A-3-98096 (JP, A) JP-A-3-103900 (JP, A) US Patent 5,816,618 (US, A) US Patent 5,822,438 (US, A) US Patent 4,851,134 (US, A) US Patent 5046097 (US, A) European Patent 563929 (EP, B1) (58) Fields investigated (Int. Cl. 6 , DB name) G10H 1/00 G10K 15/12 H04S 1/00 H04S 7/00

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 供給された信号を所定位置に各々音像定
位させる複数の音像定位手段と、 複数の入力部と、 前記複数の入力部に供給される信号を前記各音像定位
手段のいずれにどのような比率で供給するかを各信号毎
設定する発音対応位置設定手段と、 前記発音対応位置設定手段の設定にしたがって、前記複
数の入力部に供給される前記信号を前記複数の音像定位
段に供給する供給手段であって、前記複数の入力部に
供給される前記信号のうちの少なくとも1つの信号を前
記複数の音像定位手段のうちの少なくとも2つの音像定
位手段に供給するものと、 を具備することを特徴とする音像定位制御装置。
A plurality of sound image localization means for 1. A respectively sound image localization signals supplied to the predetermined position, and a plurality of inputs, each signal supplied to the plurality of input to any of the respective sound image localization means What ratio to supply for each signal
In pronunciation and corresponding position setting means, the sound corresponding according to the setting of the position setting means, supply means for supplying the signal to be supplied to the plurality of input to the plurality of sound image localization <br/> means to set And the plurality of input units
Preceding at least one of said signals to be supplied
At least two of the plurality of sound image localization means.
Sound image localization control apparatus characterized by comprising the supplies to the position means.
JP5014287A 1992-04-03 1993-01-29 Sound image localization control device Expired - Fee Related JP2973764B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP5014287A JP2973764B2 (en) 1992-04-03 1993-01-29 Sound image localization control device
EP93105352A EP0563929B1 (en) 1992-04-03 1993-03-31 Sound-image position control apparatus
DE69322805T DE69322805T2 (en) 1992-04-03 1993-03-31 Method of controlling sound source position
US08/378,478 US5822438A (en) 1992-04-03 1995-01-26 Sound-image position control apparatus
US08/379,771 US5581618A (en) 1992-04-03 1995-01-27 Sound-image position control apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4-82457 1992-04-03
JP8245792 1992-04-03
JP5014287A JP2973764B2 (en) 1992-04-03 1993-01-29 Sound image localization control device

Publications (2)

Publication Number Publication Date
JPH0651759A JPH0651759A (en) 1994-02-25
JP2973764B2 true JP2973764B2 (en) 1999-11-08

Family

ID=26350204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5014287A Expired - Fee Related JP2973764B2 (en) 1992-04-03 1993-01-29 Sound image localization control device

Country Status (1)

Country Link
JP (1) JP2973764B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8233629B2 (en) * 2008-09-04 2012-07-31 Dts, Inc. Interaural time delay restoration system and method
WO2012054750A1 (en) * 2010-10-20 2012-04-26 Srs Labs, Inc. Stereo image widening system
JP5668765B2 (en) 2013-01-11 2015-02-12 株式会社デンソー In-vehicle acoustic device

Also Published As

Publication number Publication date
JPH0651759A (en) 1994-02-25

Similar Documents

Publication Publication Date Title
US5581618A (en) Sound-image position control apparatus
US7563973B2 (en) Method for making electronic tones close to acoustic tones, recording system for the acoustic tones, tone generating system for the electronic tones
EP0207084A1 (en) Spatial reverberation.
JPH0792968A (en) Sound image localization device of electronic musical instrument
Boulez et al. Computers in music
JP2973764B2 (en) Sound image localization control device
Savioja et al. Virtual environment simulation-Advances in the DIVA project
GB1580819A (en) Programmable rhythm unit
JP2751258B2 (en) Sound image localization device
JPH08234731A (en) Electronic musical instrument
JP2605885B2 (en) Tone generator
JP2003122374A (en) Surround sound generating method, and its device and its program
JP3089421B2 (en) Sound processing device
USRE38276E1 (en) Tone generating apparatus for sound imaging
JP3061403B2 (en) Electronic musical instrument
JP6862021B1 (en) How to generate stereophonic sound
US6445798B1 (en) Method of generating three-dimensional sound
JP2018180374A (en) Resonance sound controller and localization control method of resonance sound
JP2629874B2 (en) Music parameter controller
JP2650487B2 (en) How to add reverberation to electronic musical instruments
JPH0267599A (en) Musical sound generating device
JPH1070798A (en) Three-dimensional sound reproducing device
JP2605821B2 (en) Music control device
JP2508366B2 (en) Sound image localization control device
JPH087434Y2 (en) Electronic musical instrument

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990803

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070903

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees