JPH02129696A - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JPH02129696A
JPH02129696A JP63282795A JP28279588A JPH02129696A JP H02129696 A JPH02129696 A JP H02129696A JP 63282795 A JP63282795 A JP 63282795A JP 28279588 A JP28279588 A JP 28279588A JP H02129696 A JPH02129696 A JP H02129696A
Authority
JP
Japan
Prior art keywords
signal processing
sound
pitch
component
processing means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63282795A
Other languages
Japanese (ja)
Other versions
JP2770353B2 (en
Inventor
Takeshi Kutaragi
久多良木 健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP63282795A priority Critical patent/JP2770353B2/en
Publication of JPH02129696A publication Critical patent/JPH02129696A/en
Application granted granted Critical
Publication of JP2770353B2 publication Critical patent/JP2770353B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To realize the reproduction of a multi-recorded sound by a small number of signal processing circuits by putting the signal processing output of a non-interval component and the signal processing output of an interval component together at the time of the reproduction and reproducing the non- interval component and interval component continuously. CONSTITUTION:This musical instrument is provided with sound signal processing means 20A, 20B to 20H and a storage means 14V which is with pieces of musical sound information divided into the non-interval component and interval component, one sound signal processing means 20A performs the signal processing of one non-interval signal, and the remaining sound signal processing means 20B - 20H performs the signal processing of one interval component. When the sound is reproduced, the output signal of the sound signal processing means 20A and the output signals of the sound signal processing means 20B - 20H are put together and the non-interval component and interval component are reproduced continuously. Consequently, the reproduction of the multi- recorded sound is realized by the processing means 20A - 20H.

Description

【発明の詳細な説明】 以下の順序で本発明を説明する。[Detailed description of the invention] The present invention will be explained in the following order.

A 産業上の利用分野 B 発明の概要 従来の技術 発明が解決しようとする課題 課題を解決するための手段(第1図) 作用 実施例 Gl 実施例の全体の構成(第3図) G2実施例の要部の構成(第1図、第2図)G、実施例
の動作 G、他の実施例の説明(第5図〉 H発明の効果 A 産業上の利用分野 本発明は、例えばコンビエータを使用した電子ゲーム機
器の効果音発生装置に使用して好適な電子楽器に関する
A Industrial field of application B Summary of the invention Means for solving the problem to be solved by the conventional technical invention (Fig. 1) Working example Gl Overall structure of the example (Fig. 3) G2 example Structure of essential parts (Figs. 1 and 2) G, Operation of the embodiment G, Description of other embodiments (Fig. 5) H Effect of the invention A Industrial application field The present invention is applicable to, for example, a combiator. The present invention relates to an electronic musical instrument suitable for use in a sound effect generating device for an electronic game machine.

B 発明の概要 本発明は、例えば電子ゲーム機器の効果音発生用に使用
して好適な電子楽器において、複数の楽音情報を非音程
成分と音程成分とに分割し、この内の非音程成分を1系
統程度の処理手段で処理し、音程成分を楽音毎に別系統
の処理手段で処理するようにして、少ない系統の処理手
段で良好な多重音が再生されるようにしたものである。
B. Summary of the Invention The present invention provides an electronic musical instrument suitable for use, for example, in generating sound effects for electronic game machines, in which a plurality of pieces of musical tone information are divided into non-pitch components and pitch components, and the non-pitch components are divided into non-pitch components. The tones are processed by about one system of processing means, and the pitch components are processed by different systems of processing means for each musical tone, so that good multiple tones can be reproduced with a small number of systems of processing means.

C従来の技術 従来、電子楽器の音源またはゲーム機の効果音の音源と
して、例えば方形波信号をそれぞれ分周比及びデユーテ
ィ比が異なる複数のプリセット分周器に供給し、各分周
器から出力される個々の音源信号(いわゆるボイス)を
適宜のレベルで合成するものがあった。原発振波形とし
ては、3角波、正弦波等も用いられる。
C. Prior Art Conventionally, as a sound source for electronic musical instruments or sound effects for game machines, for example, a square wave signal is supplied to a plurality of preset frequency dividers each having a different frequency division ratio and duty ratio, and is output from each frequency divider. There was one that synthesized individual sound source signals (so-called voices) at an appropriate level. As the original oscillation waveform, a triangular wave, a sine wave, etc. are also used.

また、楽器によっては、例えばピアノやドラムのように
、全発音期間がアタック、デイケイ、サスティン及びリ
リースの4区間に分けられ、各区間で信号の振幅(レベ
ル)が特有の変化状態を呈するものがあり、これに対応
するため、各ボイスの信号レベルが同様に変化するよう
に、いわゆるADSR制御が行なわれる。
Furthermore, for some instruments, such as pianos and drums, the entire sound generation period is divided into four sections: attack, decay, sustain, and release, and the amplitude (level) of the signal exhibits a unique change state in each section. To cope with this, so-called ADSR control is performed so that the signal level of each voice changes in the same way.

一方、電子楽器用の音源として、正弦波信号を低周波数
の正弦波信号で周波数変調(FM)した、いわゆるFM
音源が知られており、変調度を時間の函数として、少な
い音源で多種多様の音声信号(本明細書ではオーディオ
信号を意味する)を得ることができる。
On the other hand, as a sound source for electronic musical instruments, so-called FM is a method in which a sine wave signal is frequency modulated (FM) with a low frequency sine wave signal.
Sound sources are known, and by making the degree of modulation a function of time, it is possible to obtain a wide variety of audio signals (herein audio signals) with a small number of sound sources.

なお、効果音の音源としてノイズ(ホワイトノイズ等)
が用いられることがある。
In addition, noise (white noise, etc.) is used as the sound source for sound effects.
is sometimes used.

D 発明が解決しようとする課題 前述のようないわゆる電子音源を用いて、現実の各種楽
器の音を再現するためには、極めて複雑な信号処理が必
要であり、回路規模が大きくなるという問題があった。
D. Problems to be Solved by the Invention In order to reproduce the sounds of various real musical instruments using the so-called electronic sound source as described above, extremely complex signal processing is required, which poses the problem of increasing the circuit scale. there were.

近時、この問題を解消するために、現実の各種楽器の音
をデジタル録音して、これをメモリ(ROM)に書き込
んでふき、このメモリから所要の楽器の信号を読み出す
ようにした、いわゆるサンプラ音源が賞月されるように
なった。
Recently, in order to solve this problem, so-called samplers have been developed that digitally record the sounds of various real instruments, write this to memory (ROM), wipe it, and then read out the signal of the desired instrument from this memory. The sound source is now awarded as a prize.

このサンプラ音源では、メモリの容量を節約するた必に
、デジタル音声信号はデータ圧縮されてメモリに書き込
まれ、メモリから読み出された圧縮デジタル信号は伸長
処理されて原デジタル音声信号に復する。
In this sampler sound source, in order to save memory capacity, the digital audio signal is compressed and written to the memory, and the compressed digital signal read from the memory is decompressed and restored to the original digital audio signal.

この場合、各楽器毎に特定の高さ(ピッチ)の音の信号
だけをメモリに書き込んでおき、メモリから読み出した
信号をピッチ変換処理して、所望の高さの音の基本周波
数信号を得るようにしている。
In this case, only the sound signal of a specific pitch (pitch) for each instrument is written into memory, and the signal read out from the memory is subjected to pitch conversion processing to obtain the fundamental frequency signal of the sound of the desired pitch. That's what I do.

更に、フォルマントと呼ばれる、各楽器に特有な発音初
期の信号波形(例えばピアノの場合にはIIIをたたい
てからハンマーが弦に当たるまでの動作音等の音)はそ
のままメモリに書き込まれて読出されるが、基本周期の
繰返し波形となる部分はその1周期分だけ書き込まれ、
繰返して読み出される。
Furthermore, the signal waveform called formant at the beginning of sound, which is unique to each musical instrument (for example, in the case of a piano, the sound of the sound from when the third part is struck until the hammer hits the string) is written to memory and read out as is. However, the part that becomes the repetitive waveform of the fundamental period is written for one period,
Read out repeatedly.

即ち再生時には、第6図に示す如く、短時間のフォルマ
ント成分aに続いて、波形Pの繰返しとなる基本周波数
信号成分すが得られ、所望の楽器の音が得られる。この
とき、ピアノ等の音のときには、波形Pのレベルを所定
の規則に従って徐々に低下させることで、自然な楽器音
が再生される。
That is, during reproduction, as shown in FIG. 6, a short-time formant component a is followed by a fundamental frequency signal component which is a repetition of the waveform P, and the desired musical instrument sound is obtained. At this time, in the case of a sound such as a piano, the level of the waveform P is gradually lowered according to a predetermined rule, so that a natural musical instrument sound is reproduced.

ところで、このような電子楽器は、一般にメモリから読
出した楽器音信号を同時に複数再生できるようにしてあ
り、多重音の再生を可能にしている。この場合には、単
一楽器の複数音程による重音或いは複数種の楽器の音に
よる重音等が考えられる。
Incidentally, such electronic musical instruments are generally capable of simultaneously reproducing a plurality of musical instrument sound signals read from a memory, thereby making it possible to reproduce multiple tones. In this case, there may be multiple tones due to multiple pitches of a single musical instrument or multiple tones due to the sounds of multiple types of instruments.

このような多重音の再生を行うようにするためには、メ
モリから読出した楽器音信号を処理する信号処理回路を
、音を多重させる数だけ必要とし、例えば8重音の再生
ができるようにすると8組の信号処理回路を必要とする
In order to reproduce such multiple tones, it is necessary to have as many signal processing circuits for processing the musical instrument sound signals read from the memory as the number of tones to be multiplexed. Eight sets of signal processing circuits are required.

一方、上述のようなサンプラ音源とした場合に、フォル
マント成分とピッチ変換された基本周波数成分とを分割
して処理するようにすると、夫々に別の信号処理回路が
必要で、1音に2組の信号処理回路を必要とし、信号処
理回路の数が2倍になる不都合があった。
On the other hand, when using a sampler sound source as described above, if the formant component and the pitch-converted fundamental frequency component are processed separately, separate signal processing circuits are required for each, and two sets are required for each sound. signal processing circuits are required, which has the disadvantage of doubling the number of signal processing circuits.

本発明は斯かる点に鑑み、多重音の再生が少ない信号処
理回路で実現できるこの種の電子楽器を提供することを
目的とする。
In view of the above, it is an object of the present invention to provide an electronic musical instrument of this type that can reproduce multiple tones and can be realized using a signal processing circuit with less.

E 課題を解決するための手段 本発明の電子楽器は、例えば第1図に示す如く、複数の
音声信号処理手段(2OA)、 (20B)  ・・・
・(20H)と、複数の楽音情報を非音程成分と音程成
分とに分割して記憶する記1,1!手段(14V)  
とを有し、例えば1つの音信号処理手段(2OA)  
で複数の楽音情報の非音程成分の信号処理を行い、残り
の音信号処理手段(20B) 〜(20H) の夫々で
、複数の楽音情報のいずれか1つの音程成分の信号処理
を行うようにし、再生時に、非音程成分の信号処理を行
う音信号処理手段(2OA)  の出力信号と、音程成
分の信号処理を行う音信号処理手段(20B) 〜(2
0H) の出力信号とを合成し、非音程成分と音程成分
とを連続的に再生するようにしたものである。
E. Means for Solving the Problems The electronic musical instrument of the present invention includes a plurality of audio signal processing means (2OA), (20B), etc., as shown in FIG. 1, for example.
- (20H) and notes 1, 1 in which multiple pieces of musical tone information are divided into non-pitch components and pitch components and stored! Means (14V)
For example, one sound signal processing means (2OA)
performs signal processing of non-pitch components of a plurality of musical tone information, and each of the remaining sound signal processing means (20B) to (20H) performs signal processing of a pitch component of any one of the plurality of musical tone information. , the output signal of the sound signal processing means (2OA) that performs signal processing of non-pitch components, and the sound signal processing means (20B) that performs signal processing of pitch components during playback.
0H), and the non-pitch component and the pitch component are continuously reproduced.

F 作用 本発明の電子楽器によると、複数の楽音情報の非音程成
分の信号処理を例えば1つの音信号処理手段(2OA)
で処理するようにしたので、多重音の再生が少ない処理
手段(2OA) 〜(2DH)  で実現できる。この
場合、非音程成分は非常に短時間の信号なので、複数の
楽音情報の処理が順次行える。
F Function According to the electronic musical instrument of the present invention, signal processing of non-pitch components of a plurality of pieces of musical tone information is performed by, for example, one sound signal processing means (2OA).
Since the processing is carried out by the processing means (2OA) to (2DH), the reproduction of multiple tones can be realized with a small number of processing means. In this case, since the non-pitch component is a very short-time signal, a plurality of pieces of musical tone information can be processed sequentially.

G 実施例 以下、第1図〜第4図を参照しながら、本発明による電
子楽器の一実施例について説明する。
G. Embodiment Hereinafter, an embodiment of the electronic musical instrument according to the present invention will be described with reference to FIGS. 1 to 4.

G1実施例の全体の構成 本発明の一実施例の全体の構成を第3図に示す。Overall configuration of G1 embodiment FIG. 3 shows the overall configuration of an embodiment of the present invention.

第3図において、(1)は外部に設けられたROMカー
トリッジ等の音源ROMであって、前述のようにデジタ
ル録音された、例えば16ビツトの各種楽器の多様なデ
ータが準瞬時圧縮されて、例えば4ビツトにビット・レ
ート低減(BRRエンコード)され、ブロック化されて
格納される。この場合、本例においてはピアノ等の楽器
音は、発音初期のフォルマント成分と呼ばれる非音程成
分と、特定の高さの音の1周期分の基本周波数信号であ
る音程成分とに分けて記Lit (格納)される。
In FIG. 3, (1) is an externally provided sound source ROM such as a ROM cartridge, in which a variety of digitally recorded, for example, 16-bit data of various musical instruments as described above is compressed quasi-instantaneously. For example, the bit rate is reduced (BRR encoded) to 4 bits, and the data is stored in blocks. In this case, in this example, the sound of a musical instrument such as a piano is recorded separately into a non-interval component called a formant component at the initial stage of pronunciation, and an interval component which is a fundamental frequency signal for one cycle of a sound at a specific pitch. (stored).

そして、(10)は電子楽器としてのデジタル信号処理
装置(DSP)を全体として示し、信号処理部(11)
及びレジスタRAM(12)が含まれる。ROM(1)
の各種音源データのうちの所望のデータが、CP U(
13)に制御されて、信号処理部(11)を経由して外
部RA M (14)に転送される。この外部RAM 
(14)は例えば64kBの容量を有し、音源データの
他に、CP U(13)のプログラムも書き込まれ、そ
れぞれ時分割で用いられる。同様に各種制御データ等が
格納されたレジスタRAM(12)も信号処理fffl
(11)及びCP U(13)の双方からそれぞれ時分
割で用いられる。
(10) shows the digital signal processing device (DSP) as an electronic musical instrument as a whole, and the signal processing section (11)
and register RAM (12). ROM (1)
Desired data among the various sound source data is sent to the CPU (
13) and is transferred to the external RAM (14) via the signal processing unit (11). This external RAM
(14) has a capacity of, for example, 64 kB, and in addition to the sound source data, programs for the CPU (13) are also written and used in a time-sharing manner. Similarly, the register RAM (12) in which various control data etc. are stored is also used for signal processingfffl.
(11) and CPU (13) in a time-sharing manner.

外部RAM(14)から読み出された音源データは、信
号処理部(11)において、前述のBRRエンコードと
逆のBRRデコード処理により、もとの音源データに復
した後、必要に応じて、さきに述べたようなへ〇SR処
理、ピッチ変換等の各種処理を施される。処理後のデジ
タル音声信号は、D−A変換器(2)を介して、スピー
カ(3)に供給される。
The sound source data read from the external RAM (14) is restored to the original sound source data by BRR decoding processing, which is the reverse of the BRR encoding described above, in the signal processing unit (11). Various types of processing such as SR processing and pitch conversion as described above are performed. The processed digital audio signal is supplied to a speaker (3) via a DA converter (2).

G2実施例の要部の構成 本発明の一実施例の要部の41成を第1図及び第2図に
示す。
Structure of the main parts of the G2 embodiment The structure of the main parts of the embodiment of the present invention is shown in FIGS. 1 and 2.

本実施例では11A、11B・・・・lIHの8ボイス
をそれぞれ左及び右の2チヤンネルに合成して出力する
ようになされており、各ボイス及び各チャンネルのデジ
タル音声信号はそれぞれ時分割で演算処理されるが、説
明の便宜上、第1図及び第2図では各ボイス毎及び各チ
ャンネル毎にそれぞれ同じ構成の仮想的ハードウェアを
設けである。
In this embodiment, the 8 voices 11A, 11B...lIH are synthesized into two channels, left and right, and output, and the digital audio signals of each voice and each channel are calculated on a time-division basis. However, for convenience of explanation, virtual hardware having the same configuration is provided for each voice and each channel in FIGS. 1 and 2.

第1図において、(20^>、 (20B)・・・・(
20)1)  はそれぞれボイス11A、  ボイスm
B・・・・ボイスlIHに対する信号処理部であって、
外部RAM(14)の端子(15)に供給される音源選
択データSRC,〜わによって音源データ格納部(14
V)から読み出された所望の音源データがそれぞれ供給
される。
In Figure 1, (20^>, (20B)...(
20) 1) are voice 11A and voice m, respectively.
B: A signal processing unit for voice IIH,
The sound source selection data SRC, which is supplied to the terminal (15) of the external RAM (14), is stored in the sound source data storage section (14).
Desired sound source data read from V) is respectively supplied.

この場合、本例においては非音程成分と音程成分とに分
けて音源ROM (1)に記憶された楽器音を再生する
際には、非音程成分のデータはボイス11Aの信号処理
部(2OA)  に供給するようにし、音程成分のデー
タは他のボイスの信号処理部(20B)〜(20B) 
 に供給するように後述する制御データで制御する。
In this case, in this example, when reproducing the musical instrument sound stored in the sound source ROM (1) as a non-pitch component and a pitch component, the data of the non-pitch component is stored in the signal processing unit (2OA) of the voice 11A. The pitch component data is supplied to the signal processing units (20B) to (20B) of other voices.
It is controlled by control data to be described later.

信号処理部(2OA)  に供給された音源データは、
スイッチS0を介して、BRRデコーダ(21)に供給
されて、前述のようにデータ伸長され、バッファRAM
(22)を介して、ピッチ変換回路(23)に供給され
る。スイッチSLMには、端子(31a) 及び(32
a)  を介して、レジスタRAM(12)(第3図参
照)から制御データKON (キーオン)及びKOF(
キーオフ)が供給されて、その開閉が制御される。また
、ピッチ変換回路(23)には、演算パラメータ等の制
御回路(24)及び端子(33a)  を経て、レジス
タRA M(12)からピッチ制御データP(I+)。
The sound source data supplied to the signal processing unit (2OA) is
The data is supplied to the BRR decoder (21) via the switch S0, decompressed as described above, and stored in the buffer RAM.
It is supplied to the pitch conversion circuit (23) via (22). The switch SLM has terminals (31a) and (32
a) Control data KON (key on) and KOF (
key-off) is supplied to control its opening and closing. The pitch conversion circuit (23) also receives pitch control data P(I+) from the register RAM (12) via a control circuit (24) for calculation parameters and the like and a terminal (33a).

P (L) が供給されると共に、制御回路(24)に
は、端子(34a)及びスイッチ82mを経て、例えば
ボイスIIHのような他のボイスの信号が供給される。
P (L) is supplied, and the control circuit (24) is also supplied with signals of other voices, such as voice IIH, via the terminal (34a) and the switch 82m.

スイッチS2mには、端子(35a) を介して、レジ
スタRA M(12)から制御データFMON(FMオ
ン)が供給されて、その接続状態が制御される。
The switch S2m is supplied with control data FMON (FM ON) from the register RAM (12) via the terminal (35a) to control its connection state.

ピッチ変換回路(23)の出力が乗算器(26)に供給
されると共に、レジスタRAM(12)からの制御デー
タENV (エンベロープ制御)及び^DSR(ADS
R制御)が、それぞれ端子(36a)及び(37a) 
、制御回路(27)及び(28)と切換スイッチS。と
を経て乗算器(26)に供給される。スイッチS。の接
続状態は制御データADSRの最上位ビットによって制
御される。
The output of the pitch conversion circuit (23) is supplied to the multiplier (26), and control data ENV (envelope control) and ^DSR (ADS) are supplied from the register RAM (12).
R control) are connected to terminals (36a) and (37a), respectively.
, control circuits (27) and (28), and a changeover switch S. and is supplied to the multiplier (26). Switch S. The connection state of is controlled by the most significant bit of control data ADSR.

なお、効果音源としてノイズを用いる場合、図示は省略
するが、例えばM系列のノイズ発生器の出力がピッチ変
換回路(23)の出力と切り換えられて乗算器(26)
に供給される。
Note that when noise is used as a sound effect source, although not shown in the figure, for example, the output of an M-series noise generator is switched with the output of the pitch conversion circuit (23) and the multiplier (26)
supplied to

乗算器(26)の出力が第2及び第3の乗算器(2H)
及び(29r)  に共通に供給されると共に、レジス
タRA M(12>からの制御データLVL <左音量
)及びRVL (右音量)が、それぞれ端子(38a)
及び(39a)を介して、乗算器(291)及び(29
r)  に供給される。
The output of the multiplier (26) is the second and third multiplier (2H)
and (29r), and control data LVL <left volume) and RVL (right volume) from register RAM (12>) are respectively supplied to terminal (38a).
and (39a), the multipliers (291) and (29
r) supplied to

乗算器(26) (10出力(7)11時値0tlTX
 カ、端子(41a)ヲ経テ、レジスタRAM(12>
に供給されると共13信号処理部(20B)の端子(3
4b)  に供給される。スイッチS 3aの出力の波
高値EIXが、端子(42g)を経て、レジスタRA 
M(12)に供給される。
Multiplier (26) (10 output (7) 11 o'clock value 0tlTX
, terminal (41a), register RAM (12>
and the terminal (3) of the 13 signal processing section (20B).
4b). The peak value EIX of the output of the switch S 3a passes through the terminal (42g) to the resistor RA.
It is supplied to M(12).

また、破線で示すように、信号処理部(2OA) の端
子(41a) の出力を、信号処理部(20B) の端
子(36b)  に供給することもできる。
Furthermore, as shown by the broken line, the output of the terminal (41a) of the signal processing section (2OA) can be supplied to the terminal (36b) of the signal processing section (20B).

レジスタRAM(12)上の各制御データのマツプを次
の第1表及び第2表に示す。
Maps of each control data on the register RAM (12) are shown in Tables 1 and 2 below.

第2表 第1表の制御データは各ボイス毎に用意される。Table 2 The control data in Table 1 is prepared for each voice.

第2表の制御データは8ボイスに共通に用意される。ア
ドレスOD以下の制御データは以下に説明する第2図に
関するものである。なお、各レジスタはそれぞれ8ビツ
トである。
The control data in Table 2 is prepared in common for the 8 voices. The control data below address OD relates to FIG. 2, which will be explained below. Note that each register has 8 bits.

第2図において、(50L) 及び(50R)  はそ
れぞれ左チャンネル及び右チャンネルの信号処理部であ
って、第1図の信号処理部(2OA)  の第2の乗算
器(29+)  の出力が、端子TL、を経て、左チヤ
ンネル信号処理部(50L) の主加算器(51mn)
に直接に供給されると共に、スイッチ34aを介して、
副加算器(51el)に供給され、第3の乗算器(29
r)  の出力が、端子TR,を経て、右チヤンネル信
号処理部(50R)  の主加算器(51111r)に
直接に供給されると共に、スイッチSSaを介して、副
加算器(51er)に供給される。
In FIG. 2, (50L) and (50R) are signal processing units for the left channel and right channel, respectively, and the output of the second multiplier (29+) of the signal processing unit (2OA) in FIG. Through terminal TL, main adder (51mn) of left channel signal processing section (50L)
through the switch 34a,
It is supplied to the sub adder (51el) and the third multiplier (29
The output of r) is directly supplied to the main adder (51111r) of the right channel signal processing section (50R) via terminal TR, and is also supplied to the sub adder (51er) via switch SSa. Ru.

以下同様に、ボイス5B−”Hの信号処理部(20B)
〜(20H)  の各出力が左及び右チャンネルの信号
処理部(50L) 及び(50R)  の各加算器(5
1ml)、 (51e1)及び(51mr)、 (51
er)  に供給される。
Similarly, the signal processing unit (20B) of voice 5B-”H
Each output of ~(20H) is connected to each adder (5) of the left and right channel signal processing sections (50L) and (50R).
1ml), (51e1) and (51mr), (51
er).

両信号処理部(50L)、 (50R)  の同じボイ
スに対応するスイッチS4a*  SSa : 541
1  ssb・・・・S4h。
Switch S4a* SSa corresponding to the same voice of both signal processing units (50L) and (50R): 541
1 ssb...S4h.

Sshには、端子(61a)、 (61b) ・・= 
(6th)  を介して、レジスタRA M(12)か
ら制御データE ON、(エコーオン) 、E ON 
b・・・・EONhが供給され、それぞれ連動して開閉
される。
Ssh has terminals (61a), (61b)...=
(6th) Control data E ON, (echo on), E ON from register RAM (12)
b...EONh is supplied and opened and closed in conjunction with each other.

この場合、ボイス″Aの信号処理部(2OA>で上述し
た非音程成分の信号処理を行っているときには、スイッ
チ34a及びSSaは閉状態にならないように制御され
、非音程成分には残響音(エコー)が付加されないよう
にしである。
In this case, when the signal processing section (2OA>) of voice "A" is performing the above-mentioned signal processing of the non-pitch component, the switch 34a and SSa are controlled so as not to be in the closed state, and the reverberant sound ( echo) is not added.

主加算器(51rnA)の出力が乗算器(52)に供給
されると共に、レジスタRA M(12)からの制御デ
ータMVL(主音1)が端子(62)を介して乗算器(
52)に供給され、乗算器(52)の出力が加算器(5
3)に供給される。
The output of the main adder (51rnA) is supplied to the multiplier (52), and the control data MVL (tonic 1) from the register RAM (12) is supplied to the multiplier (51rnA) via the terminal (62).
52), and the output of the multiplier (52) is supplied to the adder (52).
3).

一方、副加算器(51e1)の出力は、加算器(54)
、外部RA M(14)の左チャンネル・エコー制御部
(14112)及びバッファRAM(55)を介して1
例えば有限インパルス応答(FIR)フィルタのような
デジタル低域フィルタ(56)に供給される。エコー制
御部(14E1)には、端子(63)及び(64)を介
して、レジスタRA M(12)からの制御データES
A (エコースタートアドレス)及びEDL(エコーデ
イレイ)が供給される。
On the other hand, the output of the sub adder (51e1) is sent to the adder (54).
, through the left channel echo control section (14112) of the external RAM (14) and the buffer RAM (55).
A digital low pass filter (56), such as a finite impulse response (FIR) filter, is fed. The echo control unit (14E1) receives control data ES from the register RAM (12) via terminals (63) and (64).
A (echo start address) and EDL (echo delay) are supplied.

低域フィルタ(56)には、端子(66)を介して、レ
ジスタRA M(12)から係数データC,〜C1が供
給される。
The low-pass filter (56) is supplied with coefficient data C, ~C1 from the register RAM (12) via a terminal (66).

低域フィルタ(56)の出力が、乗算器(57)を介し
て加算器(54)にフィードバックされると共に、乗算
器(58)に供給される。両乗算器(57)及び(58
)には、それぞれ端子(67)及び(68)を介して、
レジスタRA M(12)からの制御データEFB (
エコーフィードバック)及びEVL (エコー音量)が
供給される。
The output of the low-pass filter (56) is fed back to the adder (54) via the multiplier (57) and is also supplied to the multiplier (58). Both multipliers (57) and (58
) through terminals (67) and (68), respectively.
Control data EFB (
echo feedback) and EVL (echo volume).

乗算器(58)の出力は、加算器(53)に供給されて
、主加算器(52)の出力と合成され、オーバサンプリ
ングフィルタ(59)を介して、出力端子L out 
に導出される。
The output of the multiplier (58) is supplied to the adder (53), combined with the output of the main adder (52), and then sent to the output terminal L out via the oversampling filter (59).
is derived.

なお、第2図の外部RA M(14Bf)及び(14E
r) l;!、第1図の外部RAM(14V)と同様に
、それぞれ前出第3図の外部RA M(14)の一部分
であって、各ボイス毎及び各チャンネル毎に時分割で用
いられる。
In addition, external RAM (14Bf) and (14E
r) l;! , similar to the external RAM (14V) in FIG. 1, are part of the external RAM (14) in FIG. 3 mentioned above, and are used on a time-division basis for each voice and each channel.

また、第1図のバッファRA M(22)及び第2図の
バッファRA M(55)も、上述と同様に、時分割で
用いられる。
Further, the buffer RAM (22) in FIG. 1 and the buffer RAM (55) in FIG. 2 are also used in a time-sharing manner as described above.

G3実施例の動作 次に、本発明の一実施例の動作について説明する。Operation of G3 embodiment Next, the operation of one embodiment of the present invention will be explained.

音源データ格納部(14V)  には、例えばピアノ、
サキソホン、シンバル・・・・のような各種楽器の音源
データが0〜2550番号を付けて格納されており、ピ
アノ等の非音程成分を有する音源データは、非音程成分
と音程成分とで異なる番号を付けて格納される。そして
、音源選択データSRC,〜、によって選択された8個
の音源データが、各ボイスの信号処理部(2OA)  
〜(20u)  において、時分割でそれぞれ所定の処
理を施される。
The sound source data storage section (14V) contains, for example, a piano,
Sound source data for various instruments such as saxophones, cymbals, etc. are stored with numbers from 0 to 2550, and sound source data with non-pitch components such as pianos are stored with different numbers for non-pitch components and pitch components. It is stored with . Then, the eight sound source data selected by the sound source selection data SRC, ~, are sent to the signal processing unit (2OA) of each voice.
~(20u), predetermined processing is performed on each in a time-sharing manner.

本実施例において、サンプリング周波数f、は例えば4
4.1ktlz に選定され、1サンプリング周期(1
/fs)  内に8ボイス及び2チヤンネルで例えば合
計128サイクルの演算処理が行なわれる。1演算サイ
クルは例えば170nSec となる。
In this embodiment, the sampling frequency f is, for example, 4
4.1 ktlz, and one sampling period (1
/fs), a total of 128 cycles of arithmetic processing are performed for 8 voices and 2 channels. One calculation cycle is, for example, 170 nSec.

本実施例において、各ボイスの発音の開始(キーオン)
と停止(キーオフ)とを示すスイッチSla〜Slhの
制御は、通常とは異なり、別々のフラグを用いて行なわ
れる。即ち、制御データKON(キーオン)及びKOF
 (キーオフ)が別々に用意される。両制御データはそ
れぞれ8ビツトであって、別々のレジスタに書き込まれ
る。各ビットD。−D、が各ボイス”Δ〜″Hのキーオ
ン、キーオフにそれぞれ対応する。
In this example, the start of each voice's sound (key on)
Control of the switches Sla to Slh indicating stop (key-off) is different from normal control and is performed using separate flags. That is, the control data KON (key on) and KOF
(key off) is prepared separately. Both control data are 8 bits each and are written to separate registers. Each bit D. -D corresponds to key-on and key-off of each voice "Δ~"H, respectively.

これにより、使用者(音楽ソフト製作者)はキーオン、
キーオフしたいボイスだけにフラグ1″を立てればよく
、従来のように、例えば個々の音符ごとに、変更しない
ビットを一旦ノイツファレジスタに書き込むプログラム
を作製するという煩わしい作業が必要なくなる。
This allows the user (music software producer) to turn on the key,
All you have to do is set the flag 1'' for only the voice you want to key off, and there is no need for the conventional process of creating a program that temporarily writes bits that will not be changed for each individual note into the Neutral register.

そして本実施例において、非音程成分と音程成分とに分
けられた音源データを再生する際には、まず非音程成分
のデータをRAM(14V)より読出し、Aのボイスの
信号処理部(2OA> のスイッチS Il&を制御し
て、第4図Aに示す如く、このIIAのボイスで非音程
成分aの信号処理を行う。そして、この非音程成分aの
データがRA M (14V)  より全て読出される
と、これに続いた音程成分の1周期だけのデータを繰返
し読出し、“B−”Hのいずれかの空いているボイスの
信号処理部(20B)〜(20H) のスイッチ5lb
−3lhを制御して、このs B 、n Hのいずれか
のボイスで音程成分の信号処理を行う。例えばttBの
ボイスの信号処理部(20B)  が空いているとする
と、第4図Bに示す如く、この信号処理部(20B) 
 で非音程成分aに続いた音程成分すの信号処理を行う
。このときには、音程成分すはピッチ変換回路(23)
で所定のピッチのデータに変換処理される。
In this embodiment, when reproducing sound source data divided into non-pitch components and pitch components, first read the data of the non-pitch components from the RAM (14V), and then read the data of the non-pitch components from the RAM (14V). As shown in FIG. 4A, the switch SIl& of is controlled to perform signal processing of the non-pitch component a using the voice of this IIA.Then, all data of this non-pitch component a is read out from RAM (14V). Then, the data of only one period of the following pitch component is read out repeatedly, and the switch 5lb of the signal processing section (20B) to (20H) of the empty voice of "B-"H is pressed.
-3lh, and performs signal processing of pitch components using either voice s B or n H. For example, if the ttB voice signal processing section (20B) is vacant, as shown in Figure 4B, this signal processing section (20B)
Then, signal processing is performed on the pitch component A following the non-pitch component A. At this time, the pitch component is the pitch conversion circuit (23)
The data is converted into data with a predetermined pitch.

そして、この非音程成分aと音程成分すとよりなる楽器
音を再生中に、例え°ば同じ楽器の異なる高さの音を再
生して重音にするときには、第4図Aに示す如く、非音
程成分aと同じ非音程成分a′をRA M(14V) 
より読出し、IIAのボイスの信号処理部(20^) 
で信号処理を行う。そして、このときには音程成分すが
mBのボイスで信号処理中なので非音程成分a′に続い
た音程成分b′は、他の空いたボイス、例えば第4図C
に示す如く、ICのボイスの信号処理部(20C)  
で信号処理を行う。このときには、ピッチ変換回路(2
3)で音程成分すとは異なる音程にピッチ変換される。
While reproducing an instrument sound that is composed of the non-pitch component a and the pitch component, for example, when reproducing sounds of the same instrument with different pitches to create a double tone, the non-pitch component a and the pitch component are reproduced. The non-pitch component a', which is the same as the pitch component a, is RAM (14V)
Read from IIA voice signal processing unit (20^)
perform signal processing. At this time, since the pitch component is being processed by the mB voice, the pitch component b' following the non-pitch component a' is replaced by another vacant voice, for example, C in FIG.
As shown in the figure, the voice signal processing section (20C) of the IC
perform signal processing. At this time, the pitch conversion circuit (2
In step 3), the pitch of the pitch component is converted to a different pitch.

そして、夫々の音は左右のチャンネルの信号処理部(5
0L)。
Each sound is processed by the left and right channel signal processing units (5
0L).

(50R> の主加算器(51mA’)、 (51mr
)又は副加算器(51e1)、 (51er)  で加
算され、2重音となって再生される。
(50R> main adder (51mA'), (51mr
) or sub adders (51e1) and (51er), and are reproduced as double tones.

そして、本実施例では” A −” Hの8ボイスを時
分割で信号処理するため、ピッチ変換回路(23)にお
いては、前後各4サンプルの人力データに基いて補間演
算、即ちオーバーサンプリングを行ない、入力データと
同一のサンプリング周波数f。
In this embodiment, in order to time-divisionally process the 8 voices "A -" H, the pitch conversion circuit (23) performs interpolation calculations, that is, oversampling, based on the manual data of 4 samples each before and after. , the same sampling frequency f as the input data.

でピッチ変換を行っている。所望のピッチは制御データ
P (H)及びP (L)で表わされる。
Performs pitch conversion. The desired pitch is represented by control data P (H) and P (L).

なお、このP (L) の下位ビットを0にすれば、補
間データの不均一な間引きを回避することができて、ピ
ッチの細かい揺らぎが発生せず、高品質の再生音が得ら
れる。
Note that by setting the lower bit of P (L) to 0, non-uniform thinning of the interpolated data can be avoided, fine pitch fluctuations will not occur, and high-quality reproduced sound can be obtained.

端子(35a) からの制御データFMOMにより、ス
イッチS。が閉成されると、前述のように端子(34a
)に供給される、例えばボイスllHの音声信号デー夕
がピッチ制御データP (H)、 P (L)  に代
入されたようになって、ボイス#への音声信号が周波数
変調(FM)される。
Switch S is activated by control data FMOM from terminal (35a). When the terminal (34a) is closed, the terminal (34a
), for example, the audio signal data of voice IIH is substituted into pitch control data P (H), P (L), and the audio signal to voice # is frequency modulated (FM). .

これにより、変調信号が例えば数ヘルツの超低周波の場
合は被変調信号にビブラートがかかり、可聴周波の変調
信号の場合は被変調信号の再生音の音色が変化して、特
別に変調専用の音源を設けずとも、サンプラ方式でFM
音源が得られる。
As a result, if the modulating signal is an extremely low frequency of several hertz, vibrato is applied to the modulated signal, and if the modulating signal is an audio frequency, the timbre of the reproduced sound of the modulated signal changes, and a special FM using sampler method without installing a sound source
You can get the sound source.

なお、制御データFMONは、前述のKONと同様に8
ビツトのレジスタに書き込まれ、各ビットDo−D、が
ボイスII A 、u Hにそれぞれ対応する。
Note that the control data FMON is 8 as in the above-mentioned KON.
Each bit Do-D corresponds to a voice II A, u H, respectively.

乗算器(26)においては、制御データENV及びAD
SRに基いて、ピッチ変換回路(23)の出力信号のレ
ベルが時間的に制御される。
In the multiplier (26), control data ENV and AD
Based on SR, the level of the output signal of the pitch conversion circuit (23) is temporally controlled.

即チ、制御データADsI)MS Bカ” 1 ” (
7)場合、スイッチ33mは図示の接続状態となってA
DSR制御が行なわれ、制御データ八〇SRのMSBが
“0”の場合にはスイッチ33mが図示とは逆の接続状
態となってフ二一ディング等のエンベロープ制御が行な
われる。
Immediately, control data ADsI) MS B "1" (
7) In the case, the switch 33m is in the connected state shown in the figure and A
When DSR control is performed and the MSB of control data 80SR is "0", switch 33m is connected in the opposite direction to that shown, and envelope control such as fusing is performed.

このエンベロープ制御は、制御データENVの上位3ビ
ツトにより、直接指定、直線または折線フェードイン、
直線または指数フェードアウトの5モードを選択するこ
とができ、各モードの初期値には現在の波高値が採用さ
れる。
This envelope control can be directly specified, linear or broken line fade-in, or
Five modes can be selected: linear or exponential fade-out, and the current peak value is adopted as the initial value for each mode.

また、ADR3制御の場合、信号レベルは、アタック区
間でのみ直線的に上昇し、デイケイ、サスティン及びI
J IJ−スの3区間では指数的に下降する。
In addition, in the case of ADR3 control, the signal level increases linearly only in the attack section, and the signal level increases linearly only in the attack section, and
In the 3rd section of J IJ-S, it decreases exponentially.

そして、フェードイン及びフェードアウトの時間長は、
制御データENVの下位5ビツトで指定されるパラメー
タ値に応じて各モード毎に適宜に設定される。
And the fade-in and fade-out time length is
It is set appropriately for each mode according to the parameter value specified by the lower five bits of the control data ENV.

同様に、アタック及びサスティンの時間長は制御データ
ADSR(2)の上位及び下位の各4ビツトで指定され
るパラメータ値に応じて設定され、サスティンレベルと
、デイケイ及びリリースの時間長とは、制御データAD
SR(1)の各2ビツトで指定されるパラメータ値に応
じて設定される。
Similarly, the attack and sustain time lengths are set according to the parameter values specified by the upper and lower 4 bits of control data ADSR (2), and the sustain level and decay and release time lengths are data AD
It is set according to the parameter value specified by each 2 bits of SR(1).

本実施例では、演算回数を減するため、上述のように、
AOSRモードのアタック区間において、信号レベルが
直線的に上昇するようになっているが、ADSRモード
をエンベロープモードに切換え、アタック区間に折線フ
ェードインモードを対応させると共に、デイケイ、サス
ティン及びリリースの3区間に指数フェードアウトモー
ドを対応させて、より自然なAO3R制御をマニユアル
に行なうことができる。
In this embodiment, in order to reduce the number of calculations, as described above,
In the attack section of AOSR mode, the signal level increases linearly, but by switching the ADSR mode to envelope mode and making the attack section compatible with the polygonal fade-in mode, the signal level increases linearly in the attack section, and the signal level increases linearly in the attack section. It is possible to manually perform more natural AO3R control by making it compatible with exponential fade-out mode.

また、乗算器(26)の信号出力及びエンベロープ制御
人力をそれぞれ端子(41a)  及び(42a)  
からレジスタRA M(12>に供給し、サンプル周期
ごとに書き換えることにより、例えば同じ楽器の音源デ
ータからそれぞれピッチが太き(異なる複数の音声信号
を得るような場合、所定ADSRパターンと異なる任意
のエンベロープ特性の音声信号が得られる。
In addition, the signal output of the multiplier (26) and the envelope control are connected to terminals (41a) and (42a), respectively.
By supplying it to the register RAM (12) from An audio signal with envelope characteristics is obtained.

第2図の信号処理部(50L) 及び(50R)  に
おいては、スイッチS4a+  Ssa ; 〜Ssh
、  Sshが端子(61a)  〜(61h)  か
らの制御データEON(EON。
In the signal processing units (50L) and (50R) in FIG. 2, switches S4a+Ssa; ~Ssh
, Ssh receives control data EON (EON) from terminals (61a) to (61h).

〜EONh)  によりそれぞれ閉成されて、エコーを
かけるべきボイスが選択される。制御データEONは前
出第2表に示すように、8ビツトのレジスタに書き込ま
れる。
~EONh) to select the voice to be echoed. The control data EON is written into an 8-bit register as shown in Table 2 above.

副加算器(51eJ)から出力される各ボイスに付与さ
れるエコーの遅延時間は、端子(64)からエコー制御
部(14εl)に供給される制御データEDLによって
、例えば0〜255m5ec の範囲で左右のチャンネ
ルで等しく指定される。また、先行及び後続エコーの振
幅比は、端子(67)から乗算器(57)に供給される
、符号付8ビツトの制御データEFBにより左右のチャ
ンネルで同相に設定される。
The delay time of the echo given to each voice output from the sub adder (51eJ) can be varied from left to right in the range of 0 to 255 m5ec, for example, depending on the control data EDL supplied from the terminal (64) to the echo control unit (14εl). is specified equally by the channels. Further, the amplitude ratio of the preceding and succeeding echoes is set to be in phase for the left and right channels by signed 8-bit control data EFB supplied from the terminal (67) to the multiplier (57).

なお、端子(63)からの制御データESAは、外部R
A M(14)のうち、エコー制御に用いる部分の先頭
アドレスの上位8ビツトを与える。
Note that the control data ESA from the terminal (63) is
Gives the upper 8 bits of the start address of the part used for echo control in AM (14).

11、F I R7イルタ(56) 1.:、1;!、
r1子(66)カら符号付8ビツトの係数C3−C1が
供給されて、聴感上、自然なエコー音が得られるように
、フィルタ(56)の通過特性が設定される。
11, F I R7 Iruta (56) 1. :,1;! ,
The signed 8-bit coefficient C3-C1 is supplied from the r1 child (66), and the pass characteristics of the filter (56) are set so that a natural echo sound is obtained to the auditory sense.

上述のようにして得られたエコー信号は、乗算器(58
)において制御データEVLを乗算されて、乗算器(5
2)において制御データMVLを乗算された主音声(3
号と加算器(53)で合成される。面制御データMVL
及びEVLは、いずれも符号なし8ビツトであって、相
互に独立であり、左右のチャンネルについてもそれぞれ
独立である。
The echo signal obtained as described above is processed by a multiplier (58
) is multiplied by the control data EVL in the multiplier (5
The main voice (3) multiplied by the control data MVL in 2)
and an adder (53). Surface control data MVL
and EVL are both unsigned 8 bits and are mutually independent, and the left and right channels are also independent from each other.

これにより、主音声信号、エコー信号をそれぞれ独立に
レベル制御することができて、原音響空間をイメージさ
せるような、臨場感に富む再生音場を得ることができる
Thereby, the levels of the main audio signal and the echo signal can be controlled independently, and it is possible to obtain a reproduced sound field with a rich sense of presence that gives an image of the original sound space.

このように本例の電子楽器によると、フォルマント成分
としての非音程成分を、tlAのボイスの信号処理部(
2OA)  で信号処理を行うようにし、音程成分をn
 B、llHのいずれかの空いたボイスの信号処理部(
20B) 〜(201()  で信号処理を行うように
したことで、8ボイスで最大7重音までの非音程成分を
含むサンプラ音源による良好な楽器音の再生が行われる
。このため、1音毎に非音程成分と音程成分との2ボイ
スを割合でる場合に比べ、少ないボイス数でより多くの
多重音の再生ができるようになる。
In this way, according to the electronic musical instrument of this example, the non-pitch component as a formant component is processed by the tlA voice signal processing unit (
2OA) to perform signal processing, and the pitch components are
The signal processing section of the empty voice of either B or llH (
By performing signal processing in steps 20B) to (201(), good musical instrument sounds are reproduced using a sampler sound source that includes non-pitch components of up to 7 double tones using 8 voices. Compared to the case where two voices, a non-pitch component and a pitch component, are produced in proportion, more multiple tones can be reproduced with a smaller number of voices.

なお、上述の第4図に示した例では、同じ非音程成分を
複数回読出して同じ楽器の異なるビ・ソチの音で多重音
を作成したが、別の楽器の非音程成分を読出せば、異な
る楽器の音の組合せで多重音ができることは勿論である
Note that in the example shown in Figure 4 above, the same non-pitch component is read out multiple times to create a multiple tone using different bi-sochi sounds of the same instrument, but if the non-pitch component of a different instrument is read out, Of course, multiple sounds can be created by combining the sounds of different instruments.

また、重音を構成する2つの音の始まりが略同時で、1
回の非音程成分の音源データの読出しく再生)が終了す
る前に次の音を構成する非音程成分の音源データ読出し
を行う必要のあるときには、例えば最初の非音程成分の
処理を中止して次の非音程成分の処理を行うようにすれ
ば良い。或いは、予め各楽器音の非音程成分に優先順位
を設定しておき、同時に発音が指示されたときにこの優
先順位で決まる最も良く聞こえる非音程成分だけを信号
処理して発音させるようにしても良い。
Also, the two sounds that make up the double sound start almost at the same time, and 1
If it is necessary to read the sound source data of the non-pitch component that makes up the next sound before the readout (playback) of the sound source data of the non-pitch component ends, for example, the processing of the first non-pitch component can be stopped. The next non-pitch component may be processed. Alternatively, a priority order can be set in advance for the non-pitch components of each instrument sound, and when generation is instructed at the same time, only the non-pitch component that can be heard best according to this priority order is processed and produced. good.

このようにすることで、和音のように同時に複数の音を
発生させる場合にも少ないボイス数で効率よく信号処理
が行われる。
By doing this, signal processing can be performed efficiently with a small number of voices even when a plurality of sounds are generated simultaneously, such as a chord.

G、他の実施例の説明 上述実施例ではIIへのボイスにだけ非音程成分を割合
でた場合について説明したが、音楽の再生状況によって
は、このHAのボイスだけでは不足する場合も考えられ
、このようなときには非音程成分を割当てるボイスを適
宜増やせばよい。例えば、HAとnBの2つのボイスに
非音程成分を交互に割当てるようにすれば、非音程成分
自体の再生が重なっているときでも、確実に双方の音が
再生される。第5図に一例を示すと、ボイスHAと#B
とで、非音程成分Xl、 X2. X3 ・・・・の信
号処理を交互に行い、ボイス”C−”Hの6ボイスの空
いた箇所を使って夫々の非音程成分に対応した音程成分
Yl、 Y2. Y3 ・・・・の信号処理を行うよう
にすれば良い。
G. Description of other embodiments In the above embodiment, a case was explained in which non-pitch components were included only in the voice to II, but depending on the music playback situation, it is possible that the voice of this HA alone is insufficient. In such a case, the number of voices to which non-pitch components are assigned may be increased as appropriate. For example, by alternately assigning non-pitch components to the two voices HA and nB, both sounds can be reliably reproduced even when the non-pitch components themselves overlap. An example is shown in Figure 5. Voices HA and #B
and the non-pitch component Xl, X2. The signal processing of X3... is performed alternately, and the vacant parts of the 6 voices of voices "C-"H are used to generate pitch components Yl, Y2. Y3... signal processing may be performed.

さらにまた、本発明は上述実施例に限らず、本発明の要
旨を逸脱することなく、その他種々の構成が取り得るこ
とは勿論である。
Furthermore, it goes without saying that the present invention is not limited to the above-described embodiments, and can take various other configurations without departing from the gist of the present invention.

H発明の効果 本発明の電子楽器によると、少ない系統(ボイス数)の
信号処理手段を使用して、効率よく多重音の再生が行え
、回路構成が簡単になる利益がある。
H Effects of the Invention According to the electronic musical instrument of the present invention, multiple tones can be efficiently reproduced by using signal processing means with a small number of systems (number of voices), and the circuit configuration is simplified.

【図面の簡単な説明】[Brief explanation of drawings]

第1図及び第2図は本発明による電子楽器の一実施例の
要部の構成を示すブロック図、第3図は本発明の一実施
例の全体の構成を示すブロック図、第4図及び第5図は
夫々第1図例の説明に供する路線図、第6図はサンプラ
音源の説明に供する路線図である。 (10)はデジタル信号処理装置、(12)はレジスタ
RAM、 (14V)  it音源テデー格納部、(1
4ε!り。 (14Er)はエコ・−制御部、(2OA)、(20B
>  ・・−・(20H)。 (50L)、 (50R)  は信号処理部、(22)
はRAM、(23)はピッチ変換回路、(24)、 (
27)、 (28)は制御回路、(26>、 (291
)、 (29r)、 (52)、 (57)、 (58
)、 (71)は乗算器、(51ml)、 (51mr
)  は主加算器、(51e1)、(51er)  ハ
副加算器である。 代  理  人     伊  藤     頁間  
      松  隈  秀  盛デジタルイ芭号処理
装置 10 史弗例 第3図
1 and 2 are block diagrams showing the configuration of essential parts of an embodiment of an electronic musical instrument according to the present invention, FIG. 3 is a block diagram showing the overall structure of an embodiment of the present invention, and FIGS. FIG. 5 is a route map for explaining the example in FIG. 1, and FIG. 6 is a route map for explaining the sampler sound source. (10) is a digital signal processing device, (12) is a register RAM, (14V) it sound source storage unit, (1
4ε! the law of nature. (14Er) is eco-control unit, (2OA), (20B
>...-(20H). (50L), (50R) are signal processing units, (22)
is RAM, (23) is pitch conversion circuit, (24), (
27), (28) are control circuits, (26>, (291
), (29r), (52), (57), (58
), (71) are multipliers, (51ml), (51mr
) is the main adder, and (51e1), (51er) are the sub adders. Agent Paige Ito
Hidetaka Matsukuma Digital number processing device 10 History example Fig. 3

Claims (1)

【特許請求の範囲】 複数の楽音情報を非音程成分と音程成分とに分割して記
憶する記憶手段と、該記憶手段よりの楽音情報を処理す
る複数の音信号処理手段とを有し、少なくとも1つの上
記音信号処理手段で上記複数の楽音情報の非音程成分の
信号処理を行い、残りの上記音信号処理手段の夫々で、
上記複数の楽音情報のいずれか1つの音程成分の信号処
理を行うようにし、 再生時に、上記非音程成分の信号処理を行う音信号処理
手段の出力信号と、上記音程成分の信号処理を行う音信
号処理手段の出力信号とを合成し、非音程成分と音程成
分とを連続的に再生するようにしたことを特徴とする電
子楽器。
[Scope of Claims] A storage means for dividing and storing a plurality of musical tone information into non-pitch components and pitch components, and a plurality of sound signal processing means for processing the musical tone information from the storage means, and at least One of the sound signal processing means performs signal processing of non-pitch components of the plurality of musical tone information, and each of the remaining sound signal processing means
Signal processing of any one of the pitch components of the plurality of musical tone information is performed, and during playback, the output signal of the sound signal processing means that performs the signal processing of the non-pitch component, and the sound that performs the signal processing of the pitch component. An electronic musical instrument characterized in that a non-pitch component and a pitch component are continuously reproduced by synthesizing the output signal of a signal processing means.
JP63282795A 1988-11-09 1988-11-09 Electronic musical instrument Expired - Lifetime JP2770353B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63282795A JP2770353B2 (en) 1988-11-09 1988-11-09 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63282795A JP2770353B2 (en) 1988-11-09 1988-11-09 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH02129696A true JPH02129696A (en) 1990-05-17
JP2770353B2 JP2770353B2 (en) 1998-07-02

Family

ID=17657190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63282795A Expired - Lifetime JP2770353B2 (en) 1988-11-09 1988-11-09 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2770353B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561472A (en) * 1991-08-30 1993-03-12 Kawai Musical Instr Mfg Co Ltd Musical tone generating device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59109090A (en) * 1982-12-15 1984-06-23 ヤマハ株式会社 Electronic musical instrument
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPS6328478U (en) * 1986-08-07 1988-02-24

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59109090A (en) * 1982-12-15 1984-06-23 ヤマハ株式会社 Electronic musical instrument
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPS6328478U (en) * 1986-08-07 1988-02-24

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561472A (en) * 1991-08-30 1993-03-12 Kawai Musical Instr Mfg Co Ltd Musical tone generating device

Also Published As

Publication number Publication date
JP2770353B2 (en) 1998-07-02

Similar Documents

Publication Publication Date Title
KR0160493B1 (en) Digital audio signal generating apparatus
KR940005988B1 (en) Musical sound waveform generator
JPH0798586A (en) Sound source device for electronic music instrument
US5640489A (en) Audio synthesizer time-sharing its first memory unit between two processors
JPS6068387A (en) Electronic musical instrument
JPS60100195A (en) Generator for percussion sound signal
JPH02129696A (en) Electronic musical instrument
JPH02125297A (en) Digital sound signal generating device
JP3090667B2 (en) Music synthesizer
JP2734024B2 (en) Electronic musical instrument
JP2754613B2 (en) Digital audio signal generator
JPH02135564A (en) Data processor
JP3334165B2 (en) Music synthesizer
JPS5975294A (en) Music tone synthesizer
JP2730101B2 (en) Digital audio signal generator
JP2611406B2 (en) Digital audio signal generator
JP2679175B2 (en) Audio signal generator
JP2643387B2 (en) Digital audio signal generator
JP2797141B2 (en) Musical sound wave generator
JPH02128600A (en) False stereo signal generating device
JPH10187155A (en) Karaoke device
JPH02135398A (en) Digital sound signal generating device
JPS61245196A (en) Musical sound generation
JP2642092B2 (en) Digital effect device
JPH02129697A (en) Digital sound signal generating device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090417

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090417

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090417

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090417

Year of fee payment: 11