JP2576703B2 - Musical sound wave generator - Google Patents

Musical sound wave generator

Info

Publication number
JP2576703B2
JP2576703B2 JP3037752A JP3775291A JP2576703B2 JP 2576703 B2 JP2576703 B2 JP 2576703B2 JP 3037752 A JP3037752 A JP 3037752A JP 3775291 A JP3775291 A JP 3775291A JP 2576703 B2 JP2576703 B2 JP 2576703B2
Authority
JP
Japan
Prior art keywords
waveform
information
input
signal
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3037752A
Other languages
Japanese (ja)
Other versions
JPH04255898A (en
Inventor
充美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP3037752A priority Critical patent/JP2576703B2/en
Publication of JPH04255898A publication Critical patent/JPH04255898A/en
Application granted granted Critical
Publication of JP2576703B2 publication Critical patent/JP2576703B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、電子楽器等で発音す
る楽音の基準となる楽音波形を発生する楽音波形発生装
置に係り、特にニューラルネットを利用した楽音波形発
生装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a musical tone waveform generator for generating a musical tone waveform which is used as a reference for musical tones produced by electronic musical instruments and the like, and more particularly to a musical tone waveform generator using a neural network.

【0002】[0002]

【従来の技術】従来、電子楽器等の楽音波形発生装置と
して、楽音波形の各位相角点における波形振幅値のデー
タを発生する方式として、楽音波形データを予めメモリ
等に記憶しておき、それを位相角データに応じて読み出
す波形メモリ読出方式が知られている。この波形メモリ
読出方式の中には、楽音波形データの1周期分を記憶す
るものや複数周期分を記憶するものがある。
2. Description of the Related Art Conventionally, as a method of generating a waveform amplitude value at each phase angle point of a musical sound waveform as a musical sound waveform generator of an electronic musical instrument or the like, the musical sound waveform data is stored in a memory or the like in advance. Is read out in accordance with phase angle data. Among the waveform memory reading methods, there are a method of storing one cycle of tone waveform data and a method of storing a plurality of cycles.

【0003】[0003]

【発明が解決しようとする課題】1周期分だけを記憶す
る方式は発音開始から終了までの波形が固定化されてい
るため、音色等の時間的変化を表現することが困難であ
り、できたとしてもフィルタ等による変形程度であり、
その表現力には限界がある。一方、音色等の時間的変化
を高品質で表現するために、発音開始から終了(アタッ
クからディケィ)までの全波形を記憶し、それを押鍵に
伴って一通り読み出すものがある。これは波形の記憶容
量が膨大となり、また波形データの作成も容易ではなく
多大の時間を必要とし、コスト的にも非常に高価なもの
である。
In the method of storing only one cycle, since the waveform from the start to the end of sound generation is fixed, it is difficult to express a temporal change in timbre and the like. Is the degree of deformation due to the filter etc.,
Its expressiveness is limited. On the other hand, in order to express a temporal change of a tone color or the like with high quality, there is a type that stores all waveforms from the start of sound generation to the end (from attack to decay), and reads out the entire waveform in accordance with a key depression. This requires an enormous amount of waveform storage capacity, and it is not easy to create waveform data, requiring a large amount of time, and very expensive in terms of cost.

【0004】そこで、記憶容量の大型化を抑え、データ
を容易に作成できるものとして、必要な複数周期波形を
効率的に記憶たメモリを具えた音源が、現在商品化され
ている。この音源は立上り部(アタック部)の波形とし
て複数周期分、その後の持続部の波形として1周期分を
記憶し、立上り部ではその複数周期分の波形を一通り読
み出し、続いて持続部ではその1周期分の波形を繰り返
して読み出すものであり、録音された原音をその音質を
劣化させることなく圧縮して記憶することができ、リア
リティが高くかつ表現力ある音質の楽音を忠実に再現で
きるという優れた特徴を有する音源である(特開昭59
−109090号公報)。
Therefore, as a device capable of easily creating data while suppressing an increase in the storage capacity, a sound source including a memory in which a required plural-cycle waveform is efficiently stored is currently being commercialized. This sound source stores a plurality of cycles as the waveform of the rising part (attack part) and one cycle as the waveform of the continuation part thereafter, reads out the waveforms of the plurality of cycles in the rising part, and then reads the waveform in the continuation part. It reads the waveform of one cycle repeatedly, and can compress and store the recorded original sound without deteriorating its sound quality, and can faithfully reproduce musical sounds with high reality and expressive sound quality. It is a sound source with excellent features
-1009090).

【0005】ところが、電子楽器で発音する楽音の種類
によってはストリングス系の楽音のように発音開始時の
音色変化はそれほど大きくなく、その後のアフタタッチ
時に主に音色の変化するものがある。このような楽音を
上記音源(持続部で1周期分の波形を繰り返し読み出す
もの)で発音する場合には、アフタタッチ時に楽音波形
にフィルタリング処理を施して音色等の時間的変化を表
現するしかなく、その表現力自体に限界があった。
[0005] However, depending on the type of musical sound produced by the electronic musical instrument, the tone color at the start of sound production is not so large, as in the case of strings, and the tone color mainly changes at the time of aftertouch. When such a musical tone is generated by the above sound source (a waveform of one cycle is repeatedly read out by the sustaining portion), it is necessary to perform a filtering process on the musical tone waveform at the time of after touch to express a temporal change in tone and the like. , Its expressiveness itself was limited.

【0006】本発明は上述の点に鑑みてなされたもので
あり、記憶容量の増大を抑え、波形データを容易に作成
できると共に発音開始から終了までの全波形に渡って音
色等の時間的変化を表現できる楽音波形発生装置を提供
することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and it is possible to suppress an increase in storage capacity, easily create waveform data, and change the timbre and the like over the entire waveform from the start to the end of sounding. It is an object of the present invention to provide a musical sound waveform generator capable of expressing a sound waveform.

【0007】[0007]

【課題を解決するための手段】 第1の発明に係る楽音
波形発生装置は、楽音の発生を指示するノートオン情報
と、この楽音の音高を指示する音高情報とを少なくとも
含む演奏情報を入力するための演奏情報入力手段と、入
力パラメータに応じた波形信号を形成する階層型ニュー
ラルネットによって構成され、前記演奏情報入力手段か
ら入力される音高情報を前記入力パラメータの1つとし
て入力することによって前記音高情報に応じた波形信号
、前記ノートオン情報の入力に応答したリアルタイム
で、形成する波形形成手段と、前記ノーオン情報の入
力に応答して、前記波形形成手段で形成された前記波形
信号を前記音高情報に応じた音高で出力する楽音波形出
力手段とを備えることを特徴とするものである。
According to a first aspect of the present invention, there is provided a musical tone waveform generating apparatus for generating performance information including at least note-on information for instructing generation of a musical tone and pitch information for instructing a pitch of the musical tone. It is constituted by a performance information input means for inputting, and a hierarchical neural network for forming a waveform signal according to the input parameter, and inputs pitch information input from the performance information input means as one of the input parameters. The waveform signal corresponding to the pitch information can be processed in real time in response to the input of the note-on information.
In the waveform forming means for forming, entering the note-on information
In response to the force, it is characterized in further comprising a tone waveform output means for outputting the waveform signal formed by said waveform formation means at pitch corresponding to the pitch information.

【0008】 第2の発明に係る楽音波形発生装置は、
楽音の発生を指示するノートオン情報と、この楽音につ
いてのタッチ情報とを少なくとも含む演奏情報を入力す
るための演奏情報入力手段と、入力パラメータに応じた
波形信号を形成する階層型ニューラルネットによって構
成され、前記演奏情報入力手段から入力されるタッチ情
報を前記入力パラメータの1つとして入力することによ
って前記タッチ情報に応じた波形信号を、前記ノートオ
ン情報の入力に応答したリアルタイムで、形成する波形
形成手段と、前記ノーオン情報の入力に応答して、前
記波形形成手段で形成された前記波形信号を出力する楽
音波形出力手段とを備えることを特徴とするものであ
る。
[0008] A musical sound waveform generator according to a second invention is characterized in that:
A note-on information indicating the occurrence of the musical tone, the tone Nitsu
Information input means for inputting performance information including at least the above touch information, and a hierarchical neural network for forming a waveform signal according to the input parameter, and the touch information input from the performance information input means. Is input as one of the input parameters, and a waveform signal corresponding to the touch information is input to the note-on.
In real time in response to an input of down information comprises a waveform forming means for forming, in response to an input of the note-on information, the musical tone waveform output means for outputting the waveform signal formed by said waveform formation means It is characterized by the following.

【0009】 第3の発明に係る楽音波形発生装置は、
楽音の発生を指示するノートオン情報を少なくとも含む
演奏情報を入力するための演奏情報入力手段と、前記ノ
ートオン情報に応じて時系列的に変化する制御情報を発
生する制御情報発生手段と、入力パラメータに応じた波
形信号を形成する階層型ニューラルネットによって構成
され、前記制御情報発生手段から発生される制御情報を
前記入力パラメータの1つとして入力することによって
前記制御情報に応じた波形信号を、前記ノートオン情報
の入力に応答したリアルタイムで、かつ該制御情報に応
じて時系列的に変化させて、形成する波形形成手段と、
前記ノートオン情報の入力に応答して、前記波形形成手
段で形成された前記波形信号を出力する楽音波形出力手
段とを備えることを特徴とするものである。
[0009] A musical sound waveform generator according to a third aspect of the present invention comprises:
Performance information input means for inputting performance information including at least note-on information for instructing generation of a musical tone, control information generation means for generating control information that changes in a time series according to the note-on information, A waveform signal according to the control information is constituted by a hierarchical neural network forming a waveform signal according to the parameter, and inputting control information generated from the control information generating means as one of the input parameters , The note-on information
In real time in response to the input of
A waveform forming means for forming the waveform by changing the waveform in time series ,
Wherein in response to the input of note-on information, is characterized in further comprising a tone waveform output means for outputting the waveform signal formed by said waveform formation means.

【0010】[0010]

【作用】ニューラルネットは神経網の工学モデルであ
り、パターン認識の分野で連想メモリとして研究開発の
行われている技術である。そして、階層型ニューラルネ
ットは入力パラメータとニューラルネット係数(シナプ
スの結合度)とに応じた信号を出力する。
The neural network is an engineering model of a neural network, and is a technology that is being researched and developed as an associative memory in the field of pattern recognition. Then, the hierarchical neural network outputs a signal corresponding to the input parameter and the neural network coefficient (the degree of synapse connection).

【0011】 第1の発明では、電子楽器の鍵盤等から
出力される楽音の音高を指示する音高情報を入力パラメ
ータの1つとして波形形成手段に入力する。波形形成手
段は入力パラメータに応じて波形信号を形成する階層型
ニューラルネットから構成され、前記演奏情報入力手段
から入力される音高情報を前記入力パラメータの1つと
して入力することによって前記音高情報に応じた波形信
号を、ノートオン情報の入力に応答したリアルタイム
で、形成する。従って、波形形成手段はこの音高情報を
アドレスとし、このアドレスに応じた波形信号を形成す
る波形メモリとして機能することとなる。
In the first invention, pitch information indicating the pitch of a musical tone output from a keyboard or the like of an electronic musical instrument is input to the waveform forming means as one of the input parameters. Waveform formation means is composed of a hierarchical neural network which forms a waveform signal in response to an input parameter, wherein the performance information input means
Pitch information input from the
The waveform signal corresponding to the pitch information
Issue in real time in response to input of note-on information
Then, form. Therefore, the waveform forming means uses the pitch information as an address, and functions as a waveform memory for forming a waveform signal corresponding to the address.

【0012】 通常の波形メモリはアドレスと一対一に
対応して波形信号を記憶しているので、発音に必要な波
形信号をその数だけ予め記憶しておかなければならず、
その記憶容量は膨大なものであるが、階層型ニューラル
ネットで構成された波形形成手段は入力パラメータの入
力によって形成された波形信号と、楽音から抽出される
楽音固有の正規化波形信号との誤差が最小となるように
学習されたニューラルネット係数を予め記憶しておくだ
けで、あらゆる音高情報(アドレス)の入力に対応した
波形信号をリアルタイムで形成することができる。そし
て、楽音波形出力手段は演奏情報入力手段を介して入力
される楽音の発生を指示するノートオン情報に応答し
、波形形成手段で形成された波形信号を音高情報に応
じた位相データで順次出力し、所望の音高の楽音波形信
号を出力する。このように、第1の発明によれば、従来
のように発音に必要な膨大な数の波形信号を予め記憶し
ておかなくてもよく記憶容量の増大化を抑制すること
ができると共に、音高情報を入力パラメータの1つとし
て階層型ニューラルネットに入力することによって、あ
らゆる波形信号を容易に形成することができる。なお、
音高情報と共に所望のエンベロープを指示するレベル情
報を入力パラメータとして波形形成手段に入力すること
によって、レベル情報に応じて発音開始から終了までの
全波形に渡って音色等の時間的変化を表現することがで
きる。
Since a normal waveform memory stores waveform signals in one-to-one correspondence with addresses, it is necessary to store in advance the number of waveform signals required for sound generation.
Although its storage capacity is enormous, the waveform forming means composed of a hierarchical neural network has an error between a waveform signal formed by inputting input parameters and a tone-specific normalized waveform signal extracted from a tone. By simply storing in advance the neural network coefficients learned so as to minimize, the waveform signal corresponding to the input of any pitch information (address) can be formed in real time . The musical sound waveform output means responds to note-on information instructing generation of a musical tone inputted through the performance information input means.
Then , the waveform signal formed by the waveform forming means is sequentially output with phase data corresponding to the pitch information, and a tone waveform signal having a desired pitch is output. As described above, according to the first invention, it is not necessary to previously store an enormous number of waveform signals required for sound generation as in the related art, and it is possible to suppress an increase in storage capacity, By inputting pitch information as one of the input parameters to the hierarchical neural network, any waveform signal can be easily formed. In addition,
By inputting level information indicating a desired envelope together with the pitch information to the waveform forming means as an input parameter, a temporal change of a timbre or the like is expressed over the entire waveform from the start to the end of sound generation according to the level information. be able to.

【0013】 第2の発明では、電子楽器の鍵盤等から
出力されるタッチ情報を入力パラメータの1つとして波
形形成手段に入力する。タッチ情報は演奏情報入力手段
を介して波形形成手段に入力される。従って、波形形成
手段はこのタッチ情報をアドレスとし、このアドレスに
応じた波形信号を形成する波形メモリとして機能するこ
ととなり、あらゆるタッチ情報(アドレス)に対応した
波形信号を、ノートオン情報の入力に応答したリアルタ
イムで、形成することができる。そして、楽音波形出力
手段はノートオン情報に基づき、波形形成手段で形成さ
れた波形信号を所定の位相データで順次出力し、所望の
楽音波形信号を出力する。このように、第2の発明によ
れば、記憶容量の増大化を抑制することができ、タッチ
情報を入力パラメータの1つとして階層型ニューラルネ
ットに入力することによって、あらゆる波形信号を容易
に形成することができるとともに、タッチ情報の変化に
応じて発音開始から終了までの全波形に渡って音色等の
時間的変化を高品質に表現することができる。
In the second invention, touch information output from a keyboard or the like of an electronic musical instrument is input to the waveform forming means as one of input parameters. The touch information is input to the waveform forming means via the performance information input means. Accordingly, the waveform forming means uses the touch information as an address, and functions as a waveform memory for forming a waveform signal corresponding to the address. The waveform signal corresponding to any touch information (address) is input to the note-on information. Realta responded
Im, can be formed. Then, based on the note-on information, the tone waveform output means sequentially outputs the waveform signal formed by the waveform forming means with predetermined phase data, and outputs a desired tone waveform signal. As described above, according to the second aspect, an increase in storage capacity can be suppressed, and all waveform signals can be easily formed by inputting touch information to the hierarchical neural network as one of input parameters. In addition to this, it is possible to express the temporal change of the timbre and the like with high quality over the entire waveform from the start to the end of the sound generation according to the change of the touch information.

【0014】 第3の発明では、電子楽器の鍵盤等から
は楽音の発生を指示するノートオン情報が出力されるの
で、このノートオン情報に応じて時系列的に変化する制
御情報を発生する制御情報発生手段を設け、この制御情
報を入力パラメータの1つとして波形形成手段に入力す
る。従って、波形形成手段はこの制御情報をアドレスと
し、このアドレスに応じた波形信号を形成する波形メモ
リとして機能することとなり、時系列的に変化する制御
情報(アドレス)に対応して時系列的に変化した波形信
号を、ノートオン情報の入力に応答したリアルタイム
で、かつ該制御情報に応じて時系列的に変化させて、
成することができる。そして、楽音波形出力手段はノー
トオン情報に応答して、波形形成手段で形成された波形
信号を所定の位相データで順次出力するので、時間の経
過に伴って時系列的に変化する楽音波形信号を出力す
る。このように第3の発明によれば、記憶容量の増大化
を抑制することができ、時系列的に変化する制御情報を
入力パラメータの1つとして階層型ニューラルネットに
入力することによって、発音開始から終了までの全波形
に渡って音色等の時間的変化を高品質に表現することが
できる。
In the third invention, note-on information for instructing generation of a musical tone is output from a keyboard or the like of the electronic musical instrument. Therefore, control for generating control information that changes in a time series according to the note-on information is performed. An information generating means is provided, and this control information is input to the waveform forming means as one of the input parameters. Therefore, the waveform forming means uses the control information as an address and functions as a waveform memory for forming a waveform signal corresponding to the address. In response to the control information (address) which changes in time series, the waveform forming means operates in time series. Real-time response of the changed waveform signal to the input of note-on information
, And can be formed in a time-series manner in accordance with the control information . The tone waveform output means sequentially outputs the waveform signal formed by the waveform forming means with predetermined phase data in response to the note-on information, so that the tone waveform signal which changes in time series with the passage of time. Is output. As described above, according to the third aspect, it is possible to suppress an increase in storage capacity, and to input control information that changes in time series as one of the input parameters to the hierarchical neural network, thereby starting sound generation. It is possible to express the temporal change of the timbre or the like with high quality over the entire waveform from the end to the end.

【0015】[0015]

【実施例】以下、この発明の実施例を添付図面に従って
詳細に説明する。図1の(a)は楽音信号に基づいてニ
ューラルネットに波形信号を学習させる場合の全体構成
を示す図である。図1の(a)において、分析手段1は
音声信号や楽器音をマイクロフォン等を介して入力し、
それをサンプリングしてアナログ/デジタル(A/D)
変換器でデジタル信号に変換し、そのデジタル信号に基
づいて音高(ピッチ)データP、ピッチの微分値ΔP、
振幅(レベル)データL及びレベルの微分値ΔLを抽出
し、階層型ニューラルネット2のそれぞれの入力層ニュ
ーロンI0 〜I3 に出力する。このとき、分析手段1は
学習用の正規化波形信号(教師信号)RSも抽出して階
層型ニューラルネット2に出力する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1A is a diagram showing an overall configuration when a neural network learns a waveform signal based on a tone signal. In FIG. 1A, an analysis unit 1 inputs a voice signal or a musical instrument sound via a microphone or the like,
Sampling it and analog / digital (A / D)
The data is converted into a digital signal by a converter, and based on the digital signal, pitch (pitch) data P, a differential value of pitch ΔP,
The amplitude (level) data L and the differential value ΔL of the level are extracted and output to the input layer neurons I0 to I3 of the hierarchical neural network 2. At this time, the analysis means 1 also extracts a normalized waveform signal (teacher signal) RS for learning and outputs it to the hierarchical neural network 2.

【0016】分析手段1としては、自己相関法、零点交
差法、高速フーリエ変換法、線形予測分析法(Line
ar Predictive Coding:LP
C)、線スペクトル対分析法(Line Spectr
um Pair:LSP)、複合正弦波モデル分析法
(Composite Sinnsoidal mod
el:CSM)等の音響・音声分析の分野で周知の技術
を利用して構成する。
The analysis means 1 includes an autocorrelation method, a zero crossing method, a fast Fourier transform method, and a linear predictive analysis method (Linear predictive analysis method).
ar Predictive Coding: LP
C), Line Spectrum Pair Analysis (Line Spectr)
um Pair: LSP), Composite Sinusoidal modal analysis
el: CSM) or the like using a technique well-known in the field of sound / speech analysis.

【0017】階層型ニューラルネット2はマイクロプロ
セッサユニット(MPU)を中心に構成されたソフトウ
ェア部分と、処理の高速性を高めるためにニューラルネ
ット専用に構成されたハードウェア部分とからなる。す
なわち、階層型ニューラルネット2は、マイクロプロセ
ッサユニット、システムプログラム等を格納するRO
M、シナプス結合度Vjk,Wijやその他のデータ等を格
納するデータ及びワーキング用RAM等のバス結合で構
成されるマイクロコンピュータシステムと、これに付加
された高速演算用のロジック回路とによって構成されて
いる。なお、図1の(a)では、シナプス結合度Vjk,
Wijを格納するものとして、特にデータ及びワーキング
用RAMのメモリ領域3を示す。このシナプス結合度V
jk,Wijが波形信号を特徴付けるための重要なニューラ
ルネット係数である。このニューラルネット係数の算出
法については後述する。
The hierarchical neural network 2 is composed of a software part mainly composed of a microprocessor unit (MPU) and a hardware part exclusively designed for the neural network in order to increase the processing speed. That is, the hierarchical neural network 2 is an RO that stores a microprocessor unit, a system program, and the like.
M, a microcomputer system comprising a bus connection such as a working RAM and data for storing synapse coupling degrees Vjk, Wij and other data, and a logic circuit for high-speed operation added thereto. I have. In FIG. 1A, the synaptic connectivity Vjk,
In particular, the memory area 3 of the data and working RAM is shown as storing Wij. This synaptic connection degree V
jk and Wij are important neural net coefficients for characterizing the waveform signal. The method of calculating the neural network coefficient will be described later.

【0018】図1の(b)は波形信号の学習を終了した
階層型ニューラルネット2を用いて楽音波形を作成する
場合の全体構成を示す図である。発音すべき楽音波形を
特定するためのピッチデータP、ピッチの微分値ΔP、
レベルデータL及びレベルの微分値ΔLが階層型ニュー
ラルネット2のそれぞれの入力層ニューロンI0 〜I3
に入力され、メモリ領域3内のシナプス結合度Vjk,W
ijに応じた信号が1024個の出力層ニューロンOi
(O0 〜O1023)から出力される。そして、位相データ
iに対応した出力層ニューロンOi の信号が順次読み出
され、階層型ニューラルネット2からは学習時の波形に
対応した特定の楽音波形信号が出力されるようになる。
FIG. 1 (b) is a diagram showing an entire configuration in the case of creating a musical tone waveform using the hierarchical neural network 2 for which learning of a waveform signal has been completed. Pitch data P for specifying a musical sound waveform to be pronounced, differential value ΔP of pitch,
The level data L and the differential value ΔL of the level are input neurons I0 to I3 of the hierarchical neural network 2 respectively.
And the degree of synapse connection Vjk, W in the memory area 3
The signal corresponding to ij is 1024 output layer neurons Oi
(O0 to O1023). Then, the signals of the output layer neurons Oi corresponding to the phase data i are sequentially read out, and a specific tone waveform signal corresponding to the waveform at the time of learning is output from the hierarchical neural network 2.

【0019】図2はマイクロコンピュータシステム及び
ロジック回路で構成される階層型ニューラルネット2の
概念を示す図である。図2において、階層型ニューラル
ネット2は4個の入力層ニューロンIk(I0 〜I3 )
と、8個の中間層(ヒドン(隠れ)層)ニューロンHj
(H0 〜H7 )と、1024個の出力層ニューロンOi
(O0 〜O1023)とから構成される。
FIG. 2 is a diagram showing the concept of a hierarchical neural network 2 composed of a microcomputer system and a logic circuit. In FIG. 2, the hierarchical neural network 2 has four input layer neurons Ik (I0 to I3).
And eight intermediate (hidden (hidden) layers) neurons Hj
(H0 to H7) and 1024 output layer neurons Oi
(O0 to O1023).

【0020】入力層ニューロンI0 にはピッチデータP
が、入力層ニューロンI1 にはピッチの微分値ΔPが、
入力層ニューロンI2 にはレベルデータLが、入力層ニ
ューロンI3 にはレベルの微分値ΔLがそれぞれ分析手
段1から入力される。入力層ニューロンI0 〜I3 はそ
れぞれ結合度Vjkのシナプスを介して中間層ニューロン
H0 〜H7に結合される。以下、『Vjk』と表示すると
きは、k番目の入力層ニューロンIk とj番目の中間層
ニューロンHj との間のシナプス結合とその結合度のこ
とを意味するものとして用いる。従って、入力層ニュー
ロンI0 と中間層ニューロンH0 との間はシナプス結合
V00によって結合され、同様に、入力層ニューロンI1
はシナプス結合V01、入力層ニューロンI2 はシナプス
結合V02、入力層ニューロンI3 はシナプス結合V03を
介してそれぞれ中間層ニューロンH0 に結合されてい
る。
The input layer neuron I0 has pitch data P
The input layer neuron I1 has a pitch differential value ΔP,
The level data L is input to the input layer neuron I2, and the level differential value ΔL is input to the input layer neuron I3 from the analysis means 1. The input layer neurons I0 to I3 are connected to the intermediate layer neurons H0 to H7 via synapses of the degree of connection Vjk, respectively. Hereinafter, the term "Vjk" is used to mean the synaptic connection between the k-th input layer neuron Ik and the j-th intermediate layer neuron Hj and the degree of the connection. Therefore, the input layer neuron I0 and the intermediate layer neuron H0 are connected by the synaptic connection V00, and similarly, the input layer neuron I1
Are connected to the intermediate layer neuron H0 via the synaptic connection V01, the input layer neuron I2 is connected to the synaptic connection V02, and the input layer neuron I3 is connected to the intermediate layer neuron H0 via the synaptic connection V03.

【0021】中間層ニューロンH0 〜H7 はシナプス結
合Vjkを介して入力層ニューロンI0 〜I3 に、シナプ
ス結合Wijを介して出力層ニューロンO0 〜O1023にそ
れぞれ結合され、各入力値とシナプス結合度Vjkとの積
をそれぞれ加算し、その加算値をシグモイド関数f
(u)で変換し、中間層信号αj として出力層ニューロ
ンO0 〜O1023に出力している。以下、『Wij』と表示
するときは、j番目の中間層ニューロンHjとi番目の
出力層ニューロンOiとの間のシナプス結合とその結合
度のことを意味するものとして用いる。シグモイド関数
f(u)は、f(u)=1/(1+exp(−u/
T))とする。例えば、中間層ニューロンH0 はピッチ
データPとシナプス結合度V00の積(P・V00)と、ピ
ッチの微分値ΔPとシナプス結合度V01の積(ΔP・V
01)と、レベルデータLとシナプス結合度V02の積(L
・V02)と、レベルの微分値ΔLとシナプス結合度V03
の積(ΔL・V03)を入力し、これらを加算した値(P
・V00+ΔP・V01+L・V02+ΔL・V03)をシグモ
イド関数f(u)で変換して中間層信号α0 を各出力層
ニューロンO0 〜O1023に出力する。中間層ニューロン
H1 〜H7 も同様の演算を行い、その結果である中間層
信号α1 〜α7 を各出力層ニューロンO0 〜O1023に出
力する。
The intermediate layer neurons H0 to H7 are respectively connected to the input layer neurons I0 to I3 via the synapse connection Vjk and to the output layer neurons O0 to O1023 via the synapse connection Wij. , And add the sum to the sigmoid function f
(U) and outputs it to the output layer neurons O0 to O1023 as an intermediate layer signal αj. Hereinafter, the expression “Wij” is used to mean the synaptic connection between the j-th intermediate layer neuron Hj and the i-th output layer neuron Oi and the degree of the connection. The sigmoid function f (u) is given by f (u) = 1 / (1 + exp (-u /
T)). For example, the intermediate layer neuron H0 calculates the product (P · V00) of the pitch data P and the synaptic connectivity V00 and the product (ΔP · V) of the pitch differential value ΔP and the synaptic connectivity V01.
01) and the product of the level data L and the synaptic connectivity V02 (L
V02), the level differential value ΔL, and the synaptic connection degree V03
(ΔL · V03), and the sum of these values (P
.V00 + .DELTA.P.V01 + L.V02 + .DELTA.L.V03) is converted by the sigmoid function f (u) and the intermediate layer signal .alpha.0 is output to each output layer neuron O0 to O1023. The intermediate layer neurons H1 to H7 perform the same operation, and output intermediate layer signals α1 to α7 which are the results to the output layer neurons O0 to O1023.

【0022】出力層ニューロンO0 〜O1023は、それぞ
れのシナプス結合Wijを介して中間層ニューロンH0 〜
H7 に結合され、各中間層ニューロンH0 〜H7 からの
中間層信号α0 〜α7 とシナプスWijとの積をそれぞれ
加算し、その加算値を再びシグモイド関数f(u)で変
換して出力層信号Fiとして波形信号の各位相ナンバi
に対応した最終的な波形振幅値として出力する。従っ
て、各出力層ニューロンO0 〜O1023の出力層信号F0
〜F1023を位相ナンバiに従って順番に読み出すことに
よって特定の楽音波形を形成することができる。ここ
で、出力層ニューロンの数は波形信号の位相ナンバiと
同じ1024個である。例えば、出力層ニューロンO0
は中間層信号α0 とシナプス結合W00の積(α0 ・W0
0)と、中間層信号α1 とシナプス結合W01の積(α1
・W01)と、中間層信号α2 とシナプス結合W02の積
(α2 ・W02)と、中間層信号α3 とシナプス結合W03
の積(α3 ・W03)と、中間層信号α4 とシナプス結合
W04の積(α4 ・W04)と、中間層信号α5 とシナプス
結合W05の積(α5 ・W05)と、中間層信号α6 とシナ
プス結合W06の積(α6 ・W06)と、中間層信号α7 と
シナプス結合W07の積(α7 ・W07)を入力する。そし
て、出力層ニューロンO0 はこれらを加算した値(α0
・W00+α1 ・W01+α2 ・W02+α3 ・W03+α4 ・
W04+α5・W05+α6 ・W06+α7 ・W07)をシグモ
イド関数f(u)で変換して出力層信号F0 を出力す
る。他の出力層ニューロンO1 〜O1023も同様にそれぞ
れの中間層信号αj とシナプス結合Wijとの積を加算
し、その値をシグモイド関数f(u)で変換して出力層
信号F1 〜F1023を出力する。
The output-layer neurons O0 to O1023 are connected to the intermediate-layer neurons H0 to H0 through respective synaptic connections Wij.
H7, the products of the intermediate layer signals .alpha.0 to .alpha.7 from the intermediate layer neurons H0 to H7 and the synapses Wij are respectively added, and the added value is again converted by the sigmoid function f (u) to output the output layer signal Fi. Each phase number i of the waveform signal
Is output as the final waveform amplitude value corresponding to. Therefore, the output layer signal F0 of each output layer neuron O0 to O1023 is obtained.
To F1023 in order according to the phase number i, thereby forming a specific musical tone waveform. Here, the number of output layer neurons is 1024, which is the same as the phase number i of the waveform signal. For example, the output layer neuron O0
Is the product of the intermediate layer signal α0 and the synaptic connection W00 (α0 · W0
0) and the product of the intermediate layer signal α1 and the synaptic connection W01 (α1
W01), the product of the intermediate layer signal α2 and the synaptic connection W02 (α2 · W02), and the intermediate layer signal α3 and the synaptic connection W03
(Α3 · W03), the product of the intermediate layer signal α4 and the synaptic connection W04 (α4 · W04), the product of the intermediate layer signal α5 and the synaptic connection W05 (α5 · W05), and the intermediate layer signal α6 and the synaptic connection The product (α6 · W06) of W06 and the product (α7 · W07) of the intermediate layer signal α7 and the synaptic connection W07 are input. Then, the output layer neuron O0 calculates the sum (α0
・ W00 + α1 ・ W01 + α2 ・ W02 + α3 ・ W03 + α4 ・
W04 + α5 · W05 + α6 · W06 + α7 · W07) is converted by a sigmoid function f (u) to output an output layer signal F0. Similarly, the other output layer neurons O1 to O1023 add the products of the respective intermediate layer signals αj and the synaptic connections Wij, convert the values with a sigmoid function f (u), and output the output layer signals F1 to F1023. .

【0023】 図2のような階層型ニューラルネット2
をマイクロコンピュータシステムだけでソフトウェア的
に構成することも可能であるが、波形信号を高速に処理
するためには、入力層ニューロンIkと中間層ニューロ
ンHjとの間の演算及び中間層ニューロンHjと出力層
ニューロンOiとの間の演算をそれぞれのハードウェア
で実現した方がよい。以下、階層型ニューラルネット2
を構成するハードウェア部の詳細について図3及び図4
を用いて説明する。
A hierarchical neural network 2 as shown in FIG.
Can be configured by software using only a microcomputer system, but the waveform signal can be processed at high speed.
Meniwa that is, it is better to implement the respective hardware operation between the operation and the intermediate layer neurons Hj and an output layer neuron Oi between the input layer neurons Ik and hidden neurons Hj. Hereinafter, hierarchical neural network 2
3 and 4 for details of the hardware part constituting
This will be described with reference to FIG.

【0024】図2において、入力層ニューロンIkと中
間層ニューロンHjとの間で演算を行い、入力データの
状態を分析する部分を状態分析手段といい、中間層ニュ
ーロンHjと出力層ニューロンOiとの間で演算を行
い、波形信号を発生する部分を波形信号発生手段とい
う。図3はこの状態分析手段2Vの1個の中間層ニュー
ロンHjに対応する回路構成を示す図であり、図4は波
形信号発生手段2Wの1個の出力層ニューロンOiに対
応する回路構成を示す図である。従って、実際の状態分
析手段2Vは中間層ニューロンHjと同じ数(8個)だ
け図3の回路を集積化して構成され、波形信号発生手段
2Wは出力層ニューロンOiと同じ数(1024個)だ
け図4の回路を集積化して構成されている。
In FIG. 2, a portion for performing an operation between the input layer neuron Ik and the intermediate layer neuron Hj and analyzing the state of the input data is called state analysis means. A portion that performs a calculation between the two and generates a waveform signal is referred to as a waveform signal generating means. FIG. 3 is a diagram showing a circuit configuration corresponding to one intermediate layer neuron Hj of the state analyzing means 2V, and FIG. 4 is a circuit configuration corresponding to one output layer neuron Oi of the waveform signal generating means 2W. FIG. Therefore, the actual state analyzing means 2V is configured by integrating the circuits of FIG. 3 by the same number (eight) as the intermediate layer neurons Hj, and the waveform signal generating means 2W is formed by the same number (1024) as the output layer neurons Oi. It is configured by integrating the circuit of FIG.

【0025】図3の状態分析手段2Vは、4個の乗算器
Mj0,Mj1,Mj2,Mj3と、3個の加算器Aj1,Aj2,
Aj3と、シグモイド関数変換器SIG1とによって構成
される。ここで、jは中間層ニューロンHj の番号jで
ある。乗算器Mj0はピッチデータPとデータ及びワーキ
ング用RAMのメモリ領域3Vに格納されているシナプ
ス結合Vj0とを入力し、両者を乗算した値(P×Vj0)
を加算器Aj1に出力する。乗算器Mj1はピッチ微分値Δ
Pとシナプス結合Vj1との値を乗算した値(ΔP×Vj
1)を加算器Aj1に出力する。乗算器Mj2はレベルデー
タLとシナプス結合Vj2との値を乗算した値(L×Vj
2)を加算器Aj2に出力する。乗算器Mj3はレベル微分
値ΔLとシナプス結合Vj3との値を乗算した値(ΔL×
Vj3)を加算器Aj3に出力する。
The state analysis means 2V shown in FIG. 3 includes four multipliers Mj0, Mj1, Mj2, Mj3 and three adders Aj1, Aj2,
Aj3 and a sigmoid function converter SIG1. Here, j is the number j of the hidden neuron Hj. The multiplier Mj0 receives the pitch data P, the data and the synaptic connection Vj0 stored in the memory area 3V of the working RAM, and multiplies the two (P × Vj0).
Is output to the adder Aj1. The multiplier Mj1 calculates the pitch differential value Δ
P multiplied by the value of synaptic connection Vj1 (ΔP × Vj
1) is output to the adder Aj1. The multiplier Mj2 multiplies the value of the level data L and the value of the synaptic connection Vj2 (L × Vj
2) is output to the adder Aj2. The multiplier Mj3 multiplies the value of the level differential value ΔL and the value of the synaptic connection Vj3 (ΔL ×
Vj3) is output to the adder Aj3.

【0026】加算器Aj1は乗算器Mj0, Mj1の出力を加
算した値(P×Vj0+ΔP×Vj1)を次の加算器Aj2に
出力する。加算器Aj2は加算器Aj1と乗算器Mj2の出力
を加算した値(P×Vj0+ΔP×Vj1+L×Vj2)を次
の加算器Aj3に出力する。加算器Aj3は加算器Aj2と乗
算器Mj3の出力を加算した値(P×Vj0+ΔP×Vj1+
L×Vj2+ΔL×Vj3)をシグモイド関数変換器SIG
1に出力する。従って、加算器Aj1,Aj2,Aj3の代わ
りに乗算器Mj0,Mj1,Mj2,Mj3の合計値を出力する
ものを用いてもよい。シグモイド関数変換器SIG1は
加算器Aj3の出力値(P×Vj0+ΔP×Vj1+L×Vj2
+ΔL×Vj3)をシグモイド関数f(u)で変換し、そ
れを中間層信号αj としてシナプス結合Wijを介してそ
れぞれの出力層ニューロンO0 〜O1023に出力する。
The adder Aj1 outputs the value (P × Vj0 + ΔP × Vj1) obtained by adding the outputs of the multipliers Mj0 and Mj1 to the next adder Aj2. The adder Aj2 outputs a value (P × Vj0 + ΔP × Vj1 + L × Vj2) obtained by adding the outputs of the adder Aj1 and the multiplier Mj2 to the next adder Aj3. The adder Aj3 adds the output of the adder Aj2 and the output of the multiplier Mj3 (P × Vj0 + ΔP × Vj1 +
L × Vj2 + ΔL × Vj3) is converted to a sigmoid function converter SIG
Output to 1. Therefore, instead of the adders Aj1, Aj2, Aj3, a device that outputs the total value of the multipliers Mj0, Mj1, Mj2, Mj3 may be used. The sigmoid function converter SIG1 outputs the output value (P × Vj0 + ΔP × Vj1 + L × Vj2) of the adder Aj3.
+ ΔL × Vj3) is converted by a sigmoid function f (u) and output as an intermediate layer signal αj to the output layer neurons O0 to O1023 via the synaptic connection Wij.

【0027】図4の波形発生手段2Wは、8個の乗算器
mi0,mi1,mi2,mi3,mi4,mi5,mi6,mi7と、
7個の加算器ai1,ai2,ai3,ai4,ai5,ai6,a
i7と、シグモイド関数変換器SIG2とによって構成さ
れる。ここで、iは出力層ニューロンOi の番号iであ
る。乗算器mi0は中間層信号α0 とデータ及びワーキン
グ用RAMのメモリ領域3Wに格納されているシナプス
結合Wi0とを入力し、両者を乗算した値(α0 ×Wi0)
を加算器ai1に出力する。乗算器mi1は中間層信号α1
とシナプス結合Wi1との値を乗算した値(α1 ×Wi1)
を加算器ai1に出力する。乗算器mi2は中間層信号α2
とシナプス結合Wi2との値を乗算した値(α2 ×Wi2)
を加算器ai2に出力する。乗算器mi3,mi4,mi5,m
i6,mi7も同様に中間層信号α3 ,α4 ,α5 ,α6 ,
α7 とシナプス結合Wi3,Wi4,Wi5,Wi6,Wi7との
値を乗算した値(α3 ×Wi3,α4 ×Wi4,α5 ×Wi
5,α6 ×Wi6,α7 ×Wi7)をそれぞれの加算器ai
3,ai4,ai5,ai6,ai7に出力する。
The waveform generating means 2W of FIG. 4 comprises eight multipliers mi0, mi1, mi2, mi3, mi4, mi5, mi6, mi7,
Seven adders ai1, ai2, ai3, ai4, ai5, ai6, a
i7 and a sigmoid function converter SIG2. Here, i is the number i of the output layer neuron Oi. The multiplier mi0 receives the intermediate layer signal α0 and the synapse connection Wi0 stored in the memory area 3W of the data and working RAM, and multiplies both (α0 × Wi0).
Is output to the adder ai1. The multiplier mi1 outputs the intermediate layer signal α1
Multiplied by the value of the synapse connection Wi1 and (α1 × Wi1)
Is output to the adder ai1. The multiplier mi2 outputs the intermediate layer signal α2
Multiplied by the value of and the synaptic connection Wi2 (α2 × Wi2)
Is output to the adder ai2. Multipliers mi3, mi4, mi5, m
Similarly, the intermediate layer signals α3, α4, α5, α6,
α7 multiplied by the value of synaptic connections Wi3, Wi4, Wi5, Wi6, Wi7 (α3 × Wi3, α4 × Wi4, α5 × Wi
5, α6 × Wi6, α7 × Wi7) are added to respective adders ai
3, ai4, ai5, ai6, ai7.

【0028】加算器ai1は乗算器mi0, mi1の出力を加
算した値(α0 ×Wi0+α1 ×Wi1)を次の加算器ai2
に出力する。加算器ai2は加算器ai1と乗算器mi2の出
力を加算した値(α0 ×Wi0+α1 ×Wi1+α2×Wi
2)を次の加算器ai3に出力する。以下同様に、加算器
ai3,ai4,ai5,ai6,ai7は前段の加算器に対応し
た乗算器との出力を順次加算し、最終的な加算値(α0
×Wi0+α1 ×Wi1+α2 ×Wi2+α3 ×Wi3+α4 ×
Wi4+α5 ×Wi5+α6 ×Wi6+α7 ×Wi7)を加算器
ai7がシグモイド関数変換器SIG2に出力する。従っ
て、加算器ai1,ai2,ai3,ai4,ai5,ai6,ai7
の代わりに乗算器mi1,mi2,mi3,mi4,mi5,mi
6,mi7の合計値を出力するものを用いてもよい。シグ
モイド関数変換器SIG2は加算器ai7の出力値(α0
×Wi0+α1 ×Wi1+α2 ×Wi2+α3 ×Wi3+α4 ×
Wi4+α5 ×Wi5+α6 ×Wi6+α7 ×Wi7)をシグモ
イド関数f(u)で変換し、それを位相番号iの出力層
信号Fiとして出力する。なお、シグモイド関数変換器
SIG2は省略してもよい。
The adder ai1 adds the value (α0 × Wi0 + α1 × Wi1) obtained by adding the outputs of the multipliers mi0 and mi1 to the next adder ai2.
Output to The adder ai2 adds the output of the adder ai1 and the output of the multiplier mi2 (α0 × Wi0 + α1 × Wi1 + α2 × Wi
2) is output to the next adder ai3. Similarly, the adders ai3, ai4, ai5, ai6, and ai7 sequentially add the outputs from the multipliers corresponding to the previous-stage adder, and add the final added value (α0
× Wi0 + α1 × Wi1 + α2 × Wi2 + α3 × Wi3 + α4 ×
The adder ai7 outputs Wi4 + α5 × Wi5 + α6 × Wi6 + α7 × Wi7) to the sigmoid function converter SIG2. Therefore, the adders ai1, ai2, ai3, ai4, ai5, ai6, ai7
Instead of the multipliers mi1, mi2, mi3, mi4, mi5, mi
A device that outputs the total value of 6, mi7 may be used. The sigmoid function converter SIG2 outputs the output value of the adder ai7 (α0
× Wi0 + α1 × Wi1 + α2 × Wi2 + α3 × Wi3 + α4 ×
Wi4 + α5 × Wi5 + α6 × Wi6 + α7 × Wi7) is converted by a sigmoid function f (u) and output as an output layer signal Fi of phase number i. Note that the sigmoid function converter SIG2 may be omitted.

【0029】次に、ニューラルネット係数(シナプス結
合度Vjk,Wij)の分析処理を図5のフローチャートに
基づいてステップ順に説明する。 ステップ50:ニューラルネット係数(シナプス結合V
jk,Wij)に初期値として、出力層ニューロンOiから
の出力波形がほぼ正弦波となるような値を設定する。 ステップ51:分析手段1に音声信号や楽器音等の楽音
波形をマイクロフォン等を介して入力する。このときの
楽音波形の中にはイニシャルタッチデータ及びアフタタ
ッチデータ等が含まれている。
Next, the processing of analyzing the neural network coefficients (the synaptic coupling degrees Vjk, Wij) will be described in the order of steps based on the flowchart of FIG. Step 50: Neural network coefficients (synaptic connection V
jk, Wij) are set as initial values so that the output waveform from the output layer neuron Oi becomes substantially a sine wave. Step 51: A musical sound waveform such as an audio signal or a musical instrument sound is input to the analyzing means 1 via a microphone or the like. The tone waveform at this time includes initial touch data, after touch data, and the like.

【0030】ステップ52〜55は、分析手段1が行う
処理であり、入力された楽音信号からピッチデータP、
ピッチ微分値ΔP、レベルデータL、レベル微分値ΔL
等の楽音に関する楽音データと、その楽音に固有の正規
化波形信号RSを抽出する処理であり、ステップ56〜
58は、階層型ニューラルネット2が行う処理であり、
ニューラルネット係数(シナプス結合度Vjk,Wij)を
学習記憶する処理である。 ステップ52:分析手段1は、入力された楽音波形をサ
ンプリングしてアナログ/デジタル(A/D)変換器で
デジタル信号に変換し、このデジタル信号に基づいて振
幅エンベロープ信号を抽出し、そして、この振幅エンベ
ロープ信号に基づいてレベルデータL及びレベル微分値
ΔLを算出して階層型ニューラルネット2に出力する。
Steps 52 to 55 are processes performed by the analyzing means 1, and the pitch data P, P
Pitch differential value ΔP, level data L, level differential value ΔL
This is a process for extracting musical tone data relating to musical tones and the like and a normalized waveform signal RS unique to the musical tones.
58 is a process performed by the hierarchical neural network 2,
This is a process of learning and storing neural network coefficients (synapse coupling degrees Vjk, Wij). Step 52: The analysis means 1 samples the input musical sound waveform, converts it into a digital signal by an analog / digital (A / D) converter, extracts an amplitude envelope signal based on the digital signal, and The level data L and the level differential value ΔL are calculated based on the amplitude envelope signal, and output to the hierarchical neural network 2.

【0031】ステップ53:前のステップで抽出された
デジタル信号の振幅エンベロープ信号のレベルが全波形
に渡って一定となるように均一化する。 ステップ54:分析手段1は、前のステップで均一化さ
れた振幅エンベロープ信号に基づいて音高(ピッチ)の
変化を示すピッチエンベロープ信号を抽出し、そして、
このピッチエンベロープ信号に基づいてピッチデータP
及びその微分値ΔPを算出して階層型ニューラルネット
2に出力する。
Step 53: The level of the amplitude envelope signal of the digital signal extracted in the previous step is equalized so as to be constant over the entire waveform. Step 54: The analyzing means 1 extracts a pitch envelope signal indicating a change in pitch (pitch) based on the amplitude envelope signal uniformized in the previous step, and
Based on the pitch envelope signal, the pitch data P
And its differential value ΔP are calculated and output to the hierarchical neural network 2.

【0032】ステップ55:分析手段1は、前のステッ
プで抽出されたピッチエンベロープ信号のレベルが全波
形に渡って一定となるように均一化する。このようにし
て得られたピッチレベルの均一化されたピッチエンベロ
ープ信号は、振幅レベル及びピッチレベルの均一化され
た正規化波形(教師波形)信号RSとして階層型ニュー
ラルネット2に出力される。このようにして得られた正
規化波形(教師波形)信号RSは楽音に固有のものであ
る。 ステップ56:階層型ニューラルネット2は、分析手段
1からのピッチデータP、ピッチ微分値ΔP、レベルデ
ータL、レベル微分値ΔL及び正規化波形信号RSに基
づいてニューラルネット係数(シナプス結合度Vjk,W
ij)をバックプロパゲーション法によって学習する。
Step 55: The analyzing means 1 equalizes the level of the pitch envelope signal extracted in the previous step so as to be constant over the entire waveform. The pitch envelope signal having a uniform pitch level obtained in this manner is output to the hierarchical neural network 2 as a normalized waveform (teacher waveform) signal RS having a uniform amplitude level and pitch level. The thus-obtained normalized waveform (teacher waveform) signal RS is unique to a musical tone. Step 56: Based on the pitch data P, the pitch differential value ΔP, the level data L, the level differential value ΔL, and the normalized waveform signal RS from the analysis means 1, the hierarchical neural network 2 generates a neural network coefficient (the synaptic coupling degree Vjk, W
ij) is learned by the back propagation method.

【0033】すなわち、図2の階層型ニューラルネット
において、入力層ニューロンI0 〜I3 にピッチデータ
P、ピッチ微分値ΔP、レベルデータL、レベル微分値
ΔLがそれぞれ入力される。ニューラルネット係数(シ
ナプス結合度Vjk,Wij)にはステップ50の処理で予
め初期値が設定されているので、出力層ニューロンO0
〜O1023からはニューラルネット係数に応じた1024
個の出力層信号F0 〜F1023が出力される。この102
4個の出力層信号Fiは正弦波信号である。そこで階層
型ニューラルネット2を構成するマイクロプロコンピュ
ータシステムは、分析手段1からの正規化波形信号RS
を出力層信号数に対応した1024個の正規化波形信号
RS0 〜RS1023に変換し、出力層信号F0 〜F1023と
の間のずれが最小となるようなニューラルネット係数
(シナプス結合度Vjk,Wij)を公知のバックプロパゲ
ーション法によって求める。
That is, in the hierarchical neural network shown in FIG. 2, pitch data P, pitch differential value ΔP, level data L, and level differential value ΔL are input to input layer neurons I0 to I3, respectively. Since initial values are previously set in the neural network coefficients (the degree of synaptic connection Vjk, Wij) in the processing of step 50, the output layer neuron O0 is set.
From 1024 to 1024 according to the neural network coefficient
Output layer signals F0 to F1023 are output. This 102
The four output layer signals Fi are sine wave signals. Therefore, the microcomputer system constituting the hierarchical neural network 2 uses the normalized waveform signal RS
Is converted to 1024 normalized waveform signals RS0 to RS1023 corresponding to the number of output layer signals, and a neural network coefficient (the degree of synaptic coupling Vjk, Wij) that minimizes the shift between the output layer signals F0 to F1023. Is determined by a known back propagation method.

【0034】ステップ57:ステップ51〜56までの
処理をN回以上行ったかどうかを判定し、N回以上行っ
た(YES)場合は次のステップ58に進み、行ってい
ない場合はステップ51〜56の処理を繰り返し実行す
る。 ステップ58:ステップ51〜56の処理をN回実行し
た結果、ニューラルネット係数が実行回数の増加に伴っ
て徐々に収束しているかどうかを判定し、収束している
場合にはニューラルネット係数として最適の値が学習記
憶されたので、この楽音波形についての学習処理を終了
し、収束していない場合にはステップ51〜56の処理
を再度所定回数以上実行する。このときの回数はステッ
プ57のNと同じであってもよいし、これよりも多くて
も少なくてもよいし、ステップ58の処理で収束してい
ると判定されるまで繰り返し実行するようにしてもよ
い。
Step 57: It is determined whether the processing of steps 51 to 56 has been performed N times or more. If the processing has been performed N times or more (YES), the process proceeds to the next step 58, and if not, steps 51 to 56 have been performed. Is repeatedly executed. Step 58: As a result of executing the processing of steps 51 to 56 N times, it is determined whether or not the neural network coefficient gradually converges as the number of executions increases. Are learned and stored, the learning process for this musical tone waveform is terminated, and if not converged, the processes of steps 51 to 56 are executed a predetermined number of times again. The number of times at this time may be the same as N in step 57, may be more or less than this, and may be repeatedly executed until it is determined in step 58 that convergence is achieved. Is also good.

【0035】次に、学習処理の終了した階層型ニューラ
ルネット2を楽音波形発生手段として利用した電子楽器
の一実施例について説明する。図6は楽音波形発生手段
として図1の階層型ニューラルネット2を用いたもので
ある。図6の実施例において、鍵盤10は発音すべき楽
音の音高を選択するための複数の鍵を備えたものであ
り、各鍵に対応してキースイッチを有しており、また必
要に応じて押圧力検出装置等のタッチ検出手段を有して
いる。
Next, a description will be given of an embodiment of an electronic musical instrument using the hierarchical neural network 2 for which the learning process has been completed as musical tone waveform generating means. FIG. 6 uses the hierarchical neural network 2 of FIG. 1 as musical tone waveform generating means. In the embodiment of FIG. 6, the keyboard 10 is provided with a plurality of keys for selecting the pitch of a musical tone to be produced, and has a key switch corresponding to each key. And a touch detecting means such as a pressing force detecting device.

【0036】押鍵検出手段11は鍵盤10の状態(押鍵
された鍵があるかどうか)、すなわち鍵盤10内の各キ
ースイッチのオン・オフを検出するものであり、例えば
各キースイッチを順番に走査する走査回路と、その走査
結果をエンコードする回路とを含んで構成されており、
押鍵された鍵を示すキーコードKCと、押鍵されたこと
を示すノートオン信号Nonと、離鍵されたことを示す
ノートオフ信号Nof(図示せず)を出力する。また、
押鍵検出手段11は、キースイッチからの出力に基づい
て押し下げ時の押鍵操作速度を判別してイニシャルタッ
チデータITを出力し、鍵盤の各鍵に関連して、鍵押圧
持続時における押圧力検出装置の出力から押圧力を検出
してアフタタッチデータATを出力する。
The key press detecting means 11 detects the state of the keyboard 10 (whether or not there is a key pressed), that is, the on / off of each key switch in the keyboard 10, and for example, turns each key switch in order. And a circuit that encodes the scanning result,
It outputs a key code KC indicating a depressed key, a note-on signal Non indicating that the key has been pressed, and a note-off signal Nof (not shown) indicating that the key has been released. Also,
The key press detection means 11 determines the key press operation speed at the time of depression based on the output from the key switch, outputs the initial touch data IT, and relates to each key of the keyboard, the pressing force when the key press is continued. The pressing force is detected from the output of the detecting device and the after touch data AT is output.

【0037】押鍵検出手段11は、ノートオン信号No
n、イニシャルタッチデータIT及びアフタタッチデー
タATをピッチエンベロープ信号発生手段12及び振幅
エンベロープ信号発生手段14に出力し、キーコードK
Cを加算器13に出力する。ピッチエンベロープ信号発
生手段12はノートオン信号Non、イニシャルタッチ
データIT及びアフタタッチデータATに基づいてキー
コードKCの基準ピッチに対するピッチのずれ量を表す
ピッチエンベロープ信号PEを加算器13に出力する。
The key press detecting means 11 outputs the note-on signal No.
n, the initial touch data IT and the after touch data AT are output to the pitch envelope signal generating means 12 and the amplitude envelope signal generating means 14, and the key code K
C is output to the adder 13. The pitch envelope signal generating means 12 outputs to the adder 13 a pitch envelope signal PE indicating the amount of deviation of the key code KC from the reference pitch based on the note-on signal Non, the initial touch data IT and the after touch data AT.

【0038】加算器13はキーコードKCにピッチエン
ベロープ信号PE分だけ変動したピッチデータPを楽音
波形発生手段2、微分器15及びピッチナンバ発生手段
17に出力する。振幅エンベロープ信号発生手段14
は、ノートオン信号Non、イニシャルタッチデータI
T及びアフタタッチデータATに基づき楽音信号の発音
開始時から消音時に至るまでの振幅エンベロープ信号
(レベルデータ)Lを乗算器19、微分器16及び楽音
波形発生手段2に出力し、イニシャルタッチデータIT
又は/及びアフタタッチデータATによって振幅エンベ
ロープ信号を可変制御したり、楽音の音色に応じて異な
る振幅エンベロープ信号を発生したりする。
The adder 13 outputs pitch data P obtained by changing the key code KC by the pitch envelope signal PE to the musical tone waveform generator 2, the differentiator 15, and the pitch number generator 17. Amplitude envelope signal generating means 14
Are the note-on signal Non and the initial touch data I
Based on T and the after touch data AT, an amplitude envelope signal (level data) L from the start of tone generation to the end of tone generation is output to the multiplier 19, the differentiator 16 and the musical tone waveform generating means 2, and the initial touch data IT
And / or variably control the amplitude envelope signal according to the after touch data AT, or generate a different amplitude envelope signal depending on the tone color of a musical tone.

【0039】微分器15は加算器13からのピッチデー
タPを入力し、それを微分したピッチ微分値ΔPを楽音
波形発生手段2に出力する。微分器16は振幅エンベロ
ープ信号発生手段14からの振幅エンベロープ信号(レ
ベルデータ)Lを入力し、それを微分したレベル微分値
ΔLを楽音波形発生手段2に出力する。ピッチナンバ発
生手段17は加算器13からのピッチデータPを入力
し、それに対応したピッチナンバPnをアキュムレータ
18に出力する。
The differentiator 15 receives the pitch data P from the adder 13 and outputs a pitch differential value ΔP obtained by differentiating the pitch data P to the musical tone waveform generating means 2. The differentiator 16 receives the amplitude envelope signal (level data) L from the amplitude envelope signal generator 14 and outputs a level differential value ΔL obtained by differentiating the signal to the musical sound waveform generator 2. The pitch number generating means 17 receives the pitch data P from the adder 13 and outputs a corresponding pitch number Pn to the accumulator 18.

【0040】アキュムレータ18はピッチナンバPnを
累算し、楽音波形発生手段2から出力される楽音波形信
号Fiの音高を設定するための位相データiを発生する
ものである。従って、ピッチナンバPnの値が小さい時
は累算の速度は遅くなり位相データiの増加量が小さく
なり、楽音波形信号Fiの音高も低くなる。逆に、ピッ
チナンバPnが大きい時は累算の速度は速くなり位相デ
ータiの増加量も大きくなり、楽音波形信号Fiの音高
も高くなる。累算値がオーバーフローしたときは、再び
初期値に戻って累算を繰り返す。
The accumulator 18 accumulates the pitch number Pn and generates phase data i for setting the pitch of the musical tone waveform signal Fi output from the musical tone waveform generating means 2. Therefore, when the value of the pitch number Pn is small, the speed of accumulation becomes slow, the amount of increase of the phase data i becomes small, and the pitch of the musical tone waveform signal Fi also becomes low. Conversely, when the pitch number Pn is large, the speed of accumulation increases, the amount of increase in the phase data i increases, and the pitch of the musical tone waveform signal Fi also increases. When the accumulated value overflows, it returns to the initial value again and repeats the accumulation.

【0041】楽音波形発生手段2はピッチデータP、ピ
ッチ微分値ΔP、レベルデータL及びレベル微分値ΔL
をそれぞれの入力層ニューロンI0 〜I3 に取り込み、
ニューラルネット係数(シナプス結合度Vjk,Wij)に
応じた楽音波形信号を各出力層ニューロンO0 〜O1023
から出力する。このとき、楽音波形発生手段2からは、
アキュムレータ18の位相データiに対応した楽音波形
信号Fiが最終的に出力される。
The tone waveform generating means 2 includes pitch data P, pitch differential value ΔP, level data L, and level differential value ΔL.
Into each of the input layer neurons I0 to I3,
A tone waveform signal corresponding to a neural network coefficient (synaptic coupling degree Vjk, Wij) is output to each output layer neuron O0 to O1023.
Output from At this time, from the musical tone waveform generating means 2,
A tone waveform signal Fi corresponding to the phase data i of the accumulator 18 is finally output.

【0042】乗算器19は楽音波形発生手段2から出力
される楽音波形信号Fiと振幅エンベロープ信号発生手
段14からの振幅エンベロープ信号Lとを乗算し、その
乗算結果を楽音信号としてD/A変換器20に出力す
る。乗算器19から出力されたデジタルの楽音信号はデ
ジタル/アナログ(D/A)変換器20によって、アナ
ログの楽音信号に変換され、サウンドシステム21に出
力される。
The multiplier 19 multiplies the tone waveform signal Fi output from the tone waveform generating means 2 by the amplitude envelope signal L from the amplitude envelope signal generating means 14, and uses the result of the multiplication as a tone signal as a D / A converter. 20. The digital tone signal output from the multiplier 19 is converted into an analog tone signal by a digital / analog (D / A) converter 20 and output to the sound system 21.

【0043】サウンドシステム21はスピーカ及び増幅
器等で構成され、D/A変換器20からのアナログの楽
音信号に応じた楽音を発生する。楽音波形発生手段2
は、楽音波形データとして1周期分の波形を出力する場
合について説明したが、これに限らず1/2周期あるい
は1/4周期分の波形を出力するようにしてもよい。ま
た、出力層ニューロンの数も1024個としたがこれに
限定されるものではない。
The sound system 21 is composed of a speaker, an amplifier and the like, and generates a tone according to an analog tone signal from the D / A converter 20. Musical sound wave generating means 2
Has described the case where a waveform for one cycle is output as musical sound waveform data, but the present invention is not limited to this, and a waveform for a half cycle or a quarter cycle may be output. The number of output layer neurons is also 1024, but is not limited to this.

【0044】次に、この発明の他の実施例について図7
を用いて説明する。図7において図6と同じ構成のもの
には同一の符号が付してあるので、その説明は省略す
る。図7の実施例が図6のものと異なる点は、楽音波形
発生手段4の各入力層ニューロンI0 〜I3 に対してイ
ニシャルタッチデータIT、アフタタッチデータAT、
アフタタッチデータの微分値ΔAT及びフレーム番号F
Nを入力し、これらの入力データに基づいて楽音波形信
号Fiを生成している点である。
Next, another embodiment of the present invention will be described with reference to FIG.
This will be described with reference to FIG. 7, the same components as those in FIG. 6 are denoted by the same reference numerals, and the description thereof will be omitted. The embodiment of FIG. 7 is different from that of FIG. 6 in that initial touch data IT, after touch data AT,
Differential value ΔAT of after touch data and frame number F
N is input and a tone waveform signal Fi is generated based on these input data.

【0045】楽音波形発生手段4は学習時にイニシャル
タッチデータIT、アフタタッチデータAT、アフタタ
ッチデータの微分値ΔAT及びフレーム番号FNを入力
層ニューロンI0 〜I3 に入力し、これらの入力データ
に応じたニューラルネット係数(シナプス結合度Vjk,
Wij)をデータ及びワーキングRAMのメモリ領域に記
憶している。従って、楽音波形発生手段4は図6の楽音
波形発生手段2とはニューラルネット係数(シナプス結
合度Vjk,Wij)の値が異なるだけであり、ハードウェ
ア的には異なるところはない。
The musical sound waveform generating means 4 inputs the initial touch data IT, the after touch data AT, the differential value .DELTA.AT of the after touch data and the frame number FN to the input layer neurons I0 to I3 during learning, and responds to these input data. Neural network coefficients (synaptic coupling degree Vjk,
Wij) is stored in the memory area of the data and working RAM. Therefore, the musical tone waveform generating means 4 differs from the musical tone waveform generating means 2 of FIG. 6 only in the value of the neural network coefficient (the degree of synaptic connection Vjk, Wij), and there is no difference in hardware.

【0046】従って、図7の実施例では楽音波形発生手
段4に対して入力データ(楽音データ)を与える回路構
成が次のようになっている。まず、楽音波形発生手段4
にフレーム番号FNを供給するために時間カウンタ22
及びフレーム指定回路23を有する。そして、イニシャ
ルタッチデータIT及びアフタタッチデータATの供給
は押鍵検出手段11から直接行い、アフタタッチデータ
の微分値ΔATの供給は微分器24を介することによっ
て行っている。
Therefore, in the embodiment of FIG. 7, the circuit configuration for providing input data (tone data) to the tone waveform generating means 4 is as follows. First, the musical sound waveform generating means 4
Time counter 22 to supply the frame number FN to the
And a frame designating circuit 23. The supply of the initial touch data IT and the after touch data AT is performed directly from the key press detection means 11, and the supply of the differential value ΔAT of the after touch data is performed via the differentiator 24.

【0047】時間カウンタ22はノートオン信号Non
の入力に応じてカウント処理を開始し、カウントするイ
ンクリメント量をイニシャルタッチデータIT及びアフ
タタッチデータATに応じて変化させ、カウント処理を
可変制御している。フレーム指定回路23は時間カウン
タ22からのカウント値を入力し、それに対応したフレ
ーム番号FNを楽音波形発生手段4に出力する。
The time counter 22 outputs a note-on signal Non
The counting process is started in response to the input of the, and the increment amount to be counted is changed in accordance with the initial touch data IT and the after touch data AT, thereby variably controlling the counting process. The frame designating circuit 23 receives the count value from the time counter 22 and outputs a frame number FN corresponding to the count value to the musical tone waveform generating means 4.

【0048】ここで、フレーム番号FNとは、発音開始
から終了(アタックからディケィ)までの楽音の全波形
を複数周期毎に分割グループ化して学習し、そのグルー
プに発音開始から順に付した番号のことである。たとえ
ば、発音開始直後に楽音波形発生手段4から最初に出力
される一周期分の楽音波形信号F0 〜F1023を第1波形
信号FW1とすると、楽音波形発生手段4は、最初のフ
レーム番号FN=1でこの波形信号FW1を周期番号0
〜3の4周期分、次のフレーム番号FN=2では波形の
若干異なる第2波形信号FW2を周期番号4〜9の6周
期分、フレーム番号FN=3では第3波形信号FW3を
周期番号10〜20の11周期分、フレーム番号FN=
4では第4波形信号FW4を周期番号21〜40の20
周期分、フレーム番号FN=5では第5波形信号FW5
を周期番号41〜70の30周期分、フレーム番号FN
=6では第6波形信号FW6を周期番号71〜120の
50周期分というように、フレーム番号FNと周期番号
とを対応付けて学習記憶している。
Here, the frame number FN is learned by dividing all the waveforms of the musical tone from the start of sound generation to the end (from attack to decay) by dividing them into groups at intervals of a plurality of periods, and assigning a number to the group in order from the start of sound generation. That is. For example, if the tone waveform signals F0 to F1023 for one cycle output first from the tone waveform generating means 4 immediately after the start of sound generation are set as the first waveform signal FW1, the tone waveform generating means 4 sets the first frame number FN = 1. To change the waveform signal FW1 to the cycle number 0.
In the next frame number FN = 2, the second waveform signal FW2 having a slightly different waveform is provided for six cycles of the cycle numbers 4 to 9, and in the frame number FN = 3, the third waveform signal FW3 is provided for the cycle number 10 in the next frame number FN = 2. Frame number FN = 11 periods of ~ 20
At 4, the fourth waveform signal FW4 is set to 20 of the cycle numbers 21 to 40.
In the frame number FN = 5, the fifth waveform signal FW5
For 30 cycles of cycle numbers 41 to 70 and frame number FN
When = 6, the sixth waveform signal FW6 is learned and stored in association with the frame number FN and the cycle number, such as 50 cycles of the cycle numbers 71 to 120.

【0049】そして、楽音波形発生時には、時間カウン
タ22がイニシャルタッチデータITやアフタタッチデ
ータATの値に応じてインクリメント処理したカウント
値をフレーム指定回路23に出力するので、フレーム指
定回路23からは周期番号順にフレーム番号FNが出力
されなくなり、楽音波形発生手段4から出力される楽音
波形の音色がイニシャルタッチデータITやアフタタッ
チデータATの値に応じて効果的に変化するようにな
る。すなわち、インクリメント量が大きくなると、周期
番号4番目の波形としては第1波形信号FW1が出力さ
れずに第2波形信号FW2が出力されるようになる。逆
に、インクリメント量が小さくなると、周期番号5番目
の波形としては第2波形信号FW2が出力されずに第1
波形信号FW1が出力されることとなる。
When a tone waveform is generated, the time counter 22 outputs a count value incremented according to the values of the initial touch data IT and the after touch data AT to the frame designating circuit 23. The frame numbers FN are no longer output in numerical order, and the tone color of the tone waveform output from the tone waveform generating means 4 effectively changes according to the values of the initial touch data IT and the after touch data AT. That is, when the increment amount increases, the second waveform signal FW2 is output as the fourth waveform of the cycle number without outputting the first waveform signal FW1. Conversely, when the increment amount is small, the second waveform signal FW2 is not output as the fifth waveform of the cycle number and the first waveform is not output.
The waveform signal FW1 is output.

【0050】なお、図6の実施例では振幅エンベロープ
信号発生手段14の振幅エンベロープ信号Lが微分器1
6及び楽音波形発生手段2にも供給されているが、図7
の実施例では振幅エンベロープ信号Lは乗算器19にだ
け出力されている。このように図7の実施例によれば、
楽音波形発生手段4から出力される楽音波形の音色をイ
ニシャルタッチデータITやアフタタッチデータATの
値に応じて効果的に変化させることができる。
In the embodiment of FIG. 6, the amplitude envelope signal L of the amplitude envelope signal generating means 14 is differentiator 1
6 and the musical sound waveform generating means 2, FIG.
In this embodiment, the amplitude envelope signal L is output only to the multiplier 19. Thus, according to the embodiment of FIG.
The tone color of the musical tone waveform output from the musical tone waveform generating means 4 can be effectively changed according to the values of the initial touch data IT and the after touch data AT.

【0051】なお、図6及び図7の実施例では、専用の
ハードウェア回路により装置を構成しているが、同等の
機能をソフトウェア処理で実現してもよい。上記実施例
では、単音を発音する場合について説明したが、時分割
処理又はパラレル処理等によって複数チャンネルで発音
処理してもよい。上記実施例では、鍵盤によって所望楽
音を指定する電子楽器について説明したが、これに限定
されることはなく、音高指定用の演奏操作手段は鍵盤以
外のものであってもよい。また、鍵盤のない音源モジュ
ールユニット等にも同様に適用することが可能であり、
その場合は音高情報、ノートオン情報及びタッチ情報等
の演奏情報をデータ入力できるようになっていればよ
い。この発明において、鍵とは鍵盤の鍵に限らず、その
他の楽音指定操作手段をも含む。なお、波形の時間的変
化の特性を制御するため、例えば波形出力を1024段
のディレイ回路を利用したくし型フィルタを通す等の処
理を行ってもよい。
In the embodiments shown in FIGS. 6 and 7, the device is constituted by a dedicated hardware circuit, but the same function may be realized by software processing. In the above embodiment, a case where a single sound is generated has been described. However, a sound generation process may be performed on a plurality of channels by time division processing, parallel processing, or the like. In the above embodiment, the electronic musical instrument for designating a desired musical tone by a keyboard has been described. However, the present invention is not limited to this, and the performance operating means for specifying the pitch may be other than the keyboard. In addition, the present invention can be similarly applied to a sound source module unit without a keyboard, and the like.
In such a case, it is only necessary to be able to input performance information such as pitch information, note-on information, and touch information. In the present invention, the key is not limited to a key on a keyboard, but also includes other musical sound designation operation means. In order to control the characteristic of the temporal change of the waveform, for example, a process such as passing a waveform output through a comb filter using a 1024-stage delay circuit may be performed.

【0052】また、この実施例ではニューラルネットの
入力データ(楽音データ)として、ピッチデータP、ピ
ッチ微分値ΔP、レベルデータL、レベル微分値ΔL、
イニシャルタッチデータIT、アフタタッチデータA
T、アフタタッチデータ微分値ΔAT及びフレーム番号
FNを例に説明したが、これに限定されることはなく音
像定位の位置データ、ブリリアンスパラメータデータ、
又は各種ペダルデータ等を用いてもよい。また、階層型
ニューラルネットの各入力層ニューロンI、中間層ニュ
ーロできることはいうまでもない。さらに、ニューラル
ネット係数を操作子の操作量や楽音データ等に応じて適
宜可変制御することによって新しい楽音波形信号を創造
することができる。
Further, in this embodiment, pitch data P, pitch differential value ΔP, level data L, level differential value ΔL,
Initial touch data IT, after touch data A
T, the after-touch data differential value ΔAT, and the frame number FN have been described as examples. However, the present invention is not limited thereto, and the position data of sound image localization, the brilliance parameter data,
Alternatively, various pedal data or the like may be used. Needless to say, each input layer neuron I and intermediate layer neuron of the hierarchical neural network can be realized. Further, a new tone waveform signal can be created by appropriately variably controlling the neural network coefficient in accordance with the operation amount of the manipulator, tone data, and the like.

【0053】[0053]

【発明の効果】以上のように、この発明の楽音波形発生
装置によれば記憶容量の増大化を抑えることができ、記
憶時に存在しなかった楽音波形信号であっても容易に作
成することができると共に発音開始から終了までの全波
形に渡って音色等の時間的変化を表現することができる
という優れた効果を有する。
As described above, according to the musical tone waveform generator of the present invention, an increase in storage capacity can be suppressed, and even a tone waveform signal that did not exist at the time of storage can be easily created. This has an excellent effect that it is possible to express the temporal change of the timbre and the like over the entire waveform from the start to the end of the sound generation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 (a)は楽音信号に基づいてニューラルネッ
トに波形信号を学習させる場合の全体構成を示し、
(b)は波形信号の学習を終了した階層型ニューラルネ
ットを用いて楽音波形を作成する場合の全体構成を示す
図である。
FIG. 1A shows an entire configuration in a case where a neural network learns a waveform signal based on a musical tone signal;
FIG. 3B is a diagram showing an entire configuration in the case of creating a musical tone waveform using a hierarchical neural network for which learning of a waveform signal has been completed.

【図2】 図1の階層型ニューラルネットの概念を示す
図である。
FIG. 2 is a diagram showing the concept of the hierarchical neural network of FIG.

【図3】 図2の状態分析手段の1個の中間層ニューロ
ンに対応した回路構成を示す図である。
FIG. 3 is a diagram showing a circuit configuration corresponding to one hidden neuron of the state analysis means of FIG. 2;

【図4】 図2波形信号発生手段の1個の出力層ニュー
ロンに対応した回路構成を示す図である。
FIG. 4 is a diagram showing a circuit configuration corresponding to one output layer neuron of the waveform signal generating means.

【図5】 ニューラルネット係数(シナプス結合度Vj
k,Wij)の分析処理を説明するためのフローチャート
図である。
FIG. 5 shows a neural network coefficient (synaptic coupling degree Vj).
FIG. 9 is a flowchart for explaining the analysis process of (k, Wij).

【図6】 この発明の楽音波形発生装置を用いて構成し
た電子楽器の実施例を示す図である。
FIG. 6 is a diagram showing an embodiment of an electronic musical instrument configured using the musical tone waveform generator of the present invention.

【図7】 この発明の楽音波形発生装置を用いて構成し
た電子楽器の他の実施例を示す図である。
FIG. 7 is a diagram showing another embodiment of an electronic musical instrument configured using the musical tone waveform generating device of the present invention.

【符号の説明】[Explanation of symbols]

1…分析手段、2,4…階層型ニューラルネット、3…
メモリ領域、10…鍵盤、11…押鍵検出手段、12…
ピッチエンベロープ信号発生手段、13…加算器、14
…振幅エンベロープ信号発生手段、15,16,24…
微分器、17…ピッチナンバ発生手段、18…アキュム
レータ、19…乗算器、20…D/A変換器、21…サ
ウンドシステム、22…時間カウンタ、23…フレーム
指定回路、I…入力層ニューロン、H…中間層ニューロ
ン、O…出力層ニューロン、Wij,Vjk…シナプス結合
度、Aj1〜Aj3,ai1〜ai7…加算器、Mj0〜Aj3,m
i0〜ai7…乗算器
1 ... analysis means, 2, 4 ... hierarchical neural network, 3 ...
Memory area, 10 ... keyboard, 11 ... key press detection means, 12 ...
Pitch envelope signal generating means, 13 ... adder, 14
... amplitude envelope signal generating means, 15, 16, 24 ...
Differentiator, 17 pitch number generating means, 18 accumulator, 19 multiplier, 20 D / A converter, 21 sound system, 22 time counter, 23 frame designation circuit, I input neuron, H ... Intermediate layer neuron, O ... Output layer neuron, Wij, Vjk ... Synaptic coupling degree, Aj1-Aj3, ai1-ai7 ... Adder, Mj0-Aj3, m
i0-ai7 ... Multiplier

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 楽音の発生を指示するノートオン情報
と、この楽音の音高を指示する音高情報とを少なくとも
含む演奏情報を入力するための演奏情報入力手段と、 入力パラメータに応じた波形信号を形成する階層型ニュ
ーラルネットによって構成され、前記演奏情報入力手段
から入力される音高情報を前記入力パラメータの1つと
して入力することによって前記音高情報に応じた波形信
号を、前記ノートオン情報の入力に応答したリアルタイ
ムで、形成する波形形成手段と、 前記ノーオン情報の入力に応答して、前記波形形成手
段で形成された前記波形信号を前記音高情報に応じた音
高で出力する楽音波形出力手段とを備える楽音波形発生
装置。
1. Performance information input means for inputting performance information including at least note-on information instructing generation of a musical tone and pitch information instructing a pitch of the musical tone, and a waveform corresponding to an input parameter. A pitch signal input from the performance information input means as one of the input parameters, thereby forming a waveform signal corresponding to the pitch information into the note-on signal. Real tie responding to input of information
In arm, a waveform forming means for forming, the note-on information in response to the input of tone waveform output means for outputting the waveform signal formed by said waveform formation means at pitch corresponding to the pitch data tone waveform generation apparatus comprising and.
【請求項2】 楽音の発生を指示するノートオン情報
と、この楽音についてのタッチ情報とを少なくとも含む
演奏情報を入力するための演奏情報入力手段と、 入力パラメータに応じた波形信号を形成する階層型ニュ
ーラルネットによって構成され、前記演奏情報入力手段
から入力されるタッチ情報を前記入力パラメータの1つ
として入力することによって前記タッチ情報に応じた波
形信号を、前記ノートオン情報の入力に応答したリアル
タイムで、形成する波形形成手段と、 前記ノーオン情報の入力に応答して、前記波形形成手
段で形成された前記波形信号を出力する楽音波形出力手
段とを備える楽音波形発生装置。
2. Performance information input means for inputting performance information including at least note-on information for instructing generation of a musical tone and touch information on the musical tone , and a hierarchy for forming a waveform signal corresponding to the input parameter. A touch-sensitive information input from the performance information input means as one of the input parameters, thereby generating a waveform signal corresponding to the touch information in response to the input of the note-on information.
In time, the waveform forming means for forming, in response to an input of the note-on information, the musical sound waveform generator and a musical tone waveform output means for outputting the waveform signal formed by said waveform formation means.
【請求項3】 楽音の発生を指示するノートオン情報を
少なくとも含む演奏情報を入力するための演奏情報入力
手段と、 前記ノートオン情報に応じて時系列的に変化する制御情
報を発生する制御情報発生手段と、 入力パラメータに応じた波形信号を形成する階層型ニュ
ーラルネットによって構成され、前記制御情報発生手段
から発生される制御情報を前記入力パラメータの1つと
して入力することによって前記制御情報に応じた波形信
号を、前記ノートオン情報の入力に応答したリアルタイ
ムで、かつ該制御情報に応じて時系列的 に変化させて、
形成する波形形成手段と、 前記ノートオン情報の入力に応答して、前記波形形成手
段で形成された前記波形信号を出力する楽音波形出力手
段とを備える楽音波形発生装置。
3. Performance information input means for inputting performance information including at least note-on information for instructing generation of a musical tone, and control information for generating control information which changes in a time series according to the note-on information. Generating means, and a hierarchical neural network for forming a waveform signal corresponding to the input parameter, wherein the control information generated by the control information generating means is input as one of the input parameters, thereby responding to the control information. Real-time response to the input of the note-on information.
And in a time-series manner according to the control information ,
A waveform formation means for forming, in response to an input of the note-on information, the musical sound waveform generator and a musical tone waveform output means for outputting the waveform signal formed by said waveform formation means.
【請求項4】 前記波形形成手段は、前記入力パラメー
タの入力によって形成された波形信号と、前記楽音から
抽出される楽音固有の正規化波形信号との誤差が最小と
なるように学習されたニューラルネット係数を記憶して
いることを特徴とする請求項1、2又は3に記載の楽音
波形発生装置。
4. The neural network according to claim 1, wherein said waveform forming means learns a neural signal so as to minimize an error between a waveform signal formed by inputting said input parameter and a tone-specific normalized waveform signal extracted from said tone. 4. The musical tone waveform generator according to claim 1, wherein a net coefficient is stored.
JP3037752A 1991-02-08 1991-02-08 Musical sound wave generator Expired - Fee Related JP2576703B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3037752A JP2576703B2 (en) 1991-02-08 1991-02-08 Musical sound wave generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3037752A JP2576703B2 (en) 1991-02-08 1991-02-08 Musical sound wave generator

Publications (2)

Publication Number Publication Date
JPH04255898A JPH04255898A (en) 1992-09-10
JP2576703B2 true JP2576703B2 (en) 1997-01-29

Family

ID=12506207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3037752A Expired - Fee Related JP2576703B2 (en) 1991-02-08 1991-02-08 Musical sound wave generator

Country Status (1)

Country Link
JP (1) JP2576703B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3627321B2 (en) * 1995-10-02 2005-03-09 ヤマハ株式会社 Performance control device
IT201800008080A1 (en) * 2018-08-13 2020-02-13 Viscount Int Spa SYSTEM FOR THE GENERATION OF SOUND SYNTHESIZED IN MUSICAL INSTRUMENTS.
JP2023130095A (en) * 2022-03-07 2023-09-20 ヤマハ株式会社 Sound generation method, sound generation system and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2522400B2 (en) * 1989-08-10 1996-08-07 ヤマハ株式会社 Musical sound waveform generation method

Also Published As

Publication number Publication date
JPH04255898A (en) 1992-09-10

Similar Documents

Publication Publication Date Title
Hernandez-Olivan et al. Music composition with deep learning: A review
Bello et al. Techniques for Automatic Music Transcription.
Wanderley et al. Escher-modeling and performing composed instruments in real-time
JPH11513820A (en) Control structure for speech synthesis
CN110120212B (en) Piano auxiliary composition system and method based on user demonstration audio frequency style
CN113192471B (en) Musical main melody track recognition method based on neural network
Tanaka et al. Multi-Instrument Music Transcription Based on Deep Spherical Clustering of Spectrograms and Pitchgrams.
JP3014177B2 (en) Speaker adaptive speech recognition device
JP2576703B2 (en) Musical sound wave generator
JP6835182B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
Sleep Automatic music transcription with convolutional neural networks using intuitive filter shapes
JPH09325773A (en) Tone color selecting device and tone color adjusting device
JP2000261322A (en) Method for encoding acoustic signal and program recording medium
Ding et al. Classification of recorded musical instruments sounds based on neural networks
Eppe et al. Towards end-to-end raw audio music synthesis
Beigzadeh et al. Classification of Iranian traditional musical modes (DASTGÄH) with artificial neural network
Liang et al. Model-based synthesis of plucked string instruments by using a class of scattering recurrent networks
Renault et al. DDSP-Piano: A neural sound synthesizer informed by instrument knowledge
Mintz Toward timbral synthesis: a new method for synthesizing sound based on timbre description schemes
JP6801766B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP6819732B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
Solis et al. Implementation of expressive performance rules on the WF-4RIII by modeling a professional flutist performance using NN
Sripradha et al. Karaoke Machine Execution Using Artificial Neural Network
Pezzat et al. Many-to-Many Symbolic Multi-Track Music Genre Transfer
JP2643582B2 (en) Automatic rhythm generator

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees