JPH04146473A - Electronic sound musical instrument - Google Patents

Electronic sound musical instrument

Info

Publication number
JPH04146473A
JPH04146473A JP2270207A JP27020790A JPH04146473A JP H04146473 A JPH04146473 A JP H04146473A JP 2270207 A JP2270207 A JP 2270207A JP 27020790 A JP27020790 A JP 27020790A JP H04146473 A JPH04146473 A JP H04146473A
Authority
JP
Japan
Prior art keywords
scale
data
pitch
name
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2270207A
Other languages
Japanese (ja)
Inventor
Hiroshi Manabe
啓 真鍋
Yoshiyuki Murata
嘉行 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2270207A priority Critical patent/JPH04146473A/en
Publication of JPH04146473A publication Critical patent/JPH04146473A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To vocalize a scale name sufficiently matching with the rhythm of music and easy to listen by generating scale name designation data representing the scale names of the principal tone and the derivative tone of each musical tone based on scale data generated by a scale data generating means, and vocalizing sound representing a corresponding scale name based on the data. CONSTITUTION:The scale data is comprised of a part representing the principal tone(do, re, mi, fa, so, la, and si) and a part representing the derivative tone(do#, re#, mi#,...). Each scale data is inputted to a scale name discrimination part 106 and a tone height discrimination part 107 after being outputted from a scale register 104, and the data is inputted to a sound generating part 108. Also, tone height designation data is generated at the tone height discrimination part 107 similarly, and it is inputted to the sound generating part 108 and a musical instrument tone generating part 112. After that, an audio signal provided with tone height in accordance with the tone height designation data and representing the scale name in accordance with the scale designation data is outputted from the sound generating part 108, and the scale is vocalized from a speaker 114 via a sound system 113.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、演奏者による演奏操作又は自動演奏に合わせ
て、楽音の階名である「ド」 「し」 「ミ」「ファ」
 「ソ」 「う」 「シ」を、音声で発声する電子楽器
に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention is capable of changing scale names of musical tones such as "do", "shi", "mi", and "fa" according to the player's performance operation or automatic performance.
Concerning an electronic musical instrument that vocalizes "so", "u", and "shi".

〔従来の技術〕[Conventional technology]

楽器や歌唱を練習する際、メロディなどを階名で歌うこ
とが行われる。
When practicing playing a musical instrument or singing, it is common to sing melodies using scale names.

通常、初心者がピアノ等を学習する場合は、教師がメロ
ディ部を階名で歌い、練習者がそれに合わせて練習を行
うことがしばしば行われる。また、歌唱を学習するには
、楽譜を読んで歌う能力、つまり読譜力をつけることが
重要であるが、それには1階名歌唱法」によってメロデ
ィの音符を階名で歌う練習を重ねる必要がある。
Normally, when a beginner learns to play the piano, etc., the teacher often sings the melody part using scale names, and the trainee practices along with it. In addition, in order to learn to sing, it is important to acquire the ability to read and sing music scores, that is, to acquire music reading ability, but in order to do this, it is necessary to repeatedly practice singing the notes of the melody using the scale names using the "1st scale name singing method". be.

そのため、従来、メロディなどの楽曲を階名で発声する
電子楽器が提案されている(特開昭58−11986、
および実開昭6O−70892)。
For this reason, electronic musical instruments have been proposed that can vocalize melodies and other music using scale names (Japanese Patent Laid-Open No. 58-11986,
and Utility Model Publication No. 6O-70892).

前者の従来例(特開昭58−11986)では、楽音の
階名を音声で発声するための子音音声データと母音音声
データがROMに記憶されている。
In the former conventional example (Japanese Unexamined Patent Publication No. 58-11986), consonant audio data and vowel audio data for vocalizing scale names of musical tones are stored in a ROM.

また、音高データと音符長データからなる楽音データが
、別のROMに予め記憶されている。そして、練習時に
、例えば階名「ソ」を示す音高データが読み出されると
、「ソ」に対応する子音音声データの「S」、および母
音音声データの「0」が上記ROMから読み出され、「
ソ」の音高データに基づいた音高で、階名を知らせる「
ソー(Sooo・・・)」の音声が発声される。練習者
はこれに合わせて演奏を行う。
Furthermore, musical tone data consisting of pitch data and note length data is stored in advance in a separate ROM. During practice, for example, when pitch data indicating the scale name "G" is read out, the consonant sound data "S" and the vowel sound data "0" corresponding to "G" are read out from the ROM. , “
The pitch is based on the pitch data of "G" and informs the scale name "
``Sooo...'' is uttered. Practitioners perform along with this.

つぎに、後者の従来例(実開昭6O−70892)では
、予め楽曲の調が指定され、押鍵された鍵の音高に基づ
いて、その調における押鍵された鍵の階名が音声で発声
される。その際、指定された調の音階に含まれない音符
に対応する鍵が押鍵されたき、例えば臨時記号が付いた
音符に対しては「ハンオンjという音声が発声される。
Next, in the latter conventional example (Sho 6O-70892), the key of the song is specified in advance, and based on the pitch of the pressed key, the scale name of the pressed key in that key is voiced. is uttered. At that time, when a key corresponding to a note that is not included in the scale of the specified key is pressed, for example, for a note with an accidental, the sound ``han-on j'' is uttered.

例えばハ長調のC#音やDl>音は、「ド・ハンオン」
あるいは「し・ハンオン」と発声される。
For example, the C# and Dl> notes in C major are "Do Han On".
Or it is uttered as ``shi-han-on''.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、前者の従来例の場合、楽曲に臨時記号(#、ト
、およびナチュラル記号)が付き、音高が、指定した調
の音階音より半音程度化した場合、階名を知らせる音声
をどのようにするかという技術が開示されていない。
However, in the case of the former conventional example, if a piece of music has accidentals (#, G, and natural symbols) and the pitch is about a semitone below the scale note of the specified key, how do you change the sound that informs you of the scale name? The technology for how to do this has not been disclosed.

また後者については、[ド、し、ミ、ファ・・・・」の
それぞれの音声は1音節で発声でき、楽曲のリズムとよ
く調和するが、「ド・ハンオン」や「し・ハンオン」と
いうような音声が交じった場合は、階名の発声が楽音の
リズムと調和しないのみでなく、テンポの速い楽曲の場
合は、発声が早口になるため、階名の聴取が困難になる
という問題点を有している。
Regarding the latter, each of the sounds [do, shi, mi, fa...] can be uttered in one syllable, and it harmonizes well with the rhythm of the song, but when it comes to the sounds ``do, shi, mi, fa...'', it harmonizes well with the rhythm of the song, but When such sounds are mixed, the problem is that not only will the scale names not be in harmony with the rhythm of the musical tones, but if the music has a fast tempo, the voices will be spoken too quickly, making it difficult to hear the scale names. have.

本発明の課題は、臨時記号などによって楽音の音高を半
音程変更する場合でも、楽曲のリズムによく調和し、か
つ聴取し易い階名の発声を可能にすることにある。
An object of the present invention is to make it possible to pronounce scale names that are in good harmony with the rhythm of a musical piece and are easy to hear even when the pitch of a musical tone is changed by a semitone using an accidental or the like.

〔課題を解決するための手段] 本発明は、まず、音階データを発生する音階データ発生
手段を有する。同手段は、lオクターブ内の12音に対
する17種の階名(この中には例えばド#としbのよう
に音高が同じで、呼び方が異なる階名を含む)と、「ド
、し、ミ、  ・・・う、シJの7種の「発声される階
名」と12個の半音程ごとの音高情報などからなる音階
データを発生する手段である。より具体的には、音階デ
ータ発生手段は、例えば楽曲を表す複数の音階データを
その各音階データの読み出しタイミングを制御する各タ
イミングデータと対で記憶するROM等の楽曲データ記
憶手段と、その楽曲データ記憶手段から各音階データを
、その各音階データと対で記憶されている各タイミング
データを読み出しながらそのタイミングデータに基づく
タイミングで、順次読み出す音階データ読み出し手段と
、を含むように構成される。または、上述の楽曲データ
記憶手段をRAMで構成し、各音階データおよびそれに
対応する各タイミングデータを楽曲データ記憶手段に書
き込む書込み手段をさらに有するように構成できる。そ
して、上述の音階データは、例えば音階データに対応す
る幹音をそのまま指定する条件を示すコードと、幹音に
対して音高を半音程上げる条件を示すコード、または半
音程上げる条件を示すコードのいずれかにて表現できる
[Means for Solving the Problems] The present invention first includes scale data generation means for generating scale data. This means includes 17 types of scale names for the 12 notes in the l octave (including scale names with the same pitch but different names, such as C# and b), and This is a means for generating scale data consisting of seven types of ``scale names to be uttered'' such as , mi, ... , shi, J, and pitch information for each of 12 semitones. More specifically, the scale data generation means includes, for example, a music data storage means such as a ROM that stores a plurality of scale data representing a music piece in pairs with each timing data that controls the readout timing of each of the scale data; The apparatus is configured to include a scale data reading means for sequentially reading each scale data from the data storage means at a timing based on the timing data while reading each timing data stored in pairs with each scale data. Alternatively, the music data storage means described above may be configured with a RAM, and may further include a writing means for writing each musical scale data and each timing data corresponding thereto into the music data storage means. The above-mentioned scale data includes, for example, a code indicating a condition for specifying the stem tone corresponding to the scale data as is, a code indicating a condition for raising the pitch by a semitone with respect to the stem tone, or a code indicating a condition for raising the pitch by a semitone. It can be expressed in either of the following ways.

つぎに、以下のような階名指定データ生成手段を有する
。すなわち、同手段は、音階データ発生手段が幹音の音
階データを発生した場合に、例えばその音階データが示
すコードに基づいてその幹音の階名を指定する階名指定
データを生成する。
Next, it has a floor name designation data generation means as described below. That is, when the scale data generation means generates scale data of a stem note, the means generates scale name designation data that specifies the scale name of the stem note based on the chord indicated by the scale data, for example.

一方、幹音から派生した派生音の音階データを発生した
場合に、予め設定された条件、つまりその派生音に関す
る音階データのコードに従って、その派生音より半音程
高い幹音の階名、または半音程低い幹音の階名のいずれ
かを指定する階名指定データを生成する。すなわち同手
段は、例えば音階データ発生手段が幹音C音の音階デー
タを発生した場合に、その幹音の階名「ド」を指定する
階名指定データを生成する。一方、幹音から派生した派
生音C#音(=Db)音の音階データを発生した場合に
、予め設定された条件に従って、その派生音より半音程
高い幹音り音の階名「し」または半音程低い幹音C音の
階名「ド」のいずれかを指定する階名指定データを生成
する。
On the other hand, when scale data for a derivative sound derived from a main note is generated, the scale name of the main note that is a semitone higher than the derived note, or the Generate scale name designation data that designates one of the scale names of the lower pitched main tone. That is, for example, when the scale data generation means generates scale data of the main note C, the means generates scale name designation data that specifies the scale name "C" of the main note. On the other hand, when the scale data of the derivative sound C# sound (=Db) derived from the main sound is generated, the scale name of the main sound that is a semitone higher than the derived sound is "shi" according to the preset conditions. Alternatively, scale name designation data is generated that designates either the scale name "C" for the main note C, which is a semitone lower.

さらに、音階データ発生手段が発生した音階データが示
す幹音または派生音に対応する音高指定データを生成す
る音高指定データ生成手段を有する。同手段は、音階デ
ータ発注手段、例えば音階データを予め記憶したROM
から幹音または派生音の音高情報を引きだし、それに基
づいて音高指定データを生成する手段である。
Furthermore, it has a pitch designation data generation means for generating pitch designation data corresponding to the main note or derivative note indicated by the scale data generated by the scale data generation means. The means includes a scale data ordering means, for example, a ROM in which scale data is stored in advance.
This is a means for extracting the pitch information of the main tone or derived tone from the source, and generating pitch specification data based on it.

そして、階名指定データ生成手段が生成した階名指定デ
ータに対応する階名を、音高指定データ性成手段が生成
した音高指定データに対応する音高で発声する音声発生
手段を有する。同手段は、例えば音高指定手段が生成し
た音高指定データに対応する音高の音源信号を生成する
音源手段と、その音源手段からの音源信号を入力とし、
階名指定データ生成手段が生成した階名指定データに対
応する階名を表す音声信号を合成する音声合成フィルタ
手段とを含むように構成できる。なお、この音声合成フ
ィルタ手段は、例えば無声音に対応する白色ノイズと有
声音に対応する三角波(またはインパルス波)による音
源と、デジタルフィルタのフィルタ係数を制御して音声
を合成する手段である。あるいは、音声発生手段は、幹
音の階名を表す音声波形データを記憶する波形記憶手段
と、その波形記憶手段から、階名指定データ生成手段が
生成した階名指定データに対応する階名を表す音声波形
データを、音高指定データ生成手段が生成した音高指定
データに対応する音高に応じた速度で読み出す波形読み
出し手段とを含むように構成できる。ここで、上述の波
形記憶手段は、例えば各幹音の階名を表す子音の音声波
形データと各幹音の階名を表す母音の音声波形データと
を記憶し、また上述の波形読出し手段は、階名指定デー
タ生成手段が生成した階名指定データに対応する階名の
子音を表す音声波形データを読み出した後、その階名の
母音を表す音声波形データを繰り返し読み出す手段であ
る。
The instrument also includes a voice generating means for uttering the scale name corresponding to the scale name designation data generated by the scale name designation data generating means at a pitch corresponding to the pitch designation data generated by the pitch designation data generating means. The means includes, for example, a sound source means for generating a sound source signal of a pitch corresponding to the pitch designation data generated by the pitch designation means, and receives the sound source signal from the sound source means,
It can be configured to include voice synthesis filter means for synthesizing an audio signal representing the scale name corresponding to the scale name designation data generated by the scale name designation data generation means. The voice synthesis filter means is a means for synthesizing voice by controlling a sound source using, for example, white noise corresponding to unvoiced sounds and a triangular wave (or impulse wave) corresponding to voiced sounds, and filter coefficients of a digital filter. Alternatively, the sound generation means includes a waveform storage means for storing sound waveform data representing the scale name of the main tone, and a scale name corresponding to the scale name designation data generated by the scale name designation data generation means from the waveform storage means. It can be configured to include waveform reading means for reading out the represented audio waveform data at a speed corresponding to the pitch corresponding to the pitch specification data generated by the pitch specification data generation means. Here, the above-mentioned waveform storage means stores, for example, consonant audio waveform data representing the scale name of each stem tone and vowel audio waveform data representing the scale name of each stem sound, and the above-mentioned waveform reading means stores , after reading the audio waveform data representing the consonants of the scale name corresponding to the scale name designation data generated by the scale name designation data generating means, the means repeatedly reads the audio waveform data representing the vowels of the scale name.

以上述べた本発明とは別の態様として、本発明を以下の
ように構成することもできる。
As an aspect other than the present invention described above, the present invention can also be configured as follows.

すなわち、まず、各派生音がその派生音より半音程高い
幹音から派生したか、半音程低い幹音から派生したかの
いずれかの条件を設定する条件設定手段を有する。同手
段は、各派生音、例えばC#(=Db)音がその派生音
より半音程高い幹音(し音)から派生したか、半音程低
い幹音(ド音)から派生したかのいずれかの条件を、予
め設定する手段である。
That is, first, there is a condition setting means for setting a condition as to whether each derived note is derived from a main note that is a semitone higher than the derived note or is derived from a stem note that is a semitone lower than the derived note. The means determines whether each derived tone, for example, C# (=Db), is derived from a stem tone that is a semitone higher than the derived tone, or is derived from a stem tone that is a semitone lower than the derived tone. This is a means for setting these conditions in advance.

つぎに、入力される演奏情報が幹音の発音を指示する演
奏情報である場合に、その幹音の階名を指定する階名指
定データを生成し、派生音の発音を指示する演奏情報で
ある場合に、条件設定手段で設定された条件に従って、
その派生音より半音程高い幹音の階名、または半音程低
い幹音の階名のいずれかを指定する階名指定データを生
成する階名指定データ生成手段を有する。
Next, if the input performance information is performance information that instructs the pronunciation of a stem note, scale name specification data that specifies the scale name of the stem note is generated, and performance information that instructs the pronunciation of derived notes is generated. In certain cases, according to the conditions set by the condition setting means,
It has a scale name designation data generation means for generating scale name designation data that designates either a scale name of a main note that is a semitone higher than the derived note, or a scale name of a main note that is a semitone lower than the derived note.

そして、前述したのと同様な音高指定データ生成手段、
および音声発声手段を有する。
Then, a pitch specification data generation means similar to that described above,
and has voice production means.

〔作   用〕[For production]

音階データ発生手段により発生された音階データに基づ
いて、階名指定データ生成手段により各楽音の幹音およ
び派生音の階名を表す階名指定データが生成され、この
データに基づいて、音声発生手段により対応する階名を
表す音声が発声される。この場合の音声は、音声合成フ
ィルタ手段によるか、または予め子音と母音のそれぞれ
の波形を記憶した波形記憶手段を有する波形読出し方式
の発声手段を用いて発声される。
Based on the scale data generated by the scale data generation means, the scale name specification data generation means generates scale name specification data representing the scale names of the main tone and derived notes of each musical note, and based on this data, the voice generation A voice representing the corresponding floor name is uttered by the means. In this case, the speech is produced by a speech synthesis filter means or by using a waveform readout type vocalization means having a waveform storage means in which waveforms of consonants and vowels are stored in advance.

特に本発明では、階名を表す音声は、「ド」、「し」、
「ミ」、・・・、「シjの7種類のみで発声され、幹音
に臨時記号が付けられて音高が半音程変化した派生音に
対しては、音高のみが半音程変化し、音声自体はもとの
幹音の階名で一音節で発声される。このためテンポの速
い曲でも階名が聴きとりやすい。
In particular, in the present invention, the sounds representing the floor names include "do", "shi",
For derived sounds that are uttered in only 7 types: ``mi'', ..., and ``j'', and the pitch changes by a semitone by adding an accidental to the main tone, only the pitch changes by a semitone. , the voice itself is uttered in one syllable using the scale name of the original key tone.For this reason, the scale name is easy to hear even in fast-tempo songs.

また、派生音に対応する幹音が派生音より半音程高い幹
音であるか又は半音程低い幹音であるかを、予めデータ
として又は条件設定手段により設定しておくことができ
るため、楽曲に沿った正しい階名を発声させることがで
きる。
In addition, since it is possible to set in advance whether the stem tone corresponding to the derived note is a stem tone higher or lower by a semitone than the derived note, it can be set in advance as data or by a condition setting means. It is possible to pronounce the correct scale name according to the following.

〔実  施  例〕〔Example〕

以下、図面を参照しながら本発明の実施例につき説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

本実施例では、シーケンサに予め記憶させた自動演奏デ
ータ、あるいはマニュアルで演奏される楽器から得られ
る演奏データに基づいて、楽曲の各楽音の階名が、その
楽音と同じ音高の音声で発声される。そして、幹音に臨
時記号が付けられて音高が半音程変化した派生音に対し
ては、音高のみが半音程変化し音声自体は元の幹音の階
名で発声される。また、本実施例では、各楽音の階名は
ハ長調の階名で表される。つまり、楽音の音高によって
階名が決められる場合の例について示されている。
In this example, the scale name of each musical tone of a song is uttered in a voice with the same pitch as the musical tone, based on automatic performance data pre-stored in the sequencer or performance data obtained from a manually played instrument. be done. For derived tones whose pitch is changed by a semitone by adding an accidental to the stem tone, only the pitch changes by a semitone, and the sound itself is uttered using the scale name of the original stem tone. Further, in this embodiment, the scale name of each musical tone is represented by the scale name of C major key. In other words, an example is shown in which the scale name is determined by the pitch of a musical tone.

第1図は、本発明の実施例の全体構成図である。FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

同図において、楽曲ROMI O1には、自動演奏(シ
ーケンサ)のための曲データとして、各楽音の音符長デ
ータと、各楽音の階名を発声するための第2図に示すよ
うな音階データが、指定された楽曲別に書き込まれてい
る。
In the figure, the song ROMI O1 includes note length data for each musical tone and scale data as shown in FIG. 2 for vocalizing the scale name of each musical tone, as song data for automatic performance (sequencer). , are written for each specified song.

演奏者が、曲指定部103により楽曲を指定すると、指
定された楽曲に対応する楽曲ROMl01のアドレスが
、アドレス指定部102によって指定される。その結果
、楽曲ROMl0Iから読み出された各楽音毎の音階デ
ータが、−旦、音階レジスタ104に書き込まれ、また
同様に読み出された音符長データが音長制御部105に
出力される。
When the performer specifies a song using the song specifying section 103, the address of the song ROM 101 corresponding to the specified song is specified by the address specifying section 102. As a result, the scale data for each tone read from the music ROM10I is written into the scale register 104, and the note length data read out in the same manner is output to the note length control section 105.

音長制御部105は、各音符長データに応じてON信号
とOFF信号を音声発生部108および楽器音発生部1
12に出力するとともに、つぎの楽音が引き続き楽曲R
OMl0Iから読み出されるように、アドレス指定部1
02を順次制御する。
The note length control section 105 sends an ON signal and an OFF signal to the voice generation section 108 and the musical instrument sound generation section 1 according to each note length data.
12, and the next musical tone continues to be music R.
Addressing part 1 as read from OMl0I
02 are sequentially controlled.

上述の音階データは、後述するように幹音(ド、し、ミ
、ファ、ソ、う、シ)を表す部分と派生音(ド#、しb
、し#、ミド、・・・)を表す部分とからなる。各音階
データは、音階レジスタ104から出力された後は、階
名判別部106と音高判別部107に入力される。その
後、階名判別部106で階名指定データが作成され、同
データは音声発生部108に入力される。また同じく音
高判別部107で、音高指定データが作成され、音声発
生部108および楽器音発生部112に入力される。
The above-mentioned scale data includes parts representing the main tones (C, C, M, F, G, U, C) and derived tones (C #, C, B), as described later.
, shi #, mid, ...). After each scale data is output from the scale register 104, it is input to a scale name discriminator 106 and a pitch discriminator 107. Thereafter, scale name designation data is created by scale name discrimination section 106, and the same data is input to voice generation section 108. Similarly, the pitch determining section 107 creates pitch specifying data and inputs it to the voice generating section 108 and the musical instrument sound generating section 112.

その後、音声発生部10日から、音高指定データに対応
する音高を有し階名指定データに対応する階名を表す音
声信号が出力され、サンドシステム113を介してスピ
ーカ114から階名が発声される。また、楽器音発生部
112からは、音高指定データに対応する音高の楽音信
号が出力され、サンドシステム113を介してスピーカ
114から発音される。
Thereafter, the sound generator 10 outputs an audio signal having a pitch corresponding to the pitch designation data and representing a scale name corresponding to the scale name designation data, and the scale name is output from the speaker 114 via the sand system 113. uttered. Furthermore, musical tone signals having a pitch corresponding to the pitch designation data are outputted from the musical instrument sound generating section 112, and are produced from the speaker 114 via the sand system 113.

上述の階名が発声される時間および楽音が発音される時
間は、楽曲ROMI Ol内の指定曲の各音符長データ
に応じて音長制御部105から出力されるON信号とO
FF信号により制御される。
The above-mentioned time when the scale name is uttered and the time when the musical tone is sounded are determined by the ON signal and O output from the note length control unit 105 according to each note length data of the designated song in the song ROMI Ol.
Controlled by FF signal.

以上は自動演奏(シーケンサ)の場合であるが、マニュ
アル演奏の場合は、演奏者が、前述の派生音がどのよう
に発声されるかを条件設定部109で設定した後、鍵盤
111を押鍵操作すると、階名/音高決定部110にお
いて、押鍵されたキーに対応する階名指定データと音高
指定データが音声発生部108に入力され、対応する音
声信号が出力される。また、押鍵されたキーに対応する
音高指定データが楽器音発生部112に入力され、対応
する楽音信号が出力される。
The above is a case of automatic performance (sequencer), but in the case of manual performance, the performer sets how the above-mentioned derived sound will be uttered in the condition setting section 109, and then presses the keyboard 111. When operated, scale name/pitch determination section 110 inputs scale name designation data and pitch designation data corresponding to the pressed key to sound generation section 108, and outputs a corresponding sound signal. Further, pitch designation data corresponding to the pressed key is input to the musical instrument sound generating section 112, and a corresponding musical tone signal is output.

これら音声信号および楽音信号は、サウンドシステム1
13を介してスピーカ114から、上述のシーケンサの
場合と同様に発音される。
These audio signals and musical tone signals are transmitted to the sound system 1
The sound is generated from the speaker 114 via the sequencer 13 in the same manner as in the case of the sequencer described above.

この場合、押鍵キーに対応する階名を表す音声信号と楽
音信号の出力は、押鍵、離鍵に応じて階名/音高決定部
110から音声発生部108及び楽器音発生部112へ
出力されるON信号とOFF信号により制御される。
In this case, an audio signal and a musical tone signal representing the scale name corresponding to the pressed key are output from the scale name/pitch determination unit 110 to the sound generation unit 108 and the instrument sound generation unit 112 in accordance with the key depression and key release. It is controlled by the output ON signal and OFF signal.

つぎに、本実施例の動作をシーケンサによる自動演奏の
場合と、マニュアル演奏の場合に分けて説明する。
Next, the operation of this embodiment will be explained separately for automatic performance using a sequencer and manual performance.

まず、シーケンサによる自動演奏の場合は、前述したよ
うに楽曲ROMl0Iに予め書き込まれた第2図に示す
ような音階データに基づいて楽音の階名が発声されるが
、この音階データは、例えば「ド#」と「しし」のよう
に音高が同じでかつ呼び方が異なる階名を含め、1オク
タ一ブ分の幹音とそれから派生した派生音のすべての階
名が5ビツトの2進数で表されている。
First, in the case of automatic performance by a sequencer, the scale names of musical tones are uttered based on scale data as shown in FIG. All scale names of one octa's worth of main notes and derivative notes, including scale names with the same pitch but different names, such as "C#" and "Shishi," are 5-bit 2. It is expressed in decimal numbers.

この5ビツトのデータのうち、上位2ビツトは幹音(0
0)、#のついた派生音(01)、およびトのついた派
生音(10)のいずれかを表し、下位3ビツトは幹音の
階名ド(001)、しく010)   ミ(011) 
、ファ(100)、ソ(101)う(110) 、シ(
111)を表す。
Of these 5 bits of data, the upper 2 bits are the main tone (0
0), a derived note with # (01), or a derived note with G (10), and the lower 3 bits are the scale name of the main note C (001), Shiku010, Mi (011)
, Fa (100), So (101) U (110), Shi (
111).

この音階データに関して、例えばド# (01001)
とレト(10010)のように同じ音高であっても階名
が異なるときは、音階データは異なる。
Regarding this scale data, for example, C # (01001)
and Leto (10010), when the pitch is the same but the scale name is different, the scale data is different.

この音階データに基づいた階名を音声で発声するために
、音階レジスタ104から出力された上記音階データに
基づいて、第2図に示すような階名指定データが、階名
判別部106によって作成される。例えば、階名データ
のド(00001)とド#(01001)は、いずれも
その幹音がドであるから、音高が異なっていても同じ階
名指定データ(001)とされ、その階名は「ドJと発
声される。
In order to vocalize the scale name based on this scale data, the scale name determination unit 106 creates scale name designation data as shown in FIG. 2 based on the scale data output from the scale register 104. be done. For example, the scale name data C (00001) and C # (01001) both have C as their main note, so even if their pitches are different, they are treated as the same scale name specification data (001), and the scale name is pronounced as ``Do J''.

一方、第2図等に示される音階データから音高を決定す
るために、音階レジスタ104から出力された上記音階
データに基づいて、第2図に示すような音高指定データ
が、音高判別部107によって作成される。
On the other hand, in order to determine the pitch from the scale data shown in FIG. 2 etc., pitch specification data as shown in FIG. 107.

ここで、例えば上述の例の音階データのドとド#の場合
のように、階名指定データによって同じ階名が指定され
ても音高が異なる場合を生じる。
Here, even if the same scale name is designated by the scale name designation data, the pitch may be different, as in the case of C and C# in the scale data in the above example, for example.

この場合は、異なる音階データに対応した異なる音高指
定データが音高判別部107によって生成され、音声発
生部108に与えられる。これにより、上記音高指定デ
ータに対応する異なる音高で、前記階名指定データに対
応する同じ階名を表す音声信号が生成される。すなわち
、本実施例では、上述の例の音階データのドとド#のよ
うに、ある幹音とその幹音から派生した派生音とでは、
同じ階名(上例の場合は、「ド」)になるが、その階名
を表す音声の音高は本来の階名(上例の場合は、ドとド
#)に対応する音高とされる。
In this case, different pitch designation data corresponding to different scale data are generated by the pitch discrimination section 107 and provided to the sound generation section 108. As a result, an audio signal representing the same scale name corresponding to the scale name designation data is generated with a different pitch corresponding to the pitch designation data. That is, in this embodiment, a certain stem tone and a derivative tone derived from the stem tone, such as C and C# in the scale data of the above example,
The scale name will be the same (in the above example, "C"), but the pitch of the voice representing that scale name will be the same as the pitch corresponding to the original scale name (in the above example, C and C#). be done.

このような階名の表し方は、声楽の階名歌唱法における
「固定ド」に基づく方法とまったく同じ方法で、メロデ
ィのリズムやアクセントなどとよく調和する。
This way of expressing scale names is exactly the same as the method of singing scale names in vocal music based on the ``fixed C'', and it harmonizes well with the rhythm and accent of the melody.

以上の説明は、シーケンサとして楽曲ROMl04に記
憶されているメロディ等の楽曲の階名を音声で自動的に
発声する場合であり、学習者はその音声を聴きながら歌
唱や楽器演奏を学習する。
The above explanation is for a case where the sequencer automatically vocalizes scale names of songs such as melodies stored in the music ROM 104, and the learner learns singing and playing musical instruments while listening to the voices.

つぎに、鍵盤楽器を用いた場合を例として、マニュアル
演奏時の本実施例の動作を説明する。
Next, the operation of this embodiment during manual performance will be explained using a keyboard instrument as an example.

マニエアル演奏の場合は、まず、演奏される楽曲の各楽
音の階名、特に幹音に#やしなどが付けられた派生音を
、どのような階名で呼ぶかを決める必要がある。例えば
C#(=Db)に相当する黒鍵が押されたとき、その音
の階名は「ド#」と「しb」のいずれであるかの条件を
予め決めてお(。
In the case of manual performance, it is first necessary to decide on the scale name of each musical note of the piece of music to be played, especially the scale name to be used for the derived notes such as #yashi added to the main tone. For example, when a black key corresponding to C# (=Db) is pressed, the scale name of that note is determined in advance as either "C#" or "Shib" (.

そのため、演奏者は、条件設定部109(第1図)内の
条件指定部301(第3図参照)の入力部302を用い
て、同図に示すように予め1オクターブ内の各音の階名
をどのように表すかという条件を設定する。例えば、演
奏する楽曲が同図の表示部303に示すようなホ長調の
場合は、う音、シ音、ミ音にトが付くので、入力部30
2において「う」 「シ」 「ミ」と”p」を用いて設
定を行い、この操作によりフラグレジスタ303のラレ
、シb、ミドの各フラグを1にする。
Therefore, the performer uses the input section 302 of the condition specifying section 301 (see FIG. 3) in the condition setting section 109 (FIG. 1) to preset the scale of each note within one octave as shown in the same figure. Set conditions for how names are represented. For example, if the music to be played is in E major as shown in the display section 303 of the same figure, G is added to the G, C, and M sounds, so the input section 30
In step 2, settings are made using ``u'', ``shi'', ``mi'', and ``p'', and by this operation, each of the flags RARE, SIb, and MIDO in the flag register 303 is set to 1.

このように派生音をどのような階名で表すかという条件
が設定された後、演奏操作が行われ、押鍵キーに対応す
るキーコードが階名/音高決定部110に入力される。
After the conditions of scale names for representing derived notes are set in this way, a performance operation is performed, and the key code corresponding to the pressed key is input to the scale name/pitch determination section 110.

そして、このキーコードからシーケンサの場合と同様の
階名指定データと音高指定データが作成され、それぞれ
音声発生部108と楽器音発生部112へ入力される。
Then, scale name designation data and pitch designation data similar to those for the sequencer are created from this key code, and are input to the voice generation section 108 and the musical instrument sound generation section 112, respectively.

例えば、条件指定部301における上述の条件設定の下
で、「う」と「シ」の間の黒鍵が押鍵された場合、条件
指定部301内のフラグレジスタ303の設定内容に基
づいて、階名/音高決定部110において、階名指定デ
ータとして110、音高指定データとして1001 (
第2図参照)が作成される。
For example, if the black key between “u” and “shi” is pressed under the above-mentioned condition setting in the condition specifying unit 301, based on the settings of the flag register 303 in the condition specifying unit 301, In the scale name/pitch determination unit 110, 110 is the scale name designation data, and 1001 is the pitch designation data (
(see Figure 2) is created.

この結果、音声発生部108からは、階名を表す音声が
音高指定データに対応した音高で発声される。また、楽
器音発生部112からは、音高指定データに対応する音
高の楽音信号が発音される。
As a result, the sound generation unit 108 produces a sound representing the scale name at a pitch corresponding to the pitch designation data. Further, the musical instrument sound generating section 112 generates a musical tone signal having a pitch corresponding to the pitch designation data.

なお、音声の発声または楽音の発音のスタート/ストッ
プは、階名/音高決定部110から押鍵、離鍵に応じて
出力されるON信号とOFF信号によって制御される。
Note that the start/stop of voice production or musical tone production is controlled by ON and OFF signals output from the scale name/pitch determination unit 110 in response to key depression and key release.

その後の動作は、前述のシーケンサの場合と同様である
The subsequent operation is similar to that of the sequencer described above.

つぎに、音声を発生する音声発生部108の具体的構成
例を、第4図と第5図を用いて説明する。
Next, a specific example of the configuration of the sound generation section 108 that generates sound will be explained using FIGS. 4 and 5.

第4図は、音声発生部108の第1の実施例の構成図で
ある。
FIG. 4 is a block diagram of the first embodiment of the sound generation section 108.

同図において、音源信号発生部403で発生される白色
ノイズと三角波(あるいはインパルス波)を用いて、デ
ジタルフィルタ部404で、子音波形とこれに続く母音
波形が合成される。
In the figure, a child sound waveform and a following vowel sound waveform are synthesized in a digital filter part 404 using white noise and a triangular wave (or impulse wave) generated by a sound source signal generation part 403.

さて、人間は音声を発声するとき、その音声に応じて声
道を変化させるが、これと同じように、第4図において
階名指定データに基づいてフィルタ係数ROM402か
ら読み出されるフィルタ係数によって、デジタルフィル
タ部404のフィルタ特性を階名に対応して変化させる
Now, when humans utter a voice, they change their vocal tract according to the voice. In the same way, the digital The filter characteristics of the filter section 404 are changed in accordance with the scale name.

上述の音声発生部108の第1の実施例において、まず
、音源信号発生部403からは、制御部401から出力
されるON信号と無声音指示信号に応じて、白色ノイズ
が先に発生され、その後、入力される有声音指示信号に
応じて、三角波(あるいはインパルス波)が発生される
。ここで、白色ノイズは、無声音である子音波形をデジ
タルフィルタ部404で生成するための入力波形として
用いられ、例えば乱数に基づいて発生される。また、三
角波(あるいはインパルス波)は、有声音である母音波
形を生成するために用いられ、その繰り返し周波数は、
制御部401に入力した音高指定データに基づいて生成
されるピッチ指定信号によって、階名を表す音声の基本
周波数と等しくなるように設定される。
In the first embodiment of the sound generation section 108 described above, first, the sound source signal generation section 403 first generates white noise in accordance with the ON signal and the unvoiced sound instruction signal output from the control section 401, and then the white noise is generated. , a triangular wave (or impulse wave) is generated according to the inputted voiced sound instruction signal. Here, the white noise is used as an input waveform for generating a consonant waveform, which is an unvoiced sound, in the digital filter section 404, and is generated based on, for example, random numbers. In addition, triangular waves (or impulse waves) are used to generate vowel waveforms, which are voiced sounds, and their repetition frequency is
A pitch designation signal generated based on pitch designation data input to the control unit 401 is set to be equal to the fundamental frequency of the voice representing the scale name.

このようにして、白色ノイズ、それに続いて三角波(あ
るいはインパルス波)が、デジタルフィルタ部404に
順次入力し、ここで階名に対応する子音波形つづいて母
音波形が順次生成される。
In this way, the white noise and then the triangular wave (or impulse wave) are sequentially input to the digital filter section 404, where a child sound waveform and a vowel sound waveform corresponding to the scale name are sequentially generated.

このデジタルフィルタ404は、例えばLPClPAR
COR,LSPまたはケプストラムなどの音声合成フィ
ルタであり、そのフィルタ係数は、階名を表す音声の子
音と母音に応して変更される。
This digital filter 404 is, for example, LPClPAR
It is a speech synthesis filter such as COR, LSP, or cepstrum, and its filter coefficients are changed according to the consonants and vowels of the speech representing the scale name.

例えば階名「ソ(So)Jを発声する場合、階名指定デ
ータに応じて制御部401が、子音「s」に対応するフ
ィルタ係数と母音「o」に対応するフィルタ係数をフィ
ルタ係数ROM402から読み出し、それによってデジ
タルフィルタ部404のフィルタ特性が、子音→母音の
時間的波形変化に対応して変化させられる。
For example, when uttering the scale name "So (So) J", the control unit 401 selects a filter coefficient corresponding to the consonant "s" and a filter coefficient corresponding to the vowel "o" from the filter coefficient ROM 402 according to the scale name specification data. As a result, the filter characteristics of the digital filter section 404 are changed in accordance with the temporal waveform change from consonant to vowel.

このようにして、音高指定データに応じた音高で、「ド
、し、ミ、・・・、シ」の階名を表す音声波形データが
、デジタルフィルタ部404から出力される。
In this way, the digital filter section 404 outputs audio waveform data representing scale names of "do, shi, mi, . . . , shi" at pitches corresponding to the pitch designation data.

つぎに、第1図の音声発生部1o8の第2の実施例の構
成を第5図に示す。
Next, FIG. 5 shows the configuration of a second embodiment of the sound generating section 1o8 shown in FIG. 1.

まず、第2の実施例の動作の概要を説明する。First, an overview of the operation of the second embodiment will be explained.

同図において、人声音波形データメモリ部5゜8に、第
6図に示すように、「ド、し、ミ、ファ・・・シ」の各
階名毎に、それを表す子音と母音の音波形が、立上り(
子音)波形の「d」と持続(母音)波形の「オ(0)」
に分割して記憶されている。そして、例えば階名の「ド
(do)Jを指定する階名指定データが制御部501に
入力されると、「ドオー」のように、子音rdJの波形
領域の読み出し後に、母音「オ(0)」の波形領域が所
定時間繰り返して(ループして)読み出される。この場
合の音声の音高は、制御部501がら出力される音高指
定データにによって人声音波形データメモリ部508に
記憶された音声波形データを読み出すときのアドレス歩
道幅が指定されることによって、制御される。
In the figure, the human voice sound waveform data memory section 5°8 stores the consonant and vowel sound waves representing each scale name of "do, shi, mi, fa...shi" as shown in FIG. The shape is rising (
Consonant) waveform “d” and sustained (vowel) waveform “o” (0)
It is divided into and stored. For example, when scale name designation data that specifies the scale name "do (do) )" waveform area is repeatedly (looped) read out for a predetermined period of time. The pitch of the voice in this case is determined by specifying the address sidewalk width when reading the voice waveform data stored in the human voice waveform data memory unit 508 using the pitch specification data output from the control unit 501. controlled.

まず、ON信号とともに階名指定データが、制御部50
1を介して立上り波形スタートアドレス発生部502に
入力されると、その階名指定データに対応する立上がり
(子音)波形を人声音波形データメモリ部508から読
み出すためのスタートアドレスが発生される。それによ
って、アドレス信号発生部503は、人声音波形データ
メモリ部508に立上がり(子音)波形データが記憶さ
れているアドレスを順次出力し、メモリからその波形デ
ータの読み出しが開始される。このとき、音高指定デー
タがアドレス信号発生部503に入力されているので、
その音高に対応する歩道幅でアドレス信号が発生される
First, the floor name designation data is sent to the control unit 50 along with the ON signal.
1 to the rising waveform start address generating section 502, a start address for reading out the rising (consonant) waveform corresponding to the scale name designation data from the human voice waveform data memory section 508 is generated. Thereby, the address signal generating section 503 sequentially outputs the addresses where the rising (consonant) waveform data are stored to the human voice waveform data memory section 508, and reading of the waveform data from the memory is started. At this time, since the pitch designation data has been input to the address signal generation section 503,
An address signal is generated with a sidewalk width corresponding to the pitch.

その後、立上がり波形エンドアドレス検出部506によ
り、アドレス信号発生部503から出力される立上がり
(子音)波形のエンドアドレスが検出されると、エンド
アドレス検出信号が、ORゲート505を介して持続波
形スタートアドレス発生部504に入力される。
Thereafter, when the rising waveform end address detection section 506 detects the end address of the rising (consonant) waveform output from the address signal generation section 503, the end address detection signal is sent to the continuous waveform start address via the OR gate 505. The signal is input to the generation unit 504.

これにより、同アドレス発注部504から、制御部50
1から入力される階名指定データに対応する母音波形で
ある持続波形を人声音波形データメモリ部508から読
み出iためのスタートアドレスが発生される。それによ
って、アドレス信号発注部503は、人声音波形データ
メモリ部508に持続波形(子音波形)データが記憶さ
れているアドレスを順次出力し、メモリからその波形デ
ータが読み出される。このとき、音高指定データがアド
レス信号発生部503に入力されているので、その音高
に対応する歩道幅でアドレス信号が発生される。
As a result, from the same address ordering unit 504, the control unit 50
A start address i for reading out a continuous waveform, which is a vowel waveform corresponding to the scale name designation data input from 1, from the human voice waveform data memory unit 508 is generated. Thereby, the address signal ordering unit 503 sequentially outputs the addresses where continuous waveform (son waveform) data are stored in the human voice waveform data memory unit 508, and the waveform data is read from the memory. At this time, since the pitch designation data has been input to the address signal generation section 503, an address signal is generated with a sidewalk width corresponding to the pitch.

その後、持続波形エンドアドレス検出部507→ORゲ
ート505→持続波形スタートアドレス発生部504→
アドレス信号発生部503→持続波形エンドアドレス検
出部507という信号の流れでループ処理が行われ、持
続波形(母音波形)の読み出しが持続される。
After that, continuous waveform end address detection section 507 → OR gate 505 → continuous waveform start address generation section 504 →
A loop process is performed in a signal flow from the address signal generation unit 503 to the continuous waveform end address detection unit 507, and reading of the continuous waveform (vowel waveform) is continued.

そして、OFF信号が持続波形スタートアドレス発生部
504に入力されるにおよんで、上記のループ処理が停
止される。
Then, when the OFF signal is input to the continuous waveform start address generation section 504, the above loop processing is stopped.

以上のようにして、ON信号の゛続く間、階名を表す音
声波形データのうち、第6図に示す立上がり(子音)波
形データが1回、それに引き続いて持続(母音)波形デ
ータが繰り返し、人声音波形データメモリ部508から
読み出される。
As described above, while the ON signal continues, among the audio waveform data representing the scale name, the rising (consonant) waveform data shown in FIG. 6 is repeated once, followed by the continuous (vowel) waveform data, The human voice sound waveform data is read out from the memory section 508.

この後、同音声波形データは、エンベロープ信号発生部
509から出力されるエンベロープ信号と乗算器510
で乗算され、「ド、し、ミ、ファ・・・シ」の階名を発
声するために適当なエンベロープを有する音声信号とな
る。
Thereafter, the same audio waveform data is combined with the envelope signal output from the envelope signal generator 509 and the multiplier 510.
The result is an audio signal with an envelope suitable for uttering the scale names of "do, shi, mi, fa...shi".

なお、人声音波形データメモリ部508に記憶される音
声波形の符号化、復号化には、PCM、DPCM、AD
PCM等の方式が適用できる。
Note that PCM, DPCM, AD
A method such as PCM can be applied.

つづいて、ユーザーがシーケンサに自動演奏データを設
定することのできる実施例について説明する。第7図は
、その実施例の説明図である。
Next, an embodiment will be described in which the user can set automatic performance data on the sequencer. FIG. 7 is an explanatory diagram of the embodiment.

さきに説明した第1図の実施例では、楽曲ROM101
に、特定曲の階名や音符長に関するデータが、予め工場
側で書き込まれていたが、第7図の場合は、楽曲ROM
l0Iの代わりに楽曲RAM707が設けられ、ユーザ
ーは、任意の曲の階名や音符長に関するデータを、1音
ずつ楽曲RAM707に記憶させることができる。この
ような入力形態は一般にステップ入力と呼ばれる。音階
レジスタ104と音長制御部105ならびにそこから先
の構成は第1図の場合と同様である。以下に、楽曲RA
M707に自動演奏データを書き込む部分の構成を中心
に説明する。
In the embodiment of FIG. 1 described above, the music ROM 101
In the case of Fig. 7, data regarding scale names and note lengths of specific songs were written in advance at the factory.
A music RAM 707 is provided in place of 10I, and the user can store data regarding scale names and note lengths of any music one note at a time in the music RAM 707. Such an input form is generally called step input. The scale register 104, tone length control section 105, and the subsequent configurations are the same as in the case of FIG. Below is the song RA
The configuration of the part for writing automatic performance data into M707 will be mainly explained.

さて、第7図において、階名データ入力部701は、マ
ニュアル演奏時に使用される条件指定部301 (第3
図参照)の入力部302とほぼ同じであるが、階名デー
タを8オクターブの音域に渡って入力できるように構成
されている。例えば音名AO(27,5Hz)を最低音
とし、音高類に1オクターブ毎の音域を0ctl、0c
t2. ・−・0ct8とした場合、例えばハ長調の曲
の04音がステップ入力される場合には、ハ長調の曲の
04音はOc t4の音域内にありその階名はソである
ので、rOct4jと「ソ」が入力される。また、楽曲
がイ短調の場合、G4音には臨時記号の#が付くので、
「ソ」と「#コが入力される。
Now, in FIG. 7, the scale name data input section 701 is connected to the condition specifying section 301 (third
It is almost the same as the input section 302 of the 8-octave range (see figure), but is configured so that scale name data can be input over an 8-octave range. For example, the note name AO (27.5Hz) is the lowest note, and the pitch range is 0ctl, 0c for each octave.
t2. ...If 0ct8 is set, for example, if the 04th note of a C major song is input step-by-step, the 04th note of a C major song is within the range of Oct4 and its scale name is G, so rOct4j and "S" are input. Also, if the song is in A minor, the G4 note will have an accidental #, so
"S" and "#" are input.

音符長データ入力部702は、休止符を含む音符長をス
テップ入力するためのもので、楽曲に応じて、同図に示
されるような全音符、2分音符、・・・、32分音符と
、3連音符、付点、および4分休止符が入力される。
The note length data input section 702 is for inputting note lengths including rests in steps, and depending on the music, whole notes, half notes, . . . , 32nd notes as shown in the figure are input. Triplets, dots, and quarter rests are entered.

そして、インクリメント・スイッチ705とライトスイ
ッチ704を各データのステップ入力毎に押すことによ
って、順次、階名や音符長に関するデータが書込制御部
703を介して、楽曲RAM707に書き込まれる。な
お、このときの楽曲RAM707のアドレスは、アドレ
ス指定部706によって指定される。
Then, by pressing the increment switch 705 and the write switch 704 for each data step input, data regarding scale names and note lengths are sequentially written into the music RAM 707 via the write control section 703. Note that the address of the music RAM 707 at this time is specified by the address specifying section 706.

上述の楽曲RAM707に書き込まれるデータは、同時
に表示駆動部708により、楽曲表示部709に楽譜の
形で表示されるので、書き込まれるデータを確認するこ
とができる。
The data written to the music RAM 707 described above is simultaneously displayed in the form of a musical score on the music display section 709 by the display driving section 708, so that the data to be written can be confirmed.

以上がステップ入力で楽曲RAM707に、階名データ
と音符長データを入力するときの動作であるが、この入
力されたデータによって、つぎのように階名が音声によ
って発声される。
The above is the operation when inputting scale name data and note length data into the music RAM 707 by step input. Based on this input data, the scale name is uttered aloud as follows.

まず、曲指定部710(第1図の103に対応する)に
よって楽曲を指定すると、その楽曲の階名データと音符
長データを楽曲RAM707から読み出すためのアドレ
スが、アドレス指定部706(第1図の102に対応す
る)によって指定される。
First, when a song is specified by the song designation section 710 (corresponding to 103 in FIG. (corresponding to 102).

その結果、音階データと音符長データが、楽曲RAM7
07から読み出される。
As a result, the scale data and note length data are stored in the song RAM 7.
It is read from 07.

これ以後の音長制御部710、アドレス指定部706、
および音階レジスタ711の動作は前述のシーケンサの
場合(第1図)と同様なので、その説明は省略する。但
し、音階データ及びそれに基づく音高指定データは、第
2図の場合と異なり、■オクターブ分以上にわたって指
定され得る。
After this, the tone length control section 710, address specification section 706,
The operation of the scale register 711 is the same as that of the sequencer described above (FIG. 1), so a description thereof will be omitted. However, unlike the case of FIG. 2, the musical scale data and the pitch designation data based thereon can be designated for more than one octave.

以上、説明したように、自動演奏、またはマニュアル演
奏によって、指定曲(自動演奏の場合)あるいは任意の
曲(マニュアル演奏の場合)の各楽音の階名が、その楽
音と同じ音高の音声で発声される。その場合、派生音の
階名は、予め設定された条件に従う方の幹音と同じ階名
で表される。
As explained above, by automatic performance or manual performance, the scale name of each musical note in a specified song (in automatic performance) or any song (in manual performance) is changed to a voice with the same pitch as that musical note. uttered. In this case, the scale name of the derived note is represented by the same scale name as the main note according to the preset conditions.

ここまで説明した各実施例においては、演奏される楽音
に対する階名が曲の調に無関係に、例えばC音の階名は
「ドJ、D音の階名は「しJのように、すべてハ長調の
階名で表されたが、本発明はこれに限られるものではな
く、つぎのような方法で階名を表すこともできる。すな
わち、演奏される長調の主音(第1音)を階名の「ド」
、短調の場合は、主音を階名の「うJとする方法(移動
「ド」唱法と呼ばれる)である。自動演奏(シーケンサ
)の場合は、この方法に従って、第1図の音階データや
階名指定データなどを作成し、またマニュアル演奏の場
合は、例えば調指定装置などを用いて、演奏される曲の
調を指定する調データを予め入力するなどすることも可
能である。
In each of the embodiments described so far, scale names for musical tones to be played are independent of the key of the piece. Although the scale name is expressed in the C major key, the present invention is not limited to this, and the scale name can also be expressed in the following way.In other words, the tonic (first note) of the major key being played is "Do" in floor name
, minor key, the method is to use the tonic as the scale name ``UJ'' (called the moving ``C'' singing method). In the case of automatic performance (sequencer), create the scale data and scale name specification data shown in Figure 1 according to this method, and in the case of manual performance, use a key specification device, etc., to create the music to be played. It is also possible to input key data specifying the key in advance.

また、第1図の実施例では、音階データは1オクタ一ブ
分のみ指定され、音高指定データも1オクターブのみ指
定されるが、これに限られるものではなく、複数オクタ
ーブ分が指定されるように構成することも勿論可能であ
る。但し、音声発生部108(第1図)から発声される
階名は、音高指定データで指定される音高で発声される
ため、実際に人間が発声可能な音高に制限されることが
望ましい。この場合、楽器音発生部112で発音される
楽器音の音高の方は広い範囲で指定できるようにしても
よい。
Further, in the embodiment shown in FIG. 1, the scale data is specified for one octave only, and the pitch specification data is also specified for only one octave, but this is not limited to this, and multiple octaves may be specified. Of course, it is also possible to configure it in this way. However, since the scale name uttered from the sound generation unit 108 (FIG. 1) is uttered at the pitch specified by the pitch specification data, it may be limited to pitches that can actually be uttered by humans. desirable. In this case, the pitch of the musical instrument sound produced by the musical instrument sound generating section 112 may be specified within a wide range.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、階名を表す音声は、「ド」、「し」、
「ミ」、・・・  「シ」の7種類のみで発声され、幹
音に臨時記号が付けられて音高が半音程変化した派生音
に対しては、音高のみが半音程変化し、音声自体はもと
の幹音の階名で一音節で発声される。このためテンポの
速い曲でも階名が聴きとりやすい。すなわち、本発明に
より発声される階名を表す音声は、メロディ−のリズム
やアクセントなどとよく調和し、しかも階名が聴きとり
やすいので、音楽学習上の効果が大きい。
According to the present invention, sounds representing floor names include "do", "shi",
For derived sounds that are uttered in only 7 types: "mi", ... "shi", and the pitch changes by a semitone by adding an accidental to the main sound, only the pitch changes by a semitone, The voice itself is uttered in one syllable using the scale name of the original stem tone. This makes it easy to hear the scale names even in fast-paced songs. That is, the sounds representing the scale names uttered according to the present invention harmonize well with the rhythm and accent of the melody, and the scale names are easy to hear, which is highly effective for music learning.

また、派生音に対応する幹音が派生音より半音程高い幹
音であるか又は半音程低い幹音であるかを、予めデータ
として(自動演奏の場合)又は条件設定手段により(マ
ニュアル演奏の場合)設定しておくことができるため、
楽曲に沿った正しい階名を発声させることが可能となる
In addition, whether the stem tone corresponding to the derived note is a stem tone that is a semitone higher or a semitone lower than the derived note is determined in advance as data (in the case of automatic performance) or by condition setting means (in the case of manual performance). case), so you can set
It becomes possible to utter the correct scale names that match the music.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明による1実施例の全体構成図、第2図
は、楽曲ROMl0Iにおける音階データの構成図、 第3図は、条件設定部の構成図、 第4図は、音声発生部の第1の実施例の構成図、第5図
は、音声発生部の第2の実施例の構成図、第6図は、人
声音波形データメモリ部の記憶状態図、 第7図は、本発明による他の実施例の構成図である。 101 ・ 102 ・ 103 ・ 104 ・ 105 ・ 106 ・ 107 ・ 108 ・ 109 ・ 110 ・ 111 ・ 112 ・ 113  ・ 114 ・ 301 ・ ・楽曲ROM、 ・アドレス指定部、 ・曲指定部、 ・音階レジスタ、 ・音長制御部、 ・階名判別部、 ・音高判別部、 ・音声発生部、 ・条件設定部、 ・階名/音高決定部、 ・鍵盤、 ・楽器音発生部、 ・サウンドシステム、 ・スピーカ。 ・条件指定部、 302 ・ 303 ・ 304 ・ 305 ・ 401. 402 ・ 403 ・ 404 ・ 502 ・ 503 ・ 504 ・ 505 ・ 506 ・ ・・入力部、 ・・フラグレジスタ、 ・・表示部、 ・・表示駆動部、 501・・・制御部、 ・・フィルタ係数ROM、 ・・音源信号発生部、 ・・デジタルフィルタ部、 ・・立上り波形スタートアドレス発 生部、 ・・アドレス信号発生部、 ・・持続波形スタートアドレス発生 部、 ・ ・ORゲート、 ・・立上り波形エンドアドレス検出 部、 ・・持続波形エンドアドレス検出部、 ・・人声音波形データメモリ部、 ・・エンベロープ信号発生部、 ・・乗算器、 701 ・ 702 ・ 703 ・ 704 ・ 705 ・ 706 ・ 707 ・ 708 ・ 709 ・ ・階名データ入力部、 ・音符長データ入力部、 ・書込制御部、 ・ライトスイッチ、 ・インクリメント・スイッチ、 ・アドレス指定部、 ・楽曲RAM、 ・表示駆動部、 ・楽曲表示部。
FIG. 1 is an overall configuration diagram of an embodiment of the present invention, FIG. 2 is a configuration diagram of scale data in music ROM10I, FIG. 3 is a configuration diagram of a condition setting section, and FIG. 4 is a sound generation section Fig. 5 is a block diagram of the second embodiment of the voice generating section, Fig. 6 is a storage state diagram of the human voice waveform data memory section, and Fig. 7 is a block diagram of the second embodiment of the voice generating section. FIG. 3 is a configuration diagram of another embodiment according to the invention. 101 ・ 102 ・ 103 ・ 104 ・ 105 ・ 106 ・ 107 ・ 108 ・ 109 ・ 110 ・ 111 ・ 112 ・ 113 ・ 114 ・ 301 ・ ・Music ROM, ・Address specification section, ・Music specification section, ・Scale register, ・Sound long control section, ・scale name discrimination section, ・pitch discrimination section, ・sound generation section, ・condition setting section, ・scale name/pitch determination section, ・keyboard, ・instrument sound generation section, ・sound system, ・speaker .・Condition specification section, 302 ・ 303 ・ 304 ・ 305 ・ 401. 402 ・ 403 ・ 404 ・ 502 ・ 503 ・ 504 ・ 505 ・ 506 ... Input section, ... Flag register, ... Display section, ... Display drive section, 501 ... Control section, ... Filter coefficient ROM, ...Sound source signal generation section, ...Digital filter section, ...Rising waveform start address generation section, ...Address signal generation section, ...Sustained waveform start address generation section, ...OR gate, ...Rising waveform end address detection parts, ... continuous waveform end address detection part, ... human voice waveform data memory part, ... envelope signal generation part, ... multiplier, 701 ・ 702 ・ 703 ・ 704 ・ 705 ・ 706 ・ 707 ・ 708 ・ 709 ・・Grade name data input section, ・Note length data input section, ・Write control section, ・Light switch, ・Increment switch, ・Address specification section, ・Music RAM, ・Display drive section, ・Music display section.

Claims (1)

【特許請求の範囲】 1)音階データを発生する音階データ発生手段と、該音
階データ発生手段が幹音の音階データを発生した場合に
該幹音の階名を指定する階名指定データを生成し、幹音
から派生した派生音の音階データを発生した場合に予め
設定された条件に従って該派生音より半音程高い幹音の
階名又は半音程低い幹音の階名のいずれかを指定する階
名指定データを生成する階名指定データ生成手段と、前
記音階データ発生手段が発生した音階データが示す幹音
又は派生音の音高に対応する音高指定データを生成する
音高指定データ生成手段と、前記階名指定データ生成手
段が生成した階名指定データに対応する階名を前記音高
指定データ生成手段が生成した音高指定データに対応す
る音高で発声する音声発生手段と、 を有することを特徴とする電子音声楽器。 2)前記音階データ発生手段が発生する音階データは、
該音階データに対応する幹音をそのまま指定する条件を
示すコード、前記幹音に対して音高を半音程上げる条件
を示すコード又は前記幹音に対して音高を半音程下げる
条件を示すコードのいずれかにて表現され、前記階名指
定データ生成手段は、前記音階データ発生手段が発生し
た音階データが示す前記コードに基づいて前記階名指定
データを生成する、ことを特徴とする請求項1記載の電
子音声楽器。 3)前記音階データ発生手段は、 楽曲を表す複数の音階データを該各音階データの読み出
しタイミングを制御する各タイミングデータと対で記憶
する楽曲データ記憶手段と、該楽曲データ記憶手段から
前記各音階データを、該各音階データと対で記憶されて
いる前記各タイミングデータを読み出しながらそのタイ
ミングデータに基づくタイミングで、順次読み出す音階
データ読出し手段と、を含むことを特徴とする請求項2
記載の電子音声楽器。 4)前記楽曲データ記憶手段に前記各音階データ及びそ
れに対応する前記各タイミングデータを書き込む書込み
手段を、更に有することを特徴とする請求項3記載の電
子音声楽器。 5)各派生音がその派生音より半音程高い幹音から派生
したか半音程低い幹音から派生したかのいずれかの条件
を設定する条件設定手段と、 入力される演奏情報が幹音の発音を指示する演奏情報で
ある場合に該幹音の階名を指定する階名指定データを生
成し、派生音の発音を指示する演奏情報である場合に前
記条件設定手段で設定された条件に従って該派生音より
半音程高い幹音の階名又は半音程低い幹音の階名のいず
れかを指定する階名指定データを生成する階名指定デー
タ生成手段と、 前記演奏情報が指示する幹音又は派生音の音高に対応す
る音高指定データを生成する音高指定データ生成手段と
、 前記階名指定データ生成手段が生成した階名指定データ
に対応する階名を前記音高指定データ生成手段が生成し
た音高指定データに対応する音高で発声する音声発生手
段と、 を有することを特徴とする電子音声楽器。 6)前記音声発生手段は、 前記音高指定データ生成手段が生成した音高指定データ
に対応する音高の音源信号を生成する音源手段と、 該音源手段からの音源信号を入力とし、前記階名指定デ
ータ生成手段が生成した階名指定データに対応する階名
を表す音声信号を合成する音声合成フィルタ手段と、 を含むことを特徴とする請求項1、2、3、4又は5の
いずれか1項に記載の電子音声楽器。 7)前記音声発生手段は、 前記各幹音の階名を表す音声波形データを記憶する波形
記憶手段と、 該波形記憶手段から、前記階名指定データ生成手段が生
成した階名指定データに対応する階名を表す音声波形デ
ータを、前記音高指定データ生成手段が生成した音高指
定データに対応する音高に応じた速度で読み出す波形読
出し手段と、 を含むことを特徴とする請求項1、2、3、4又は5の
いずれか1項に記載の電子音声楽器。 8)前記波形記憶手段は、前記各幹音の階名を表す子音
の音声波形データと前記各幹音の階名を表す母音の音声
波形データとを記憶し、 前記波形読出し手段は、前記階名指定データ生成手段が
生成した階名指定データに対応する階名の子音を表す音
声波形データを読み出した後、該階名の母音を表す音声
波形データを繰り返し読み出す、 ことを特徴とする請求項7記載の電子音声楽器。
[Scope of Claims] 1) A scale data generation means for generating scale data, and when the scale data generation means generates scale data for a main note, generating scale name designation data for specifying the scale name of the main note. When scale data for a derivative sound derived from a main note is generated, specify either the scale name of the main note that is a semitone higher than the derived note or the scale name of a stem note that is a semitone lower than the derived note, according to preset conditions. Scale name designation data generation means for generating scale name designation data, and pitch designation data generation for generating pitch designation data corresponding to the pitch of the main note or derivative note indicated by the scale data generated by the scale data generation means. and a sound generating means for uttering a scale name corresponding to the scale name designation data generated by the scale name designation data generation means at a pitch corresponding to the pitch designation data generated by the pitch designation data generation means; An electronic audio instrument characterized by having. 2) The scale data generated by the scale data generating means is:
A code indicating a condition for specifying the stem tone corresponding to the scale data as is, a code indicating a condition for raising the pitch by a semitone with respect to the stem tone, or a code indicating a condition for lowering the pitch by a semitone with respect to the stem tone. 2. The scale name designation data generating means generates the scale name designation data based on the chord indicated by the scale data generated by the scale data generation means. 1. The electronic audio instrument described in 1. 3) The scale data generation means includes a music data storage means for storing a plurality of scale data representing a music piece in pairs with each timing data for controlling the reading timing of each of the scale data, and a music data storage means for storing each of the scale data from the music data storage means. 2. A scale data reading means for sequentially reading data at a timing based on the timing data while reading each of the timing data stored in pairs with each of the scale data.
The electronic audio instrument described. 4) The electronic audio musical instrument according to claim 3, further comprising writing means for writing each of the scale data and each of the timing data corresponding thereto into the music data storage means. 5) condition setting means for setting a condition as to whether each derived note is derived from a stem tone that is a semitone higher or a semitone lower than the derived note; and If the performance information instructs pronunciation, scale name designation data is generated that specifies the scale name of the stem note, and if the performance information instructs the pronunciation of a derivative note, according to the conditions set by the condition setting means. scale name designation data generation means for generating scale name designation data that designates either a scale name of a stem tone that is a semitone higher than the derived note or a scale name of a stem note that is a semitone lower than the derived note; and a stem tone that is specified by the performance information. or a pitch designation data generation means for generating pitch designation data corresponding to the pitch of a derived note; and pitch designation data generation means for generating the pitch designation data to generate a scale name corresponding to the scale name designation data generated by the scale name designation data generation means. An electronic audio musical instrument characterized by comprising: a sound generating means that produces a sound at a pitch corresponding to the pitch specification data generated by the means. 6) The sound generation means includes a sound source means for generating a sound source signal of a pitch corresponding to the pitch designation data generated by the pitch designation data generation means, and receives the sound source signal from the sound source means, and Claim 1, 2, 3, 4, or 5, further comprising: speech synthesis filter means for synthesizing an audio signal representing a scale name corresponding to the scale name designation data generated by the name designation data generation means. The electronic audio instrument according to item 1. 7) The sound generating means includes: a waveform storage means for storing sound waveform data representing the scale name of each of the main tones; and a waveform storage means for generating scale name designation data generated by the scale name designation data generation means from the waveform storage means. 2. A waveform reading means for reading out audio waveform data representing a scale name to be played at a speed corresponding to a pitch corresponding to the pitch designation data generated by the pitch designation data generation means. , 2, 3, 4, or 5. The electronic audio instrument according to any one of . 8) The waveform storage means stores consonant audio waveform data representing the scale name of each of the stem tones and vowel audio waveform data representing the scale name of each of the stem sounds, and the waveform reading means stores the consonant audio waveform data representing the scale name of each of the stem sounds, A claim characterized in that after reading the audio waveform data representing the consonants of the scale name corresponding to the scale name designation data generated by the name designation data generating means, the audio waveform data representing the vowels of the scale name are repeatedly read. 7. The electronic audio instrument according to 7.
JP2270207A 1990-10-08 1990-10-08 Electronic sound musical instrument Pending JPH04146473A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2270207A JPH04146473A (en) 1990-10-08 1990-10-08 Electronic sound musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2270207A JPH04146473A (en) 1990-10-08 1990-10-08 Electronic sound musical instrument

Publications (1)

Publication Number Publication Date
JPH04146473A true JPH04146473A (en) 1992-05-20

Family

ID=17483027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2270207A Pending JPH04146473A (en) 1990-10-08 1990-10-08 Electronic sound musical instrument

Country Status (1)

Country Link
JP (1) JPH04146473A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137493A (en) * 1994-10-28 1996-05-31 United Microelectron Corp Central-control type audio synthesizer
JP2000242267A (en) * 1999-02-22 2000-09-08 Kawai Musical Instr Mfg Co Ltd Music learning assistance device and computer-readable recording medium where music learning assistance program is recorded
JP2007017651A (en) * 2005-07-07 2007-01-25 Xing Inc Musical sound reproducing program and musical sound reproducing apparatus
WO2016042653A1 (en) * 2014-09-19 2016-03-24 有限会社ハーモウェル Music learning aid device and musical instrument
JP2017032862A (en) * 2015-08-04 2017-02-09 漢基 文 Music reproduction device and music reproduction method
WO2023140151A1 (en) * 2022-01-19 2023-07-27 カシオ計算機株式会社 Information processing device, electronic musical instrument, electronic musical instrument system, method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137493A (en) * 1994-10-28 1996-05-31 United Microelectron Corp Central-control type audio synthesizer
JP2000242267A (en) * 1999-02-22 2000-09-08 Kawai Musical Instr Mfg Co Ltd Music learning assistance device and computer-readable recording medium where music learning assistance program is recorded
JP2007017651A (en) * 2005-07-07 2007-01-25 Xing Inc Musical sound reproducing program and musical sound reproducing apparatus
JP4624879B2 (en) * 2005-07-07 2011-02-02 株式会社エクシング Musical sound information generation program and musical sound information generator
WO2016042653A1 (en) * 2014-09-19 2016-03-24 有限会社ハーモウェル Music learning aid device and musical instrument
JP2017032862A (en) * 2015-08-04 2017-02-09 漢基 文 Music reproduction device and music reproduction method
WO2023140151A1 (en) * 2022-01-19 2023-07-27 カシオ計算機株式会社 Information processing device, electronic musical instrument, electronic musical instrument system, method, and program

Similar Documents

Publication Publication Date Title
CN110390923B (en) Electronic musical instrument, control method of electronic musical instrument, and storage medium
CN110634460A (en) Electronic musical instrument, control method for electronic musical instrument, and storage medium
CN110634464A (en) Electronic musical instrument, control method for electronic musical instrument, and storage medium
Rodet Synthesis and processing of the singing voice
US11417312B2 (en) Keyboard instrument and method performed by computer of keyboard instrument
JPH11184490A (en) Singing synthesizing method by rule voice synthesis
Flynn Listening to Berio's music
JP6760457B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP4038836B2 (en) Karaoke equipment
JPH04146473A (en) Electronic sound musical instrument
JP6801766B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP6835182B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JP6819732B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JPH06509189A (en) Musical training device and training method
JP2022065554A (en) Method for synthesizing voice and program
JP3233036B2 (en) Singing sound synthesizer
JP7276292B2 (en) Electronic musical instrument, electronic musical instrument control method, and program
JP3265995B2 (en) Singing voice synthesis apparatus and method
WO2022190502A1 (en) Sound generation device, control method therefor, program, and electronic musical instrument
JPH09179572A (en) Voice converting circuit and karaoke singing equipment
JPH0895588A (en) Speech synthesizing device
KR20040015605A (en) Method and apparatus for synthesizing virtual song
JP2005084065A (en) Apparatus for practicing code
JPH1031496A (en) Musical sound generating device
Chamorro An Analysis of Jonathan Harvey’s Speakings for Orchestra and Electronics