JPH04331990A - Voice electronic musical instrument - Google Patents

Voice electronic musical instrument

Info

Publication number
JPH04331990A
JPH04331990A JP3131826A JP13182691A JPH04331990A JP H04331990 A JPH04331990 A JP H04331990A JP 3131826 A JP3131826 A JP 3131826A JP 13182691 A JP13182691 A JP 13182691A JP H04331990 A JPH04331990 A JP H04331990A
Authority
JP
Japan
Prior art keywords
pitch
data
audio
note
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3131826A
Other languages
Japanese (ja)
Inventor
Norio Iizuka
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP3131826A priority Critical patent/JPH04331990A/en
Publication of JPH04331990A publication Critical patent/JPH04331990A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To accurately reflect the musical representation of a score and the correspondence relation between notes and a text on a voice even when the notes indicated on the score and the text corresponding to the notes are stored as data as they are. CONSTITUTION:When voice data on one voice are stored corresponding to plural successive notes (YES in step 118), the current pitch is bent (121) according to following pitch data while the pitch of the note corresponding to voice data following the current voice data is read out (step 120) to perform voice generation up to a current loop part. Namely, when the current pitch is E4 and following data is C4, the pitch is bent from the E4 to C4, and consequently a voice is generated in voicing mode wherein slurs are given to E4 and C4.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、楽曲を構成する音符の
音高及び音長にて歌詞を発声させる音声電子楽器に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio electronic musical instrument that allows lyrics to be uttered using the pitch and duration of the notes that make up a piece of music.

【0002】0002

【従来の技術】従来、電子楽器としては単に楽器音を発
生させるのみならず、音声を合成してして発生させる音
声電子楽器が提案されるに至っている(例えば、特開昭
59−131939号公報参照)。この音声電子楽器は
、記憶モードと再生モードとを選択的に設定することが
可能であって、前記記憶モードにおいては鍵操作により
、楽曲を構成する音符の音高と音長と共に、「あ」「い
」「う」「え」「お」・・・等50音の音声データから
なる歌詞をRAMに記憶することができる。そして、該
RAMに前記音声データとともに音高及び音長を記憶さ
せた後、前記再生モードを選択設定すると、RAMから
前記音声データ共に対応する音高と音長とが読み出され
、該音声データと音高及び音長に基づき音声信号が生成
される。したがって、該音声信号をスピーカにより再生
して放音させることにより、該スピーカから特定の楽曲
の歌詞を当該楽曲の音高及び音長に従って発生させるこ
とができるものである。
BACKGROUND OF THE INVENTION Conventionally, audio electronic musical instruments have been proposed that not only generate musical instrument sounds but also synthesize voices (for example, Japanese Patent Laid-Open No. 59-131939 (see official bulletin). This audio electronic musical instrument can selectively set a storage mode and a playback mode, and in the storage mode, by key operation, the pitch and length of the notes that make up the music are recorded. Lyrics consisting of voice data of 50 sounds such as "i", "u", "e", "o", etc. can be stored in the RAM. Then, after storing the pitch and duration along with the audio data in the RAM, when the playback mode is selected and set, the pitch and duration corresponding to the audio data are read out from the RAM, and the audio data is read out from the RAM. An audio signal is generated based on the pitch and duration. Therefore, by reproducing and emitting the audio signal through a speaker, the lyrics of a specific song can be generated from the speaker in accordance with the pitch and duration of the song.

【0003】0003

【発明が解決しようとする課題】しかしながら、楽曲に
おいては、例えば図2に示した曲名「さくら  さくら
」の第6小節目にある歌詞「ぎー」のように、音高E4
とC4の音高8分音符に亙ってスラーが付され、1音の
音声「ぎー」が音高の異なる2つの音符に亙って発音さ
れる場合がある。かかる場合、単に音符の音高と音長と
に対応して音声を発生させると、「ぎ」の音声がE4の
音高で8分音符長をもって発生した後、その母音「い」
がC4の音高で8分音符長をもって発生することとなる
。 このため、音高E4とC4間にスラーが存在し音高E4
からC4に連続的に音高を低下させて「ぎー」と発声す
べきにも拘わらず、音高E4の音声「ぎ」と音高C4の
音声「い」とが不連続的に発声することとなり、前記ス
ラーの存在が無視された形態で発音されてしまう。
[Problem to be Solved by the Invention] However, in a song, for example, as in the lyrics "Gee" in the 6th measure of the song title "Sakura Sakura" shown in Figure 2, the pitch is E4.
In some cases, a slur is added over an eighth note of pitch C4, and a single sound, "Gee", is pronounced over two notes of different pitches. In such a case, if you simply generate sounds corresponding to the pitch and length of the notes, the sound of "gi" will be generated with a pitch of E4 and an eighth note length, and then the vowel "i" will be produced with a pitch of E4 and an eighth note length.
will occur with a pitch of C4 and an eighth note length. Therefore, a slur exists between pitches E4 and C4, and pitch E4
Even though the pitch should be lowered continuously from C4 to "gi", the sound "gi" at pitch E4 and the sound "i" at pitch C4 are uttered discontinuously. Therefore, the slur is pronounced in a manner that ignores its existence.

【0004】また、楽曲によっては例えば図4に示した
曲名「かっこう」の第1小節目にある歌詞「かっこう」
のように、4分音符の音高C5に「かっ」の2音声が割
り当てられ、4分音符のA4に「こう」の2音声が割り
当てられている場合、つまり1音符に対して複数の音声
が割り当てられている場合もある。したがって、かかる
場合においては、従来のように音符の音高と音長とに対
応して単一の音声を発生させる単純な音声処理では、歌
詞を再生することがでない。無論、予め歌詞「かっこう
」を、8分音符長であって音高C5の「か」と「っ」、
8分音符長であって音高A4の「こ」「う」の4個の音
声データに分割して記憶させておけば、音符の音高と音
長とに対応して単一の音声を発生させても「かっこう」
なる音声を発生させることが可能となる。しかし、この
ように、楽譜に示される音符より短い音符長に分割して
、これを歌詞と対応して記憶させることは、記憶時の操
作が複雑となってしまう不都合が生ずる。
[0004] Also, depending on the song, for example, the lyrics ``Kakkou'' in the first measure of the song title ``Kakko'' shown in Figure 4 may be
As in, if the pitch C5 of a quarter note is assigned the two sounds "ka", and the pitch A4 of a quarter note is assigned the two sounds "kou", in other words, there are multiple sounds for one note. may be assigned. Therefore, in such a case, it is not possible to reproduce the lyrics using simple audio processing that generates a single voice corresponding to the pitch and duration of the notes as in the past. Of course, I've written the lyrics "kakkou" in advance, with eighth note length and pitch C5, "ka" and "tsu".
If you divide and store the audio data into 4 pieces of ``ko'' and ``u'' that are eighth note length and pitch A4, you can create a single voice corresponding to the pitch and length of the note. Even if it occurs, it's "cool"
This makes it possible to generate a sound. However, dividing the musical score into note lengths shorter than the notes shown on the musical score and storing them in correspondence with the lyrics has the disadvantage that the operation at the time of storage becomes complicated.

【0005】本発明は、このような従来の課題に鑑みて
なされたものであり、楽譜に示されている音符と、該音
符に対応する歌詞をそのままデータとして記憶させた場
合であっても、音声に楽譜の音楽的表現や音符と歌詞と
の対応関係を正確に反映させることを可能にした音声電
子楽器を提供することを目的とするものである。
The present invention has been made in view of such conventional problems, and even when the notes shown on a musical score and the lyrics corresponding to the notes are stored as data, The object of the present invention is to provide an audio electronic musical instrument that allows the musical expression of a musical score and the correspondence between notes and lyrics to be accurately reflected in audio.

【0006】[0006]

【課題を解決するための手段】前記課題を解決するため
に請求項1に記載された発明にあっては、楽曲を構成す
る複数の音符の音高と音長及び各音符に対応する歌詞の
音声データを記憶する記憶手段と、該記憶手段から前記
各音符の音高と音長及び前記音声データを読み出す読み
出し手段と、該読み出し手段により読み出された前記音
高と音長及び音声データに基づいて音声信号を発生する
音声信号発生手段とを備えた音声電子楽器において、1
音声の前記音声データが連続する複数の音符に対応して
記憶されているとき、現時点の音声データに続く次の音
声データに対応する音符の音高を読み出し、前記現時点
の音声データに対応する音符の音高から前記次の音声デ
ータに対応する音符の音高まで、前記音声信号のピッチ
を連続的に変化させるピッチ可変手段が設けられている
[Means for Solving the Problems] In order to solve the above problems, the invention set forth in claim 1 provides information on the pitch and length of a plurality of notes constituting a music piece and the lyrics corresponding to each note. a storage means for storing audio data; a reading means for reading out the pitch and length of each note and the audio data from the storage means; 1. An audio electronic musical instrument comprising: an audio signal generating means for generating an audio signal based on the
When the audio data of audio is stored corresponding to a plurality of consecutive notes, the pitch of the note corresponding to the next audio data following the current audio data is read out, and the pitch of the note corresponding to the audio data at the current time is read out. Pitch variable means is provided for continuously changing the pitch of the audio signal from the pitch of the note corresponding to the next audio data.

【0007】また、請求項2記載の発明にあっては、楽
曲を構成する複数の音符の音高と音長及び各音符に対応
する歌詞の音声データを記憶する記憶手段と、該記憶手
段から前記各音符の音高と音長及び前記音声データを読
み出す読み出し手段と、該読み出し手段により読み出さ
れた前記音高と音長及び音声データに基づいて音声信号
を発生する音声信号発生手段とを備えた音声電子楽器に
おいて、1音符の音高及び音長に対応して複数の音声か
らなる音声データが記憶されているとき、1音声当たり
の音長を算出する算出手段が設けられ、前記音声信号発
生手段は、前記算出手段により算出された音長と前記音
高及び音声データに基づいて前記音声信号を発生するよ
うに構成されている。
The invention according to claim 2 also includes a storage means for storing the pitches and lengths of a plurality of notes constituting a music piece and voice data of lyrics corresponding to each note; reading means for reading the pitch and length of each note and the audio data; and audio signal generating means for generating an audio signal based on the pitch, length and audio data read by the reading means. In the audio electronic musical instrument, when audio data consisting of a plurality of sounds is stored corresponding to the pitch and duration of one note, a calculation means for calculating the duration of each sound is provided, The signal generating means is configured to generate the audio signal based on the tone length, the pitch, and the audio data calculated by the calculating means.

【0008】[0008]

【作用】前記請求項1記載の発明において、1音声の音
声データが連続する複数の音符に対応して記憶されてい
るとき、例えば音声データ「ぎー」が、音高E4であっ
て8分音符の音声データ「ぎ」と、これに連続する音高
C4であって8分音符の長音「ー」とをもって記憶され
ている場合、音声信号を発生させるに際して現時点の音
声データの音高E4のみならず、これに続く音声データ
の音高C4が読み出される。そして、音声データに基づ
く音声信号は、ピッチ可変手段により、E4からC4に
連続的に変化される。したがって、この音声信号を再生
した場合、「ぎー」なる音声が、音高E4からC4に連
続的変化するスラーのかかった音声形態にて発声される
[Operation] In the invention according to claim 1, when the audio data of one voice is stored corresponding to a plurality of consecutive notes, for example, the audio data "Gee" is pitch E4 and is an eighth note. If the sound data "gi" and the continuous pitch C4 and the long eighth note "-" are stored, when generating the sound signal, only the pitch E4 of the current sound data is stored. First, the pitch C4 of the audio data that follows is read out. Then, the audio signal based on the audio data is continuously changed from E4 to C4 by the pitch variable means. Therefore, when this audio signal is reproduced, the sound "Gee" is uttered in a slurred sound form that continuously changes pitch from E4 to C4.

【0009】また、請求項2記載の発明において、1音
符の音高及び音長に対応して複数の音声データが記憶さ
れているとき、例えば歌詞「かっこう」の音声データ「
こう」が4分音符の音長であってA4の音高をもって記
憶されている場合、算出手段は1音声当たりの音長を算
出する。そして、この算出手段により算出された音長と
、前記音高及び音声データに基づき、音声信号発生手段
は音声信号を発生する。したがって、この音声信号を再
生した場合、「こ」と「う」の音声が前記算出された音
長をもって発音される。
Further, in the invention according to claim 2, when a plurality of audio data are stored corresponding to the pitch and duration of one note, for example, the audio data of the lyric "Kakkou""
If "Ko" has a pitch of a quarter note and is stored with a pitch of A4, the calculating means calculates the pitch of each voice. Then, the audio signal generating means generates an audio signal based on the tone length calculated by the calculating means, the pitch, and the audio data. Therefore, when this audio signal is reproduced, the sounds "ko" and "u" are pronounced with the calculated tone length.

【0010】0010

【実施例】以下、本発明の一実施例について図面に従っ
て説明する。すなわち、図1は本実施例の全体構成を示
すブロック図であって、CPU1は後述するシーケンス
データ作成モードにおいては、キーボード2に入力され
たデータを読み取りシーケンスメモリ3に記憶させる処
理等を実行するとともに、シーケンス実行モードにおい
ては、前記シーケンスメモリ3に記憶されたデータに従
ってサウンドジェネレータ4の制御等を実行する。前記
キーボード2には、前記シーケンスデータ作成モードと
シーケンス実行モードとを選択的に設定するためのモー
ド設定キー、楽曲のテンポデータを入力するためのテン
ポ入力キー、さらには、50音、長音、促音のコードを
入力するための音声コード入力キー、複数のアルファベ
ットキーと数値キーとからなる音高入力キー、複数の数
値キーと休符キー(*)からなる音長入力キー、及び入
力終了時に操作される入力終了キー等が設けられている
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. That is, FIG. 1 is a block diagram showing the overall configuration of this embodiment, and the CPU 1 executes processes such as reading data input on the keyboard 2 and storing it in the sequence memory 3 in a sequence data creation mode to be described later. At the same time, in the sequence execution mode, the sound generator 4 is controlled in accordance with the data stored in the sequence memory 3. The keyboard 2 includes a mode setting key for selectively setting the sequence data creation mode and sequence execution mode, a tempo input key for inputting music tempo data, and further includes 50 syllables, long sounds, and consonant sounds. A voice code input key for inputting the code, a pitch input key consisting of multiple alphabet keys and numeric keys, a pitch input key consisting of multiple numeric keys and a rest key (*), and an operation when input is completed. An input end key and the like are provided.

【0011】前記シーケンスメモリ3には、図3及び図
5に示したフォーマットからなる記憶エリアが設けられ
ている。該記憶エリアは、ヘッダー12と、各アドレス
毎に設けられた歌詞データ記憶領域6とメロディデータ
記憶領域9とから構成され、該メロディデータ記憶領域
領域9は、音高データ記憶領域7と音長データ記憶領域
8とから構成されている。前記ヘッダー12には、前記
テンポ入力キーの操作に応じて、1分間の拍数を示す“
72”“138”等のテンポデータが記憶され、前記音
声データ記憶領域6には、「さ」、「く」、「ら」、の
ように単一の音声からなる音声コード、又は「かっ」、
「こう」のように複数の音声からなる音声コードが各ア
ドレスごとに記憶される。また、前記音高データ記憶領
域7にはA4,B4等の音符の音高を示すデータが記憶
され、前記音長データ記憶領域8には、16分音符長を
“1”として音符の音長を示すデータ、つまり4分音符
であれば“4”が、2分音符であれば“8”が、8分音
符であれば“2”が記憶される。
The sequence memory 3 is provided with a storage area having the format shown in FIGS. 3 and 5. The storage area is composed of a header 12, a lyric data storage area 6 and a melody data storage area 9 provided for each address, and the melody data storage area 9 is composed of a pitch data storage area 7 and a pitch data storage area 7. It consists of a data storage area 8. In the header 12, a message indicating the number of beats per minute is displayed according to the operation of the tempo input key.
Tempo data such as ``72'' and ``138'' are stored in the audio data storage area 6, and audio codes consisting of a single voice such as ``sa'', ``ku'', ``ra'', or ``ka'' are stored in the audio data storage area 6. ,
A voice code consisting of a plurality of voices, such as ``ko'', is stored for each address. Further, the pitch data storage area 7 stores data indicating the pitch of notes such as A4 and B4, and the note length data storage area 8 stores the note length with the sixteenth note length as "1". In other words, "4" is stored for a quarter note, "8" is stored for a half note, and "2" is stored for an eighth note.

【0012】一方、音声データメモリ10には、一定の
基準ピッチで発生させた発生音声の50音、促音、長音
等のPCMデータが記憶され、該PCMデータはアタッ
ク部、ループ部、リリース部に分けられて前記サウンド
ジェネレータ4の制御に必要な部分が適宜読み出し可能
となっている。また、同じ音声に対して異なる音域ごと
に異なる複数のPCMデータが記憶され(マルチサンプ
リング)、ホルマントのずれを解消するように構成され
ている。
On the other hand, the audio data memory 10 stores PCM data such as 50 sounds, consonants, long sounds, etc. of generated sounds generated at a constant reference pitch, and the PCM data is stored in the attack section, loop section, and release section. It is divided so that the parts necessary for controlling the sound generator 4 can be read out as appropriate. Further, a plurality of different PCM data are stored for different sound ranges for the same voice (multi-sampling), so as to eliminate formant deviation.

【0013】前記サウンドジェネレータ4は、CPU1
により指定された音声のPCMデータを前記音声データ
メモリ10から読み出して、指定された音高となるよう
にピッチ変換の信号処理を行うとともに、前記アタック
部、ループ部、リリース部の合計の発生時間が、前記音
長データ記憶領域8に記憶された音長データの値に合致
するように前記ループ部の発生を繰り返す音長処理等を
実行する。前記発生時間は、テンポクロック11からの
クロックパルスに基づいて計測され、該テンポクロック
11のパスル出力動作は前記ヘッダー12に記憶された
テンポデータの値に応じてCPU1により制御される。
[0013] The sound generator 4 is connected to the CPU 1
reads out the PCM data of the voice specified by from the voice data memory 10, performs signal processing for pitch conversion so that it becomes the specified pitch, and also performs the total generation time of the attack section, loop section, and release section. executes tone length processing, etc., which repeats generation of the loop portion so as to match the value of the tone length data stored in the tone length data storage area 8. The generation time is measured based on the clock pulse from the tempo clock 11, and the pulse output operation of the tempo clock 11 is controlled by the CPU 1 according to the value of the tempo data stored in the header 12.

【0014】また、前記サウンドジェネレータ4により
ピッチ変換され、かつ、音長処理された音声信号は、発
音部13を介してスピーカ14入力され、該スピーカ1
4により再生されて外部に放音される。
[0014] Furthermore, the audio signal which has been pitch-converted and tone length-processed by the sound generator 4 is inputted to the speaker 14 via the sound generation section 13, and is
4 and output the sound to the outside.

【0015】次に、以上の構成にかかる本実施例の動作
を図6、7、8に示した一連のフローチャートに従って
説明する。このフローチャートは、図示しない電源を投
入することにより実行され、先ず前記キーボード2に設
けられている前記モード設定キーの操作状態に基づき、
モード判定が実行される(ステップ101)。このモー
ド判定において、前記シーケンスデータ作成モードが設
定されている状態にあれば、この音声電子楽器の使用者
が前記テンポ入力キーを操作することにより入力された
テンポデータが、前記シーケンスメモリ3のヘッダー1
2に格納される(ステップ102)。すなわち、図2に
示した楽曲「さくら  さくら」を記憶させる場合には
、当該楽曲のテンポ“72”を図3に示したようにヘッ
ダー12に格納させ、図4に示した楽曲「かっこう」を
記憶させる場合には、当該楽曲のテンポ“138”を図
5に示したようにヘッダー12に格納させるのである。
Next, the operation of this embodiment according to the above configuration will be explained with reference to a series of flowcharts shown in FIGS. 6, 7, and 8. This flowchart is executed by turning on the power (not shown), and first, based on the operating state of the mode setting key provided on the keyboard 2,
Mode determination is performed (step 101). In this mode determination, if the sequence data creation mode is set, the tempo data input by the user of this audio electronic musical instrument by operating the tempo input key is stored in the header of the sequence memory 3. 1
2 (step 102). That is, when storing the song "Sakura Sakura" shown in FIG. 2, the tempo "72" of the song is stored in the header 12 as shown in FIG. 3, and the song "Cuckoo" shown in FIG. When storing the music, the tempo "138" of the song is stored in the header 12 as shown in FIG.

【0016】次に、キーボード2に設けられている前記
音声コード入力キーの操作により1音符当たりの音声コ
ードが入力される(ステップ103)。すなわち、図2
に示した楽曲の歌詞の1音符当たりの音声「さ」、「く
」、「ら」・・・が、対応する前記音声コード入力キー
の操作により入力され、また、図4に示した楽曲の1,
2小節目の1,2拍目のように、1音符当たり「かっ」
、「こう」の2音声が割り当てられている場合には、2
音声が前記音声コード入力キーの操作により入力される
Next, the voice code for each note is input by operating the voice code input key provided on the keyboard 2 (step 103). That is, Figure 2
The sounds "sa", "ku", "ra", etc. per note of the lyrics of the song shown in FIG. 1,
Like the 1st and 2nd beats of the 2nd measure, each note has a ``ka'' sound.
, if 2 voices of "Kou" are assigned, 2
Voice is input by operating the voice code input key.

【0017】引き続き、歌詞=“*”であるか否かが判
別される(ステップ104)。すなわち、図4に示した
楽曲の1小節目及び2小節目の3拍目のように、メロデ
ィが休符であって当該拍に歌詞が不存在である場合には
、楽器使用者は前記キーボード2に設けられている休符
キー(*)を操作することが必要であり、この休符キー
(*)の操作の有無がステップ104にて判別されるの
である。この休符キー(*)が操作された場合には、ス
テップ104の判別はYESとなり、休符長が16部音
符長をもって入力される(ステップ105)。したがっ
て、図4に示した楽曲の1、2小節の3拍目のように、
4分休符であれば“4”が数値キーの操作により休符長
として入力される。
Subsequently, it is determined whether the lyrics = "*" (step 104). That is, when the melody is a rest and there are no lyrics on the beats, as in the third beat of the first and second bars of the song shown in FIG. It is necessary to operate the rest key (*) provided at 2, and it is determined in step 104 whether or not this rest key (*) has been operated. If the rest key (*) is operated, the determination at step 104 becomes YES, and the rest length is input as a 16th note length (step 105). Therefore, like the 3rd beat of the 1st and 2nd measures of the song shown in Figure 4,
If it is a quarter rest, "4" is input as the rest length by operating the numerical keys.

【0018】一方、ステップ104の判別がNOであっ
てメロディを構成する音符が存在する場合には、該メロ
ディを構成する音符の音高、音長が前記キーボード2に
設けられている複数のアルファベットキーと数値キーと
からなる音高入力キー、及び複数の数値キーからなる音
長入力キーの操作により入力される(ステップ105)
。そして、ステップ105またはステップ106に続く
ステップ107においては、前記各キー操作により入力
されたデータがシーケンスメモリ3に格納され、入力終
了キーが操作されてステップ108の判別がYESとな
るまで、ステップ103からステップ108のループが
繰り返される。したがって、この間、楽器使用者が「“
さ”“A4”“4”」、「“く”“A4”“4”」とい
うように、楽曲「さくら  さくら」の1音符当たりの
音声コード、音高、音長の入力を、楽曲全体に亙って行
うと、この楽曲全体の歌詞とメロディの音高及び音高が
シーケンスメモリ3に記憶される。
On the other hand, if the determination in step 104 is NO and there are notes constituting the melody, the pitch and length of the notes constituting the melody are determined by a plurality of alphabets provided on the keyboard 2. Input is made by operating a pitch input key consisting of a key and a numeric key, and a pitch input key consisting of a plurality of numeric keys (step 105).
. Then, in step 107 following step 105 or step 106, the data input by each key operation is stored in the sequence memory 3, and until the input end key is operated and the determination in step 108 becomes YES, step 103 The loop from step 108 is repeated. Therefore, during this period, instrument users ““
Enter the audio code, pitch, and length of each note of the song "Sakura Sakura" for the entire song, such as "Sa""A4""4" and "ku""A4""4". Once this is done, the lyrics and pitch of the melody of the entire song are stored in the sequence memory 3.

【0019】このとき、例えば6小節目であって2拍目
の歌詞「ぎー」に対応する部分のように、1音声がスラ
ーが付された2個の連続する8分音符に亙る場合には、
キー操作により「“ぎ”“E4”“2”」、「“ー”“
C4””2”」と入力することにより、図3に示したよ
うに各音符に対応して音声コード、音高及音長が記憶さ
れる。また、図4に示した楽曲の1,2小節目であって
1,2拍目の「かっ」「こう」に対応する部分のように
、2音声が1個の4部音符に対応する場合には、キー操
作により「“かっ”“C4”“4”」、「“こう”“A
4”“4”」と入力することにより、図5に示したよう
に各音符に対応して音声コード、音高及び音長が記憶さ
れる。
[0019] At this time, if one voice spans two consecutive eighth notes with a slur, for example, in the 6th measure and the part corresponding to the second beat of the lyrics "Gee", ,
By key operation, “G”, “E4”, “2”, “-”, “
By inputting "C4""2"", the voice code, pitch and length are stored in correspondence with each note as shown in FIG. In addition, when two voices correspond to one quadrupty note, as in the part corresponding to "ka" and "kou" on the first and second beats in the 1st and 2nd bars of the song shown in Figure 4. ``Ka''``C4''``4'',``Kou''``A''
By inputting ``4'', the voice code, pitch, and length are stored in association with each note as shown in FIG.

【0020】そして、いずれかの楽曲の音声コード、音
高及び音長を全て入力し終えた後、入力終了キーを操作
すると、ステップ108の判別はYESとなって、ステ
ップ101にリターンする。したがって、この状態で前
記キーボード2に設けられているシーケンス実行キーを
操作して、シーケンス実行モードを設定すると、ステッ
プ101からステップ109(図7)に進み、前記シー
ケンスメモリ3のヘッダー12に記憶されているテンポ
データがテンポクロック11に設定される。引き続き、
このテンポクロック11に設定されたテンポにて、前記
シーケンスメモリ4に記憶された歌詞データとメロディ
データ(音高、音長)とからなるシーケンスデータが、
先頭アドレスから順次読み出される(ステップ110)
。つまり、図3に示したシーケンスデータがシーケンス
メモリ3に記憶されているとすると、「さ  A4  
4」、「く  A4  4」、・・・が、順次テンポ“
72”の速度をもって読み出される。
[0020] When the input end key is operated after inputting all the audio codes, pitches, and durations of one of the songs, the determination in step 108 becomes YES, and the process returns to step 101. Therefore, in this state, if the sequence execution key provided on the keyboard 2 is operated to set the sequence execution mode, the process proceeds from step 101 to step 109 (FIG. 7), and the data is stored in the header 12 of the sequence memory 3. The current tempo data is set in the tempo clock 11. continuation,
At the tempo set in the tempo clock 11, the sequence data consisting of lyrics data and melody data (pitch, length) stored in the sequence memory 4 is
They are read out sequentially from the first address (step 110)
. In other words, if the sequence data shown in FIG. 3 is stored in the sequence memory 3,
4", "ku A4 4", ... are sequentially changed to the tempo "
It is read out at a speed of 72".

【0021】次に、この読み出され歌詞コードが休符コ
ード(*)であるか否かが判別され(ステップ111)
、この判別がYESであって図5に示した3番目及び6
番目アドレスのシーケンスデータ「*  *  4」の
ように休符コードである場合には、このシーケンスデー
タの休符長が“4”が取り出されて休符処理が実行され
る(ステップ112)。ここで、休符処理とは、単にサ
ウンドジェネレータ4に発音指示をしない処理であって
、よって、この間スピーカ14からの音声は停止される
Next, it is determined whether or not the read lyrics code is a rest code (*) (step 111).
, this determination is YES, and the third and sixth shown in FIG.
If the sequence data at the th address is a rest code such as "* * 4", the rest length "4" of this sequence data is extracted and rest processing is executed (step 112). Here, the rest process is simply a process that does not instruct the sound generator 4 to produce sound, and therefore, the sound from the speaker 14 is stopped during this time.

【0022】一方、ステップ111の判別がNOであっ
て、読み出されたシーケンスデータが休符コード以外の
音声コードであった場合には、この読み出されたシーケ
ンスデータに含まれる歌詞データが複数音声であるか否
かが判別される(ステップ113)。この判別がNOで
あって、歌詞データが「さ」、「く」、「ら」のように
、単数音声であれば、音高データに従いアタック部が発
音される(ステップ114)。これにより、スピーカ1
4からは「さ」あるいは「く」等の当該時点の歌詞デー
タに対応する音声が、音高データに従った音高にて放音
開始される。
On the other hand, if the determination in step 111 is NO and the read sequence data is a voice code other than a rest code, then the read sequence data contains a plurality of lyrics data. It is determined whether it is a voice or not (step 113). If this determination is NO and the lyrics data is a singular sound such as "sa", "ku", or "ra", an attack part is sounded according to the pitch data (step 114). As a result, speaker 1
From 4 onwards, the sound corresponding to the lyric data at the time, such as "sa" or "ku", starts to be emitted at a pitch according to the pitch data.

【0023】引き続き、音長データによりループ時間が
算出された後(ステップ115)、音高データに従いル
ープ部が前のステップで算出されたループ時間だけ発音
され(ステップ116)、これにより例えば前記「さ」
の母音が前記ループ時間をもって持続的に発音され続け
る。さらに、続くステップ117においては、次の音声
データが先読みされる。つまり、現時点の音声データが
図3の示したシーケンスデータの先頭アドレスに記憶さ
れている「さ」であったとすると、次のアドレスの音声
データ「く」が先読みされるのである。引き続き、この
先読みされた音声データが、引きのばしコード“ー”で
あるか否かが判別され(ステップ118)、前記音声デ
ータが「く」であれば、この判別はNOとなることから
ステップ119に進み、音高データに従いリリース部を
発声させ、これによりスピーカ14から放音されている
音声は減衰する。そして、このステップ119の処理が
実行された後、ステップ110からの判別処理が繰り返
され、これにより、例えば楽曲「さくら  さくら」の
歌詞を構成する音声が順次、対応する音符の音高と音長
とをもって発声される。
Subsequently, after the loop time is calculated based on the note length data (step 115), the loop part is sounded for the loop time calculated in the previous step according to the note pitch data (step 116). difference"
The vowel continues to be pronounced continuously for the loop time. Furthermore, in the following step 117, the next audio data is prefetched. In other words, if the current voice data is "sa" stored at the first address of the sequence data shown in FIG. 3, the voice data "ku" at the next address is read in advance. Subsequently, it is determined whether or not this prefetched audio data is the extension code "-" (step 118). If the audio data is "ku", this determination is NO, so step 119 is performed. Then, the release section is made to emit a sound in accordance with the pitch data, thereby attenuating the sound being emitted from the speaker 14. After the process of step 119 is executed, the discrimination process from step 110 is repeated, and as a result, for example, the sounds that make up the lyrics of the song "Sakura Sakura" are sequentially divided into pitches and lengths of the corresponding notes. It is uttered with.

【0024】このとき、前記楽曲において、6小節目で
あって2拍目の歌詞「ぎ」が発声された状態となると、
ステップ117で次の音声データが読み出された際、該
次の音声データは引きのばしコード“ー”となり、よっ
て、ステップ118の判別はYESとなる。したがって
、ステップ118からステップ120に進み、次の音長
、音高データが取り出される。つまり図3に※を付した
「ー  C42」において、その音高データ「C4」と
音長データ「2」とが取り出されるのである。
[0024] At this time, when the lyric "gi" is uttered at the 6th measure and the 2nd beat of the song,
When the next audio data is read out in step 117, the next audio data becomes the extended code "-", so the determination in step 118 becomes YES. Therefore, the process proceeds from step 118 to step 120, and the next note length and pitch data are extracted. In other words, for "-C42" marked with * in FIG. 3, the pitch data "C4" and the pitch data "2" are extracted.

【0025】さらに、現在までのループ部を発音しつつ
、次の音高データに従い、今の音高がピッチベンドされ
る(ステップ121)。つまり、現在までのループ部で
ある「ぎ」のループ部を発音しつつ、次の“ー”の音高
データであるC4に従い、前記「ぎ」の音高であるE4
がC4までピッチベンドされ、しかる後に、前述したス
テップ115以降の処理が実行される。これにより、「
ぎー」の発音過程において、その音程はE4からC4に
徐々に低下し、E4とC4とにスラーがかかった発音形
態を形成することができる。したがって、図2に示した
楽曲において、6小節目の歌詞はE4,E4,C4,D
3の音高であってかつ、E4とC4にスラーがかかった
「かぎーり」と発音され、前記スラーの存在が無視され
ることなく、楽譜と一致した音声を発生させることが可
能となる。
Furthermore, the current pitch is pitch bent in accordance with the next pitch data while the loop section up to the present is being sounded (step 121). In other words, while sounding the loop part of "gi" which is the loop part up to now, according to C4 which is the pitch data of the next "-", E4 which is the pitch of said "gi"
is pitch bent to C4, and then the processing from step 115 described above is executed. This will result in "
In the pronunciation process of "Gee", the pitch gradually decreases from E4 to C4, creating a pronunciation form in which E4 and C4 are slurred. Therefore, in the song shown in Figure 2, the lyrics in the 6th measure are E4, E4, C4, D
It is pronounced as "Kagi-ri" with a pitch of 3 and a slur on E4 and C4, and it is possible to generate a sound that matches the musical score without ignoring the presence of the slur. .

【0026】他方、図5に示したシーケンスデータの先
頭アドレスやその次のアドレスに記憶された歌詞データ
「かっ」、「こう」のように、歌詞データが複数音声で
ある場合には、ステップ113の判別はNOとなり、該
ステップ113からステップ122(図8)に進み、音
長と発生音声数により各音声の音長が算出される。この
音長の算出は、前記発生発音数により音長を除すること
により行われ、例えば前記「こう」は発生発音数が“2
”であって、音長が図5に示したように“4”であるこ
とから、各音声「こ」と「う」の音長は各々“2”とな
る。しががって、次のステップ123にて1音声につい
てシーケンスデータを生成すると、音声「こ」に関して
は、「こ  A4  2」からなるシーケンスデータが
生成される。
On the other hand, if the lyrics data includes multiple voices, such as the lyrics data "ka" and "kou" stored at the first address and the next address of the sequence data shown in FIG. The determination is NO, and the process proceeds from step 113 to step 122 (FIG. 8), where the sound length of each voice is calculated from the sound length and the number of generated voices. This calculation of the tone length is performed by dividing the tone length by the number of generated pronunciations.
”, and the tone length is “4” as shown in FIG. 5, so the tone lengths of the sounds “ko” and “u” are each “2”. Therefore, when sequence data is generated for one voice in the next step 123, sequence data consisting of "ko A4 2" is generated for the voice "ko".

【0027】そして、次のステップ124においては、
先ず「こ  A4  2」のシーケンスデータにおける
音長“2”によりループ時間が算出され、さらに音高デ
ータ、ループ時間に従いアタック、ループ、リリース各
部が発音される(ステップ125)。さらに、発生発音
データが終わりか否か、つまり複数の発生発音データの
全てについて発音が完了したか否かが判別される(ステ
ップ126)。この例においては現時点で「こ」の発音
が未だ完了していないことから、この判別はNOとなり
再度ステップ123からの処理が実行され、該ステップ
123において残る1音声「こ」についてのシーケンス
データ「こ  A4  2」が生成される。そして、引
き続き前述したステップ124、125の処理が実行さ
れ、これにより「こ」の音声が音高A4であって、音長
“2”をもって発声される。無論、「かっ」についても
同様であって、「か  C5  2」と「っ  C5 
 2」のシーケンスデータが生成されて、各々の発音が
音高C5、音長“2”をもって発音される。
[0027] In the next step 124,
First, the loop time is calculated based on the note length "2" in the sequence data of "Ko A4 2", and then the attack, loop, and release parts are sounded according to the pitch data and the loop time (step 125). Furthermore, it is determined whether or not the generated sound data has ended, that is, whether or not the sound generation of all of the plurality of generated sound data has been completed (step 126). In this example, since the pronunciation of "ko" has not been completed yet, this determination is NO, and the process from step 123 is executed again, and in step 123, the sequence data for the remaining one sound "ko" is ""A42" is generated. Subsequently, the processes of steps 124 and 125 described above are executed, whereby the voice "ko" is uttered with pitch A4 and pitch length "2". Of course, the same goes for "Ka", "Ka C5 2" and "っ C5".
2'' sequence data is generated, and each pronunciation is pronounced with pitch C5 and tone length "2".

【0028】したがって、前述したシーケンスデータ作
成モードにおいて、歌詞「かっこう」を、8分音符長で
あって音高C5の「か」と「っ」、8分音符長であって
音高A4の「こ」「う」の4個の音声データに分割して
記憶させておく必要はなく、楽譜どおりに各々4分音符
に対応させて、「かっ」「こう」の歌詞を記憶させた場
合であっても、楽譜に従って正確に「かっこう」なる音
声を発生させることが可能となる。
Therefore, in the above-described sequence data creation mode, the lyrics ``Kakko'' are changed to ``ka'' and ``tsu'', which are eighth note length and pitch C5, and ``ka'' and ``tsu'', which are eighth note length and pitch A4. There is no need to divide and store the audio data into four pieces, ``ko'' and ``u,'' but instead store the lyrics for ``ka'' and ``kou,'' each corresponding to a quarter note according to the score. It is now possible to accurately generate a "cuckoo" sound according to the musical score.

【0029】そして、各発声発音データについての発声
が終了すると、ステップ126の判別がYESとなり、
再度ステップ110のからの処理判別により、次のシー
ケンスデータが読み出されて、歌詞及び楽譜の音高及び
音長に対応した音声の発声がなされるのである。
[0029] When the utterance of each utterance pronunciation data is completed, the determination in step 126 becomes YES.
By the process determination from step 110 again, the next sequence data is read out, and a voice corresponding to the pitch and length of the lyrics and musical score is uttered.

【0030】[0030]

【発明の効果】以上説明したように本発明は、1音声の
音声データが連続する複数の音符に対応して記憶されて
いるときには、現時点の音声データに続く次の音声デー
タの音高を読み出し、前記現時点の音声データの音高か
ら前記次の音声データの音高まで、前記音声信号のピッ
チを連続的に変化させるようにした。よって、1音声を
音高の異なる複数の音符に対応させてスラーがかかった
発音形態にて、発声させることができ、これにより前記
複数の音符に付されているスラーの存在を無視すること
なく、楽譜と一致した音声を発生させることが可能とな
る。
As explained above, when the audio data of one voice is stored in correspondence with a plurality of consecutive notes, the present invention reads out the pitch of the next audio data following the current audio data. The pitch of the audio signal is continuously changed from the pitch of the current audio data to the pitch of the next audio data. Therefore, it is possible to make one sound correspond to multiple notes of different pitches and produce the sound in a pronunciation form with slurs, without ignoring the presence of slurs attached to the multiple notes. , it becomes possible to generate audio that matches the musical score.

【0031】また、1音符の音高及び音長に対応して複
数の音声からなる音声データが記憶されているときには
、1音声当たりの音長を算出し、この算出した音長と音
高及び音声データに基づいて前記音声信号を発生するよ
うにした。よって、1音符に複数の音声が割り当てられ
ている場合において、楽譜どおりに各々音符に対応させ
て、複数の音声データを記憶させておけば、楽譜に従っ
て正確に音声を発生させることが可能となる。よって、
両発明とも楽譜に示されている音符と、該音符に対応す
る歌詞をそのままデータとして記憶させる単純操作によ
り、楽譜の音楽的表現や音符と歌詞との対応関係を精度
よく音声に反映させることが可能となる。
[0031] Furthermore, when audio data consisting of a plurality of sounds is stored corresponding to the pitch and duration of one note, the duration of each sound is calculated, and the calculated duration, pitch, and The audio signal is generated based on audio data. Therefore, when multiple voices are assigned to one note, if multiple voices are stored in correspondence with each note according to the musical score, it becomes possible to generate the voice accurately according to the musical score. . Therefore,
Both inventions allow the musical expression of the score and the correspondence between the notes and the lyrics to be accurately reflected in the audio by simply storing the notes shown on the score and the lyrics corresponding to the notes as data. It becomes possible.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】本発明の一実施例の全体構造を示すブロック図
である。
FIG. 1 is a block diagram showing the overall structure of an embodiment of the present invention.

【図2】楽曲の一例を示す譜面図である。FIG. 2 is a musical score diagram showing an example of a song.

【図3】図3に示した楽曲のシーケンスデータの内容を
示す説明図である。
FIG. 3 is an explanatory diagram showing the contents of sequence data of the music shown in FIG. 3;

【図4】楽曲の一例を示す譜面図である。FIG. 4 is a musical score diagram showing an example of a song.

【図5】図4に示した楽曲のシーケンスデータの内容を
示す説明図である。
FIG. 5 is an explanatory diagram showing the contents of sequence data of the music shown in FIG. 4;

【図6】本実施例の動作を示すフローチャートである。FIG. 6 is a flowchart showing the operation of this embodiment.

【図7】図6に続くフローチャートである。FIG. 7 is a flowchart following FIG. 6;

【図8】図7に続くフローチャートである。FIG. 8 is a flowchart following FIG. 7;

【符号の説明】[Explanation of symbols]

1    CPU 2    キーボード 3    シーケンスメモリ 4    サウンドジェネレータ 6    歌詞データ記憶領域 7    音声データ記憶領域 8    音長データ記憶領域 9    メロディデータ記憶領域 1 CPU 2 Keyboard 3 Sequence memory 4 Sound generator 6 Lyrics data storage area 7 Audio data storage area 8. Tone length data storage area 9 Melody data storage area

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】  楽曲を構成する複数の音符の音高と音
長及び各音符に対応する歌詞の音声データを記憶する記
憶手段と、該記憶手段から前記各音符の音高と音長及び
前記音声データを読み出す読み出し手段と、該読み出し
手段により読み出された前記音高と音長及び音声データ
に基づいて音声信号を発生する音声信号発生手段とを備
えた音声電子楽器において、1音声の音声データが連続
する複数の音符に対応して記憶されているとき、現時点
の音声データに続く次の音声データに対応する音符の音
高を読み出し、前記現時点の音声データに対応する音符
の音高から前記次の音声データに対応する音符の音高ま
で、前記音声信号のピッチを連続的に変化させるピッチ
可変手段が設けられたことを特徴とする音声電子楽器。
1. Storage means for storing the pitches and lengths of a plurality of notes constituting a music piece and voice data of lyrics corresponding to each note; An audio electronic musical instrument comprising a reading means for reading audio data, and an audio signal generating means for generating an audio signal based on the pitch, duration, and audio data read by the reading means. When data is stored corresponding to a plurality of consecutive notes, the pitch of the note corresponding to the next audio data following the current audio data is read out, and the pitch of the note corresponding to the audio data at the current time is read out. An audio electronic musical instrument characterized in that a pitch variable means is provided for continuously changing the pitch of the audio signal at the pitch of a note corresponding to the next audio data.
【請求項2】  楽曲を構成する複数の音符の音高と音
長及び各音符に対応する歌詞の音声データを記憶する記
憶手段と、該記憶手段から前記各音符の音高と音長及び
前記音声データを読み出す読み出し手段と、該読み出し
手段により読み出された前記音高と音長及び音声データ
に基づいて音声信号を発生する音声信号発生手段とを備
えた音声電子楽器において、1音符の音高及び音長に対
応して複数の音声からなる音声データが記憶されている
とき、1音声当たりの音長を算出する算出手段が設けら
れ、前記音声信号発生手段は、前記算出手段により算出
された音長と前記音高及び音声データに基づいて前記音
声信号を発生することを特徴とする音声電子楽器。
2. Storage means for storing the pitches and lengths of a plurality of notes constituting a music piece and audio data of lyrics corresponding to each note; An audio electronic musical instrument comprising a reading means for reading out audio data, and an audio signal generating means for generating an audio signal based on the pitch, duration and audio data read by the reading means. When audio data consisting of a plurality of voices corresponding to pitch and note length is stored, calculation means for calculating the note length per one voice is provided, and the audio signal generating means is configured to calculate the note length per voice. An audio electronic musical instrument, characterized in that the audio signal is generated based on the tone length, the pitch, and the audio data.
JP3131826A 1991-05-07 1991-05-07 Voice electronic musical instrument Pending JPH04331990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3131826A JPH04331990A (en) 1991-05-07 1991-05-07 Voice electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3131826A JPH04331990A (en) 1991-05-07 1991-05-07 Voice electronic musical instrument

Publications (1)

Publication Number Publication Date
JPH04331990A true JPH04331990A (en) 1992-11-19

Family

ID=15067008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3131826A Pending JPH04331990A (en) 1991-05-07 1991-05-07 Voice electronic musical instrument

Country Status (1)

Country Link
JP (1) JPH04331990A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160991A (en) * 1994-12-06 1996-06-21 Matsushita Electric Ind Co Ltd Method for generating speech element piece, and method and device for speech synthesis
JP2006119674A (en) * 2006-01-30 2006-05-11 Yamaha Corp Singing composition method and system, and recording medium
JP2008233930A (en) * 2008-05-22 2008-10-02 Yamaha Corp Audio data processing apparatus and medium with program recorded therein
JP2015194779A (en) * 2015-08-05 2015-11-05 ヤマハ株式会社 Singing synthesis control unit and singing synthesizer

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160991A (en) * 1994-12-06 1996-06-21 Matsushita Electric Ind Co Ltd Method for generating speech element piece, and method and device for speech synthesis
JP2006119674A (en) * 2006-01-30 2006-05-11 Yamaha Corp Singing composition method and system, and recording medium
JP4631726B2 (en) * 2006-01-30 2011-02-16 ヤマハ株式会社 Singing composition apparatus and recording medium
JP2008233930A (en) * 2008-05-22 2008-10-02 Yamaha Corp Audio data processing apparatus and medium with program recorded therein
JP2015194779A (en) * 2015-08-05 2015-11-05 ヤマハ株式会社 Singing synthesis control unit and singing synthesizer

Similar Documents

Publication Publication Date Title
JP3144273B2 (en) Automatic singing device
JP3718919B2 (en) Karaoke equipment
CN110390923B (en) Electronic musical instrument, control method of electronic musical instrument, and storage medium
CN110390922B (en) Electronic musical instrument, control method for electronic musical instrument, and storage medium
JP2800465B2 (en) Electronic musical instrument
JP3116937B2 (en) Karaoke equipment
JPH04331990A (en) Voice electronic musical instrument
JPH11126083A (en) Karaoke reproducer
WO2020217801A1 (en) Audio information playback method and device, audio information generation method and device, and program
JP6766935B2 (en) Electronic musical instruments, control methods for electronic musical instruments, and programs
JPH01288900A (en) Singing voice accompanying device
JP3265995B2 (en) Singing voice synthesis apparatus and method
JPS6335038B2 (en)
JP4449370B2 (en) Automatic accompaniment generator and program
JP2904045B2 (en) Karaoke equipment
JP3963141B2 (en) SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING SINGE SYNTHESIS PROGRAM
JP3173310B2 (en) Harmony generator
JP7276292B2 (en) Electronic musical instrument, electronic musical instrument control method, and program
JPH04274297A (en) Automatic musical performance device
WO2022190502A1 (en) Sound generation device, control method therefor, program, and electronic musical instrument
EP0396141A2 (en) System for and method of synthesizing singing in real time
JPS6155679B2 (en)
JP2623175B2 (en) Automatic performance device
JP4619495B2 (en) Automatic accompaniment apparatus and automatic accompaniment method
JPWO2022190502A5 (en)