JPS6183599A - Singing voice synthesizer/performer - Google Patents

Singing voice synthesizer/performer

Info

Publication number
JPS6183599A
JPS6183599A JP59204792A JP20479284A JPS6183599A JP S6183599 A JPS6183599 A JP S6183599A JP 59204792 A JP59204792 A JP 59204792A JP 20479284 A JP20479284 A JP 20479284A JP S6183599 A JPS6183599 A JP S6183599A
Authority
JP
Japan
Prior art keywords
data
synthesizer
pitch
character
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59204792A
Other languages
Japanese (ja)
Other versions
JPH0812560B2 (en
Inventor
美昭 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP59204792A priority Critical patent/JPH0812560B2/en
Publication of JPS6183599A publication Critical patent/JPS6183599A/en
Publication of JPH0812560B2 publication Critical patent/JPH0812560B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は歌声合成演奏装置に係り、特に2つのシンセサ
イザのうち一方のシンセサイザから楽器音を発生させ、
かつ、他方のシンセサイザから歌声音を発生させる装置
に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a singing voice synthesis performance device, and in particular generates musical instrument sounds from one of two synthesizers.
The present invention also relates to a device for generating singing voice sounds from the other synthesizer.

従来の技術及びその問題点 従来より、鍵盤電子楽器において、押切鍵の音高に対応
した音高で人声に似た音(歌声音)を発生させる歌声音
発生装置が知られている(例えば、特開昭55−777
99号など)。しかるに、従来の歌声音発生装置は伴奏
音をききながら、操作者が所望の歌詞をつけ、それを歌
声音として発生させるような使い方はできなかった。
BACKGROUND TECHNOLOGIES AND THEIR PROBLEMS Conventionally, in electronic keyboard musical instruments, there have been known singing sound generators that generate a sound similar to a human voice (singing sound) at a pitch corresponding to the pitch of a pressed key (e.g. , Japanese Patent Publication No. 55-777
99 etc.). However, conventional singing sound generating devices cannot be used in such a way that an operator can add desired lyrics while listening to accompaniment sounds, and then generate the lyrics as a singing sound.

そこで、本発明は2つのシンセサイザを用い、そのうち
の一方を歌声音用、e方を楽器音用とし、かつ、予め定
められた楽器音を発生しつつ、画像入力部により歌詞デ
ータとして入力してそれを歌声音として発生することに
より、上記の問題点を解決した歌声合成演奏装置を提供
するこ“とを目的とする。
Therefore, the present invention uses two synthesizers, one for singing voice sounds and the other for musical instrument sounds, and while generating predetermined musical instrument sounds, the image input section inputs lyrics data. The object of the present invention is to provide a singing voice synthesis performance device that solves the above problems by generating singing voice sounds.

問題点を解決するための手段 本発明になる歌声合成演奏装置は、文字データを入力す
る文字データ入力部と特定の規格の予め定めら机だ楽譜
データを入力する楽譜データ入力部と、この楽譜データ
を順次出力する第1のデータ転送手段と、テーブル作成
手段、ピッチパラメータ変換手段2含成パラメータ作成
手段、データ変換手段、第2のデータ転送手段、データ
保存手段、第1及び第2のシンセサイザ、及びインター
フェース手段とよりなる。上記テーブル作成手段は前記
文字データを子音と母音を単位とするパラメータに分解
して第1のテーブルを作成する。また、上記ピッチパラ
メータ変換手段は、前記入力楽譜データの中の音階デー
タに従ってピッチパラメータに変換する。
Means for Solving the Problems The singing voice synthesis performance device according to the present invention includes a character data input section for inputting character data, a score data input section for inputting predetermined musical score data of a specific standard, and a musical score data input section for inputting predetermined musical score data of a specific standard. A first data transfer means for sequentially outputting data, a table creation means, a pitch parameter conversion means 2, a parameter creation means, a data conversion means, a second data transfer means, a data storage means, and first and second synthesizers. , and interface means. The table creation means creates a first table by decomposing the character data into parameters having consonants and vowels as units. Further, the pitch parameter conversion means converts the pitch parameter into a pitch parameter according to the scale data in the input musical score data.

また、上記合成パラメータ作成手段は上記第1のテーブ
ルに従ってメモリから読み出したホルマントパラメータ
に、上記ピッチパラメータを組み合わせて編集及び補間
された合成パラメータを生成すると共に上記楽譜データ
の中の音洒データに従って時間長テーブルを作成し、そ
れらを一時記憶する。前記データ変換手段により合成パ
ラメータは特定の規格のデータに変換された後、前記保
存手段によって保存される一方、前記第2のデータ転送
手段により複数のホルマント周波数に関するデータを転
送し、かつ、ピッチパラメータに関するピッチ周波数デ
ータを母音部発声期間中のみ前記時間長テーブルに基づ
く期間発生出力された後、前記インターフェース手段に
よって前記第2のシンセサイザ内の複数個の可変周波数
発振器に制御信号として別々に供給される。更に上記イ
ンターフェース手段は、前記第1のデータ転送手段の出
力転送データを前記第1のシンセサイザへ複数個の可変
周波数発振器の制御信号として夫々供給する。
Further, the synthesis parameter creation means generates an edited and interpolated synthesis parameter by combining the pitch parameter with the formant parameter read from the memory according to the first table, and also generates an edited and interpolated synthesis parameter according to the syllable data in the musical score data. Create long tables and temporarily store them. After the synthesis parameters are converted into data of a specific standard by the data conversion means, they are stored by the storage means, while data regarding a plurality of formant frequencies are transferred by the second data transfer means, and the pitch parameters are Pitch frequency data related to the vowel part is generated and output for a period based on the time length table only during the vowel part utterance period, and is then separately supplied as a control signal to the plurality of variable frequency oscillators in the second synthesizer by the interface means. . Further, the interface means supplies the output transfer data of the first data transfer means to the first synthesizer as control signals for the plurality of variable frequency oscillators, respectively.

作用 114記第1のシンセサイザは予め定められた前記楽譜
データに基づいて楽器音を一定速度で発音再生する。こ
机に対して、前記第2のシンセサイザは、文字データ入
力部により入力された文字データ(音声文字列データ)
が示す文字の子音と母音とを単位とするパラメータに変
換された後、前記楽譜データの中の音階データと、音価
データとを用いて前記合成パラメータに変換され、それ
が実質的に第2のシンセサイザへ供給される。このため
、第2のシンセサイザは前記楽譜データに基づいた音の
高さ、長さ2強さで、かつ、前記文字データ入力部によ
り入力された所望の文字の人声音、すなわち歌声音を発
音する。従って、前記第1のシンセサイザは予め定めら
れた楽譜データによる楽器音を発音し、前記第2のシン
セサイザは使用者の意図に基づく任意の歌詞の歌声音を
発音することになる。以下、本発明について実施例と共
に図面を参照しつつ更に詳細に説明する。
Operation 114: The first synthesizer reproduces musical instrument sounds at a constant speed based on the predetermined musical score data. For this desk, the second synthesizer inputs character data (voice character string data) input through the character data input section.
is converted into a parameter whose unit is the consonant and vowel of the character indicated by , and then converted into the synthesis parameter using the scale data and note value data in the musical score data, which is essentially the second is supplied to the synthesizer. Therefore, the second synthesizer produces a human voice sound, that is, a singing voice sound, with the pitch, length, and strength based on the musical score data, and of the desired character input by the character data input section. . Therefore, the first synthesizer produces musical instrument sounds according to predetermined musical score data, and the second synthesizer produces vocal sounds of arbitrary lyrics based on the user's intention. Hereinafter, the present invention will be described in more detail with reference to embodiments and drawings.

実施例 第1図は本発明装置の一実施例のブロック系統図を示す
。同図中、画像入力部1は歌詞となるべき文字列を使用
者の意図に応じて任資に入力するための文字データ入力
部で、例えば第2図に示す如く、ひらがなが50音順で
配列されたタブレット1つと、このタブレット1つ中の
一文字を任意に選択するライトベン20とよりなる。ラ
イトベン20は螢光スクリーン上のタブレット1つより
の光を充電変換して(9た電気信号(文字画像データ)
を中央処理装置(CPU)2へ供給する。CPU2はラ
ンダム・アクセス・メモリ(RAM>3、リード・オン
リ・メモリ(ROM>4及びI/○(入出力)インター
フェース5と夫々双方向性バスを介して接続されている
。RAM3はCPU2のデータストア用及び作業用のメ
モリ回路で、ROM 4はCPU2の制御プログラムが
格納されているメモリ回路である。
Embodiment FIG. 1 shows a block system diagram of an embodiment of the apparatus of the present invention. In the figure, an image input unit 1 is a character data input unit for inputting character strings to be lyrics into a text according to the user's intention. It consists of one arranged tablet and a light ben 20 that arbitrarily selects one character on this tablet. Light Ben 20 charges and converts the light from a single tablet on a fluorescent screen into electrical signals (character image data).
is supplied to the central processing unit (CPU) 2. The CPU 2 is connected to a random access memory (RAM>3, a read-only memory (ROM>4) and an I/O (input/output) interface 5 via bidirectional buses, respectively.The RAM 3 stores data of the CPU 2. The ROM 4 is a memory circuit for storing and working, and stores a control program for the CPU 2.

CPU2は第3図に示すフローチャートに従った13作
を行なう。すなわち、PCU 2はまず両件入力部1よ
りの文字画像データのスキャンニングを行ない、新デー
タが入力されたか否かを検出する(ステップ22.23
)。新データを入力する場合は、使用者は前記ライトベ
ン20をそれまで当接していたタブレット1つ上の成る
一文字から別の文字上へ移UJさせるから、上記ステッ
プ23ではこのライトベン20の移動後の入力文字画像
データを新データとして検出する。新しい文字画像デー
タが入力された場合は、その入力画像データが示してい
る文字を、タブレット1つ上のライトベン20のX、Y
座標により示される位置から判定する(ステップ24)
。この入力文字画像データはRA M 3にストアされ
た後(ステップ25)、CPU2の■/○ボートへ出力
され(ステップ26)、更にこれより第1図に示すI1
0インターフェース2を通してCPU6に供給される。
The CPU 2 performs 13 operations according to the flowchart shown in FIG. That is, the PCU 2 first scans the character image data from the input unit 1 and detects whether new data has been input (steps 22 and 23).
). When inputting new data, the user moves the light ben 20 from one character on the tablet that it had been in contact with to another character. Detect input character image data as new data. When new character image data is input, move the character indicated by the input image data to
Determine from the position indicated by the coordinates (step 24)
. After this input character image data is stored in the RAM 3 (step 25), it is output to the ■/○ board of the CPU 2 (step 26), and from this it is output to the I1 shown in FIG.
0 interface 2 to the CPU 6.

ステップ26が終了すると再びステップ22へ戻る。When step 26 is completed, the process returns to step 22 again.

上記の文字画像データの入力は、使用者がライトベン2
0を後述する第1のシンセサイザ16より発音される楽
器音を聞きながら行なうため、ライトベン20の移動速
度は楽器音に同期したものとなるが、入力する文字画像
データ自体は使用者の任意である。従って、本発明は曲
に歌詞をつける、いわゆる作詩に用いた場合に有用であ
る。
The user can enter the above character image data using Lightben 2.
0 while listening to the musical instrument sound produced by the first synthesizer 16, which will be described later, the movement speed of the light ben 20 is synchronized with the musical instrument sound, but the character image data itself to be input is at the discretion of the user. . Therefore, the present invention is useful when used in so-called lyric writing, in which lyrics are added to songs.

第1図に示したCPU2及び6はまた、操作部7よりの
信号が■/○インターフェース5を介して夫々供給され
る。操作部7はこの装置全体のスタートタイミングを定
める信号などを発生するが、更に、第1のシンセサイザ
16より発音される楽器音の速度(テンポ)を任意に変
えるための信号を発生することもできる。C,PU6は
I10インターフェース5.RAM8.ROM9.メモ
リユニット10.ビデオコントローラ11.及びMID
Iインターフェース15と双方向性バスを介して接続さ
れている。RAM8はCPU6のデータストア用及び作
業用のメモリ回路で、また後述する音階に対応するピッ
チパラメータなどが予め格納されている。またR OM
 9にはCPU6の制御プログラムや複数のホルマント
周波数に関するホルマントバラメークテーブルが予め格
納されている。更にメモリユニット10は加工したデー
タの保存用のメモリ回路であると共に、本実施例におい
て発音されるべき楽器音を示す楽譜データが予め格納さ
れており、この楽譜データをCP、U6へ転送する。
The CPUs 2 and 6 shown in FIG. 1 are also supplied with signals from the operating section 7 via the ■/○ interface 5, respectively. The operating section 7 generates a signal that determines the start timing of the entire device, but can also generate a signal that arbitrarily changes the speed (tempo) of the musical instrument sound produced by the first synthesizer 16. C, PU6 is I10 interface 5. RAM8. ROM9. Memory unit 10. Video controller 11. and M.I.D.
It is connected to the I interface 15 via a bidirectional bus. The RAM 8 is a memory circuit for storing data and working for the CPU 6, and also stores pitch parameters and the like corresponding to musical scales to be described later. Also ROM
9 stores in advance a control program for the CPU 6 and a formant variation make table regarding a plurality of formant frequencies. Further, the memory unit 10 is a memory circuit for storing processed data, and also stores in advance musical score data indicating the musical instrument sounds to be produced in this embodiment, and transfers this musical score data to the CP and U6.

CPU6は第4図に示す如き構成とされており、第5図
に示すフローチャートに従った動作を行なう。CPU6
はまずイニシャライズされた後、変数11の値を「○」
にセットしくステップ37)、M’ I D Iインタ
ーフェース15を介して入来するデータによって第1の
シンセサイザ16(17でもよい)が受信可能か(イネ
ーブルか)を判定する(第5図のステップ38)。シン
セサイザ16が受信可能となった場合は、メモリユニッ
ト10よりの楽譜データ(これは予めM I D ’f
  (Musicat  I nstrument D
 1g1tal  I nterface)規格に適合
した形態でメモリユニット1oにストアされており、こ
れを以下第1のMIDIデータともいう)を第4図に示
す入力部30.演奏データ変換部32.MrD1データ
転送部34.MIDIインターフェース15を夫々通し
て第1のシンセサイザ16へ転送する(第5図のステッ
プ39)。
The CPU 6 has a configuration as shown in FIG. 4, and operates according to the flowchart shown in FIG. CPU6
is first initialized, and then sets the value of variable 11 to "○"
Step 37), it is determined whether the first synthesizer 16 (or 17) can receive (enabled) the data coming through the M'IDI interface 15 (step 38 in FIG. 5). ). When the synthesizer 16 becomes able to receive music score data from the memory unit 10 (this is M I D 'f
(Musicat Instrument D
MIDI data (hereinafter also referred to as first MIDI data) is stored in the memory unit 1o in a form that conforms to the MIDI standard. Performance data converter 32. MrD1 data transfer unit 34. The data is transferred to the first synthesizer 16 through the MIDI interface 15 (step 39 in FIG. 5).

これにより、シンセサイザ16は公知の動作により、楽
譜データ(第1のM I D Iデータ)に従った楽器
音を発音する。
Thereby, the synthesizer 16 generates the musical instrument sound according to the musical score data (first MIDI data) by a known operation.

ここで、前記MfD[規格とは楽器を演奏する際に行な
われる種々の操作(キーを押す、ポリュ−ムを回すなど
)を夫々数バイトのデータに変換し、複数の楽器、又は
それらをコントロールする■械との間で送受信するため
の公知の規格である。
Here, the MfD [standard] converts various operations performed when playing a musical instrument (pressing a key, turning a volume, etc.) into several bytes of data, and controls multiple musical instruments or them. This is a well-known standard for transmitting and receiving data between machines that operate.

〜IIDIデータは2〜3バイトのシリアルデータで伝
送されるが、最初の1バイトがステータスで、後続のデ
ータバイトがどのようなファンクションを持っているか
を指示するメツセージになっている。ステータスを含む
データ長は1〜3バイトと不定であり、ステータスとデ
ータとは各バイトの第1ビツトが′1′°のときステー
タス、“O″のときデータという形で認識される。上記
メツセージには大別して個別の操作データを送るチャン
ネルメツセージと、ネットワークをコントロールするた
めのシステムメツセージとに分けられる。
~IIDI data is transmitted as 2 to 3 bytes of serial data, and the first byte is a status, and the subsequent data bytes are messages that indicate what kind of function they have. The length of the data including the status is undefined, 1 to 3 bytes, and the status and data are recognized as status when the first bit of each byte is '1' and as data when it is 'O'. The above messages can be broadly divided into channel messages for transmitting individual operation data and system messages for controlling the network.

CPU6は次に文字画像データが■/○インターフェー
ス5より入来しているか否かを検出しく第5図のステッ
プ40)、入来している場合は第4図に示す入力部30
を通して入力文字画像データを画像データ変換部31に
より取り込み、これを表示に適した画像データに変換す
る。一方、文字画像データが入来していない場合は第1
のシンセサイザ16(17でもよい)が受信可能がどう
かをシンセサイザ16(又は17)よりのデータに基づ
いて判断し、受信可能でない場合はステップ40へ、ま
た受信可能な場合は後述のステップ50の処理動作へ移
行する(ステップ42)。
The CPU 6 then detects whether or not character image data is coming in from the ■/○ interface 5 (step 40 in FIG. 5), and if so, the input unit 30 shown in FIG.
The input character image data is taken in by the image data converter 31 through the input character image data converter 31, and is converted into image data suitable for display. On the other hand, if no character image data has been received, the first
Based on the data from the synthesizer 16 (or 17), it is determined whether or not the synthesizer 16 (or 17) is capable of receiving data. If the synthesizer 16 (or 17) is not capable of receiving data, the process proceeds to step 40, and if it is capable of receiving data, the process proceeds to step 50, which will be described later. The process moves to operation (step 42).

画像データ変換部31はその出力画像データを第1図に
示すビデオコントローラ11を介してビデオ・ランダム
・アクセス・メモリ(V、RAM)12に書き込むと共
に、ビデオコントーラ11に供給し、ここで、ビデオ信
号に変換させる。このビデオ信号は三原色信号分離回路
13を介して陰極線管(CRT>14に供給さ、れ、こ
こで表示される。従って、第5図に示したステップ43
の処理動作によって、CRT14には画像入力部1によ
って入力された文字画像が表示されることになる。この
CRT14の表示画面によって、入力文字画像(@詞)
の確認などができる。
The image data converter 31 writes the output image data to a video random access memory (V, RAM) 12 via the video controller 11 shown in FIG. convert it into a signal. This video signal is supplied to a cathode ray tube (CRT>14) via the three primary color signal separation circuit 13 and displayed there. Therefore, step 43 shown in FIG.
As a result of the processing operation, the character image input by the image input section 1 is displayed on the CRT 14. The input character image (@word) is displayed on the display screen of this CRT14.
You can check etc.

CPU6は次に演奏データ変換部32において第5図に
示したステップ44〜47の処理動作を順次行なう。す
なわち、ステップ44において、入力文字画像データく
よる文字を子音と母音を単位とする第1のパラメータに
夫々分解し、これにより第1のテーブルを作成し、これ
をRA Mデータ転送部33を介してRAM8へ書き込
む。すなわち、日本語の音節の大部分は広義の子音と母
音との組合せからなることが知られており、子音と母音
を単位として、それらの列によって語の音形が表示され
ると考えられるから、上記第1のパラメータによって歌
詞を示す個々の音節を示すことができる。
Next, the CPU 6 sequentially performs the processing operations of steps 44 to 47 shown in FIG. 5 in the performance data conversion section 32. That is, in step 44, the characters based on the input character image data are decomposed into first parameters in which consonants and vowels are units, thereby creating a first table, which is transferred via the RAM data transfer unit 33. and write it to RAM8. In other words, it is known that the majority of Japanese syllables consist of combinations of consonants and vowels in a broad sense, and it is thought that the sound form of a word is represented by a sequence of consonants and vowels. , the first parameter can indicate individual syllables indicating lyrics.

次にステップ45において、入力された前記楽譜データ
の中の音階データに従って、RA〜18に予め記憶され
ていたテーブルから音階を定める母音の基本周波数(ピ
ッチ周波m)Fl を示すごツチバラメー、夕を読み出
すくすなわちピッチパラメータに変換する。)。次にR
A fvl 8に格納されていた前記第1のテーブルを
参照しながら前記ホルマントパラメータをROM9から
読み出し、これに前記ピッチパラメータを組み合わせ、
パラメータの編集、補間(音が滑らかに変化するように
音に区切りをつけることなど)を行なって合成パラメー
タを作成すると共に、楽譜データの中の前記音価データ
に従って時間長テーブルを作成し、それらをRAM8に
一時記憶する(第5図のステップ46)。
Next, in step 45, according to the scale data in the inputted musical score data, a tsuchibara meme indicating the fundamental frequency (pitch frequency m) Fl of the vowel that determines the scale is selected from the table stored in advance in RA~18. Convert to pitch parameter. ). Then R
Read the formant parameter from the ROM 9 while referring to the first table stored in the A fvl 8, and combine it with the pitch parameter,
In addition to creating synthesis parameters by editing parameters and interpolating them (such as adding breaks to notes so that they change smoothly), a time length table is created according to the note value data in the score data, and these is temporarily stored in the RAM 8 (step 46 in FIG. 5).

ここで、歌声は歌詞を示す個々の音節とそれと共に発生
される音とからなり、前者は前記第1のパラメータによ
り子音と母音とで示され、また第6図に示す如きホルマ
ント周波数対時間特性を示すことが知られている。すな
わち、音声の識別は音声波形を構成している基本周波数
(ピッチ周波数)と複数個のホルマントに基づいて行な
われていると見做されている。第1.第2及び第3ホル
マント(以下、ホルマント周波数ともいう)をF+ 、
F2及びF3とすると、−の音節は最初に順次ホルマン
ト周波数変化を伴って子音部が発音され、次に母音部が
略一定のホルマント周波数により発音される。なお、母
音部発声期間はホルマント周波数F1〜F3と共にピッ
チ周波数も発生される。
Here, the singing voice consists of individual syllables representing the lyrics and sounds generated together with the syllables, and the former are represented by consonants and vowels according to the first parameter, and formant frequency versus time characteristics as shown in FIG. is known to show. That is, it is considered that speech identification is performed based on the fundamental frequency (pitch frequency) and a plurality of formants that make up the speech waveform. 1st. The second and third formants (hereinafter also referred to as formant frequencies) are F+,
Assuming F2 and F3, in the - syllable, the consonant part is first pronounced with sequential formant frequency changes, and then the vowel part is pronounced with a substantially constant formant frequency. Note that during the vowel part utterance period, a pitch frequency is also generated together with the formant frequencies F1 to F3.

上記子音部におけるホルマント周波数F1〜F3の変化
は子音によって異なり、例えば(1,(1及びbの各子
音のホルマント周波数は第7図(A)、(B)及び(C
)に示す如くに変化することが一般に知られている。こ
こで、前記した合成パラメータ中のホルマントパラメー
タは上記3種のホルマント周波数FI〜F3を決定する
パラメータである。また、ピッチパラメータは前記ピッ
チ周波数を定める。
Changes in the formant frequencies F1 to F3 in the consonant part differ depending on the consonant. For example, the formant frequencies of each consonant (1, (1 and b) are shown in Fig. 7 (A), (B) and (C
) is generally known to change as shown in Here, the formant parameters in the synthesis parameters described above are parameters that determine the three types of formant frequencies FI to F3. The pitch parameter also defines the pitch frequency.

一方、音節(歌詞)と共に発生される上記の音は音の高
さ、大ぎさ、長さによって定まり、これが楽譜データと
して前記した如<CPU6に入力されるが、音階に応じ
て第6図に示したホルマン1〜周波数対時間特性が縦軸
方向に平行移動した如き持性となり、前記ピッチパラメ
ータ(ピッチ周波数)がその移動■(音の高さ)を定め
る。また音の長さは母音部の時間長によって得ることが
できる。
On the other hand, the above-mentioned sound generated with the syllable (lyrics) is determined by the pitch, loudness, and length of the sound, and this is inputted to the CPU 6 as musical score data as described above, but according to the scale The frequency vs. time characteristic shown in Holman 1 has a characteristic as if it were moved in parallel in the direction of the vertical axis, and the pitch parameter (pitch frequency) determines the movement 2 (pitch of the sound). Furthermore, the length of a sound can be determined by the time length of the vowel part.

次にステップ47において上記の合成パラメータは前記
MIDI規格に着合したフォーマットの第2のMIDI
データに変換される。すなわら、演奏データ変換部32
は前記したテーブル作成手段、ピッチパラメータ変換手
段2今成パラメータ作成手段及びデータ変換手段を構成
していることになる。この第2のMIDIデータは第4
図のMIDIデータ転送部34に供給され、ここで第2
     ゛のMIDIデータのMIDIインターフェ
ース15を介して第2のシンセサイザ17への転送が行
なわれる(第5図のステップ48)。ここで、この第2
のMIDIデータの転送は、子音のホルマント周波数F
1〜F3等に関する第1のデータをMIDIインターフ
ェース15を通して第2のシンセサイザ17へ転送した
後、母音のホルマント周波数F1〜F3.ピッチ周波数
FQ等に関する第2のデータをMIDIインターフェー
ス15を通して第2のシンセサイザ17へ転送されるこ
とにより行なわれる。
Next, in step 47, the above-mentioned synthesis parameters are converted into a second MIDI in a format that complies with the MIDI standard.
converted to data. In other words, the performance data conversion section 32
constitutes the above-mentioned table creation means, pitch parameter conversion means 2, composition parameter creation means and data conversion means. This second MIDI data is
The data is supplied to the MIDI data transfer section 34 shown in the figure, where the
The MIDI data is transferred to the second synthesizer 17 via the MIDI interface 15 (step 48 in FIG. 5). Here, this second
The MIDI data transfer is based on the consonant formant frequency F.
1 to F3, etc., is transferred to the second synthesizer 17 through the MIDI interface 15, and then the vowel formant frequencies F1 to F3. This is done by transferring second data regarding the pitch frequency FQ, etc. to the second synthesizer 17 through the MIDI interface 15.

上記の第1のデータは子音部の発声時間帯において、一
定間隔〈例えば0.33m5 )で第1〜第3ホルマン
ト周波数F1〜F3の夫々について複数回周波数変更を
行なわせるべく、複数回順次に転送される。これにより
、第6図、第7図に示した如く子音部発声時間帯のホル
マント周波数F1〜F3を直線近似的に変化せしめる各
ホルマント周波数についての第1のデータが第2のシン
セサイザ17へ出力されることになる。また、上記の第
2のデータは前記時間長テーブルに基づいて音価に従っ
た時間長分だけ送出される。なお、MIDIインターフ
ェース15よりシンセサイザ16及び17のどららへデ
ータを転送するかは、MIDIデータのステータスの例
えばチャンネルメツセージによって行ない得る。
The above first data is set in order to change the frequency of each of the first to third formant frequencies F1 to F3 multiple times at regular intervals (for example, 0.33 m5) during the utterance period of the consonant part. be transferred. As a result, as shown in FIGS. 6 and 7, the first data for each formant frequency that changes the formant frequencies F1 to F3 in the consonant voicing time period in a linear approximation is output to the second synthesizer 17. That will happen. Further, the second data is sent out for the time length according to the note value based on the time length table. Note that data can be transferred from the MIDI interface 15 to one of the synthesizers 16 and 17 based on the MIDI data status, for example, a channel message.

このようにして取り出された第2のMIDIデータは第
4図に示すRAMデータ転送部33を介してRAM8に
保存される(第5図のステップ4つ)。しかる後にCP
U6は前記変数11を「1」だけ増加させた後、その増
加後の変数11の値が総音符数N以上となったかどうか
を算出し、N以上となるまで前記したステップ39〜5
0の動作が繰り返される。
The second MIDI data extracted in this manner is stored in the RAM 8 via the RAM data transfer section 33 shown in FIG. 4 (step 4 in FIG. 5). After that, CP
After increasing the variable 11 by "1", U6 calculates whether the value of the variable 11 after the increase is greater than or equal to the total number of notes N, and repeats steps 39 to 5 described above until it becomes greater than or equal to N.
0 operation is repeated.

以上のようにして、第1のシンセサイザ16よりの楽器
音に合わせ、リアルタイムで第2のシンセサイザ17よ
り歌声音を発音させ目的を達成することができるが、更
にステップ37〜51の処理動作終了後に、使用者が操
作部7を操作して、RAM8に保存した第2のMfDI
データ(歌詞データ)を順次読み出す(再生する)こと
により、第1のシンセサイザ16よりの楽器音に対応さ
せた歌声音を第2のシンセサイザ17より発音させるこ
ともできる(歌声合成演奏ができる)。
As described above, it is possible to achieve the purpose by generating singing voice sounds from the second synthesizer 17 in real time in accordance with the musical instrument sounds from the first synthesizer 16, but furthermore, after the processing operations in steps 37 to 51 are completed. , the user operates the operation unit 7 to save the second MfDI in the RAM 8.
By sequentially reading out (reproducing) the data (lyrics data), the second synthesizer 17 can generate singing voices that correspond to the musical instrument sounds from the first synthesizer 16 (singing voice synthesis performance is possible).

第8図は〜+[DIゼインーフェース15の一例の回路
図を示す。CPU6よりの〜IIDIデータ(第1.第
2のMIDIデータ)は、信号処理装置58のデータ入
出力端子DI+”−07に供給され、ここで並直列変換
等されてインバータ59.60゜抵抗61.コネクタ6
2等を介してシンセサイザ16又は17へ転送される。
FIG. 8 shows a circuit diagram of an example of the ~+DI zein interface 15. ~IIDI data (1st and 2nd MIDI data) from the CPU 6 is supplied to the data input/output terminal DI+"-07 of the signal processing device 58, where it is subjected to parallel-to-serial conversion, etc. .Connector 6
2, etc., to the synthesizer 16 or 17.

またシンセサイザ16又は17よりのデータはコネクタ
63.フォトカブラ64を夫々介して信号処理装置58
に供給され、そのデータ入出力端子Do〜D7より並列
に出力される。なお、信号処理装置58はクロックモジ
ュールl065より例えば500kl−1zのクロック
が供給される。
Data from the synthesizer 16 or 17 is also sent to the connector 63. Signal processing device 58 via photocoupler 64
and output in parallel from its data input/output terminals Do to D7. Note that the signal processing device 58 is supplied with a clock of, for example, 500 kl-1z from the clock module l065.

更に、シンセサイザ16及び17を接続する際のネット
ワークのために、入力はそのままインバータ66.67
、抵抗68及びコネクタ(THRU端子)6つを介して
出力される。
Furthermore, for the network when connecting synthesizers 16 and 17, the inputs are directly connected to inverters 66 and 67.
, a resistor 68, and six connectors (THRU terminals).

第9図は第2のシンセサイザ17の一実施例のブロック
系統図を示す。MIDIインターフェース15よりの第
2のMIDIデータはシンセサイザ17内の入出力イン
ターフェース(図示せず)を介して入力端子70+〜7
06に順次入力される。入力端子70+〜704の入力
データは電圧制御発振器(VCO)71〜74に制御信
号として供給される。ここで、VCO71,72及び7
3は夫々前記第1.第2及び第3ホルマント周波数の信
号を発生出力し、VCO74はピッチ周波数Foの信号
を発振出力する。また入力端子70sに入来したデータ
は低周波発振器(LF○)75に供給され、その発振動
作を制御する。このLFO75の出力信号はVC071
〜74に供給されてその出力発振周波数を可変制御して
ビブラート効果を得ることができ、またLFO75の出
力信号は電圧制御フィルタ(VCF)78及び電圧制御
増幅器(VCA)79に夫々供給されて特定の倍音のみ
を強調したり、トレモロ効果を得ることができる。
FIG. 9 shows a block diagram of an embodiment of the second synthesizer 17. The second MIDI data from the MIDI interface 15 is sent to input terminals 70+ to 7 via an input/output interface (not shown) in the synthesizer 17.
06 are input sequentially. Input data at input terminals 70+ to 704 is supplied to voltage controlled oscillators (VCOs) 71 to 74 as control signals. Here, VCO71, 72 and 7
3 are respectively the above-mentioned No. 1. The VCO 74 generates and outputs signals at the second and third formant frequencies, and outputs a signal at the pitch frequency Fo. Further, data input to the input terminal 70s is supplied to a low frequency oscillator (LF◯) 75 to control its oscillation operation. The output signal of this LFO75 is VC071
74 to obtain a vibrato effect by variably controlling the output oscillation frequency, and the output signal of the LFO 75 is supplied to a voltage control filter (VCF) 78 and a voltage control amplifier (VCA) 79, respectively, to obtain a vibrato effect. You can emphasize only the overtones or create a tremolo effect.

VC071〜74の各出力信号はリングモジュレータ7
6に夫々供給され、ここで各周波数の和又は差の周波数
の信号に変換された後ミキサ77に供給され、ここでV
C071〜74の各出力信号と混合される。リングモジ
ュレータ76は特定の音色を得るような場合に用いられ
、その動作は端子70sよりのデータによって制御され
る。ミキサ7717)出力混合信号LtVCF78.V
CA79及び増幅器80を夫々経て第10図に示す如き
波形の信号とされてスピーカ81に供給される。
Each output signal of VC071 to 74 is sent to the ring modulator 7.
6, where it is converted into a signal with a sum or difference frequency of each frequency, and then supplied to a mixer 77, where V
It is mixed with each output signal of C071 to C074. The ring modulator 76 is used to obtain a specific tone, and its operation is controlled by data from the terminal 70s. mixer 7717) output mixed signal LtVCF78. V
The signal passes through the CA 79 and the amplifier 80, respectively, and is converted into a signal with a waveform as shown in FIG. 10, and is supplied to the speaker 81.

第10図中、王はピッチ周期を示す。In FIG. 10, the king indicates the pitch period.

ここで、子音部発声時間帯は端子70+〜703にのみ
所定のデータが印加されるので、vc。
Here, predetermined data is applied only to the terminals 70+ to 703 during the consonant part voicing time period, so VC.

71.72及び73から@1.第2及び第3ホルマント
周波数F+ 、F2及びF3が夫々同時的に出力され、
かつ、その周波数値が前記N段階に分けて順次変更せし
められるが、VCO74からは信号は発生出力されない
。これに対して、母音部発声時間帯は前記第2のデータ
の一部によって■C074からは音階を定めるピッチ周
波数FOが初めて発生出力されると共に、VC071〜
73からは引続き第1〜第3ホルマント周波数F+〜F
3の信号が一定値で夫々発生される。この結果、スピー
カ81からは画像入力部1によって入力された歌詞が、
メモリユニット10によって入力された楽譜に従って人
声音で発音される。また、その人声音、ザなわら歌声音
にはビブラート、トレモロ等の如き音楽的変化をつける
こともできる。
71.72 and 73 @1. The second and third formant frequencies F+, F2 and F3 are respectively output simultaneously,
Further, although the frequency value is divided into the N stages and sequentially changed, no signal is generated or outputted from the VCO 74. On the other hand, in the vowel part voicing time period, the pitch frequency FO that determines the scale is generated and output for the first time from ■C074 according to a part of the second data, and the pitch frequency FO that determines the scale is generated and output for the first time from VC071 to
From 73 onwards, the first to third formant frequencies F+ to F
Three signals are generated, each with a constant value. As a result, the lyrics input by the image input unit 1 are output from the speaker 81.
A human voice is produced according to the musical score input by the memory unit 10. Moreover, musical changes such as vibrato and tremolo can be added to the human voice sound and the natural singing voice sound.

この結果、ニュアンスがつき、より好ましい歌声となる
。なお、第9図に示したシンセサイザ17は、キーボー
ド82の使用によって従来と同様に楽器音だけをvIる
こともできる。また、第1のシンセサイザ16内のVC
OやLF○等には前記第1のMIDtデータが夫々制御
信号として供給され、そのスピーカより楽器音が発音さ
れる。
As a result, the singing voice becomes more nuanced and more desirable. It should be noted that the synthesizer 17 shown in FIG. 9 can also generate only musical instrument sounds by using the keyboard 82, as in the conventional case. In addition, the VC in the first synthesizer 16
The first MIDt data is supplied to O, LF○, etc. as a control signal, and musical instrument sounds are produced from the speakers.

なお、本発明において、ホルマントの数は3以外の複数
でもよい。また、ピッチパラメータ変換手段はテーブル
から読み取るものに限らず、その値を計算により求める
こともできる。
Note that in the present invention, the number of formants may be a plurality other than three. Further, the pitch parameter conversion means is not limited to reading from a table, but can also obtain the value by calculation.

発明の効果 上述の如く、本発明によれば、2つのシンセサイザのう
ち、一方のシンセサイザからの予め設定した楽器音に対
応させて任意に入力した歌詞を歌う人声音(歌声音)を
他方のシンセサイザから発生することができ、よって曲
に合わせた歌詞の作成に使用して好適であり、またホル
マント周波数を合成するようにしているので、子音とし
てホワイトノイズを利用する従来装置に比し、自然で明
瞭な歌声音を発生することができる等の優れた特長を有
するものである。
Effects of the Invention As described above, according to the present invention, the sound of a human voice (singing voice) singing lyrics arbitrarily input in correspondence with a preset musical instrument sound from one of two synthesizers is transferred to the other synthesizer. Therefore, it is suitable for use in creating lyrics that match the song, and since it synthesizes formant frequencies, it is more natural than conventional devices that use white noise as consonants. It has excellent features such as being able to generate clear singing voice sounds.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明装置の一実施例を示すブロック系統図、
第2図は第1図図示ブロック系統中の要部の概略構成を
示す図、第3図及び第5図は夫々本発明装器の要部の動
作説明用フローチャート、第4図は本発明装置の要部の
一実施例を示すブロック系統図、第6図は合成音声の子
音部、母音部とホルマント周波数の関係を示す図、第7
図は各子音のホルマント周波数と時間との関係を示す図
、第8図は第1図図示ブロック系統中のMIDIインタ
ーフェースの一例の回路図、第9図は第1図図示ブロッ
ク系統中のシンセサイザの一実施例を示すブロック系統
図、第10図は第9図図示ブロック系統中のスピーカの
入力合成音声信号波形の一例を示す図である。 1・・・画像入力部、2,6・・・中央処理装置(CP
U)、3.8・・・ランダム・アクセス・メモリ(RA
M)、4.9・・・リード・オンリ・メモリ(80M)
、5・・・【10(入出力)インターフェース、7・・
・操作部、10・・・メモリユニット、11・・・ビデ
オコントローラ、14・・・CRT、15・・・MID
Iインターフェース、16.17・・・シンセサイザ、
19・・・タブレット、20・・・ライトペン、30・
・・入力部、31・・・画像データ変換部、32・・・
演奏データ変換部、33・・・RAMデータ転送部、3
4・・・MIDIデータ転送部、58・・・信号処理装
置、62゜63.69・・・コネクタ、71〜74・・
・電圧制御発振器(VCO)、75・・・低周波発振器
(LF○)、81・・・スピーカ。 特許出願人 日本ビクター株式会社 第3図 第6図 昭1−1jl→ 第8図 旦
FIG. 1 is a block diagram showing an embodiment of the device of the present invention;
FIG. 2 is a diagram showing a schematic configuration of the main parts in the block system shown in FIG. FIG. 6 is a block diagram showing an example of the main part of the synthesized speech, FIG.
The figure shows the relationship between the formant frequency and time of each consonant, Figure 8 is a circuit diagram of an example of a MIDI interface in the block system shown in Figure 1, and Figure 9 is a diagram of the synthesizer in the block system shown in Figure 1. FIG. 10 is a block system diagram showing one embodiment, and is a diagram showing an example of an input synthesized audio signal waveform of a speaker in the block system shown in FIG. 1... Image input section, 2, 6... Central processing unit (CP
U), 3.8...Random access memory (RA
M), 4.9...Read-only memory (80M)
, 5... [10 (input/output) interface, 7...
・Operation unit, 10...Memory unit, 11...Video controller, 14...CRT, 15...MID
I interface, 16.17... synthesizer,
19...Tablet, 20...Light pen, 30.
...Input section, 31... Image data conversion section, 32...
Performance data conversion section, 33...RAM data transfer section, 3
4...MIDI data transfer unit, 58...Signal processing device, 62°63.69...Connector, 71-74...
- Voltage controlled oscillator (VCO), 75...Low frequency oscillator (LF○), 81... Speaker. Patent applicant: Victor Japan Co., Ltd. Figure 3 Figure 6 Showa 1-1jl → Figure 8 Dan

Claims (1)

【特許請求の範囲】[Claims] 文字データを入力する文字データ入力部と、特定の規格
の予め定められた楽譜データを入力する楽譜データ入力
部と、該楽譜データ入力部よりの該楽譜データを順次出
力する第1のデータ転送手段と、該文字データ入力部よ
りの文字データを子音と母音を単位とするパラメータに
分解して第1のテーブルを作成するテーブル作成手段と
、該入力楽譜データの中の音階データに従つてピッチパ
ラメータに変換するピッチパラメータ変換手段と、作成
された該第1のテーブルに従つてメモリから読み出した
ホルマントパラメータに、上記ピッチパラメータを組み
合わせて、編集及び補間された合成パラメータを生成す
ると共に上記楽譜データの中の音価データに従つて時間
長テーブルを作成し、それらを一時記憶する合成パラメ
ータ作成手段と、該合成パラメータを特定の規格のデー
タに変換するデータ変換手段と、該データ変換手段より
の該合成パラメータ変換データのうち複数のホルマント
周波数に関するデータを転送し、かつ、該ピッチパラメ
ータに関するピッチ周波数データを母音部発声期間中の
み前記時間長テーブルに基づく期間発生出力する第2の
データ転送手段と、該第2のデータ転送手段の出力デー
タを保存する手段と、複数個の可変周波数発振器の出力
信号を混合して出力する第1及び第2のシンセサイザと
、該第1のデータ転送手段の出力転送データを該第1の
シンセサイザ内の該複数個の可変周波数発振器の制御信
号として供給すると共に、該第2のデータ転送手段の出
力転送データのうち前記複数のホルマント周波数に関す
るデータと該ピッチ周波数データとを該第2のシンセサ
イザ内の該複数個の可変周波数発振器に夫々制御信号と
して別々に供給するインターフェース手段とよりなるこ
とを特徴とする歌声合成演奏装置。
A character data input section for inputting character data, a musical score data input section for inputting predetermined musical score data of a specific standard, and a first data transfer means for sequentially outputting the musical score data from the musical score data input section. a table creation means for creating a first table by decomposing the character data from the character data input section into parameters having consonants and vowels as units; a pitch parameter conversion means for converting the score data into a synthesis parameter creation means for creating a time length table according to the note value data in the data and temporarily storing them; a data conversion means for converting the synthesis parameters into data of a specific standard; a second data transfer means that transfers data related to a plurality of formant frequencies among the synthetic parameter conversion data, and generates and outputs pitch frequency data related to the pitch parameter for a period based on the time length table only during the vowel part utterance period; means for storing output data of the second data transfer means; first and second synthesizers for mixing and outputting output signals of a plurality of variable frequency oscillators; and output transfer of the first data transfer means. The data is supplied as a control signal to the plurality of variable frequency oscillators in the first synthesizer, and data regarding the plurality of formant frequencies and the pitch frequency data are supplied among the output transfer data of the second data transfer means. 1. A singing voice synthesis performance device comprising: interface means for separately supplying a control signal to each of the plurality of variable frequency oscillators in the second synthesizer as a control signal.
JP59204792A 1984-09-29 1984-09-29 Singing voice synthesis performance device Expired - Lifetime JPH0812560B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59204792A JPH0812560B2 (en) 1984-09-29 1984-09-29 Singing voice synthesis performance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59204792A JPH0812560B2 (en) 1984-09-29 1984-09-29 Singing voice synthesis performance device

Publications (2)

Publication Number Publication Date
JPS6183599A true JPS6183599A (en) 1986-04-28
JPH0812560B2 JPH0812560B2 (en) 1996-02-07

Family

ID=16496427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59204792A Expired - Lifetime JPH0812560B2 (en) 1984-09-29 1984-09-29 Singing voice synthesis performance device

Country Status (1)

Country Link
JP (1) JPH0812560B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04349497A (en) * 1991-05-27 1992-12-03 Yamaha Corp Electronic musical instrument
JP2015194779A (en) * 2015-08-05 2015-11-05 ヤマハ株式会社 Singing synthesis control unit and singing synthesizer

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5538356U (en) * 1978-09-04 1980-03-12
JPS587197A (en) * 1981-07-06 1983-01-14 株式会社日立製作所 Singing voice generator
JPS598838A (en) * 1982-07-05 1984-01-18 Arao Kk Construction of concrete structure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5538356U (en) * 1978-09-04 1980-03-12
JPS587197A (en) * 1981-07-06 1983-01-14 株式会社日立製作所 Singing voice generator
JPS598838A (en) * 1982-07-05 1984-01-18 Arao Kk Construction of concrete structure

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04349497A (en) * 1991-05-27 1992-12-03 Yamaha Corp Electronic musical instrument
JP2015194779A (en) * 2015-08-05 2015-11-05 ヤマハ株式会社 Singing synthesis control unit and singing synthesizer

Also Published As

Publication number Publication date
JPH0812560B2 (en) 1996-02-07

Similar Documents

Publication Publication Date Title
US6191349B1 (en) Musical instrument digital interface with speech capability
US6424944B1 (en) Singing apparatus capable of synthesizing vocal sounds for given text data and a related recording medium
JP3333022B2 (en) Singing voice synthesizer
US5890115A (en) Speech synthesizer utilizing wavetable synthesis
JP3365354B2 (en) Audio signal or tone signal processing device
TWI251807B (en) Interchange format of voice data in music file
US20140046667A1 (en) System for creating musical content using a client terminal
JPH05341793A (en) 'karaoke' playing device
US5895449A (en) Singing sound-synthesizing apparatus and method
CN107430849B (en) Sound control device, sound control method, and computer-readable recording medium storing sound control program
JP5974436B2 (en) Music generator
JPH11184490A (en) Singing synthesizing method by rule voice synthesis
JPH11126083A (en) Karaoke reproducer
JP3307283B2 (en) Singing sound synthesizer
JPS6183599A (en) Singing voice synthesizer/performer
JP3405123B2 (en) Audio data processing device and medium recording data processing program
JPS6183600A (en) Singing voice synthesizer/performer
JP2001042879A (en) Karaoke device
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
JP7509127B2 (en) Information processing device, electronic musical instrument system, electronic musical instrument, syllable progression control method and program
EP0396141A2 (en) System for and method of synthesizing singing in real time
JP3265995B2 (en) Singing voice synthesis apparatus and method
JPH0895588A (en) Speech synthesizing device
JP7456430B2 (en) Information processing device, electronic musical instrument system, electronic musical instrument, syllable progression control method and program
WO2023120288A1 (en) Information processing device, electronic musical instrument system, electronic musical instrument, syllable progression control method, and program

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term