JPS6180300A - Singing sound generator - Google Patents

Singing sound generator

Info

Publication number
JPS6180300A
JPS6180300A JP59203464A JP20346484A JPS6180300A JP S6180300 A JPS6180300 A JP S6180300A JP 59203464 A JP59203464 A JP 59203464A JP 20346484 A JP20346484 A JP 20346484A JP S6180300 A JPS6180300 A JP S6180300A
Authority
JP
Japan
Prior art keywords
data
pitch
parameters
output
conversion means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59203464A
Other languages
Japanese (ja)
Inventor
美昭 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP59203464A priority Critical patent/JPS6180300A/en
Publication of JPS6180300A publication Critical patent/JPS6180300A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は歌声音発生装置に係り、特にホルマント周波数
を合成して歌声前としく発生出力する歌声音発生装置に
関する。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a singing voice generating device, and more particularly to a singing voice generating device that synthesizes formant frequencies and generates and outputs them as pre-singing voices.

従来の技術 音楽を演奏する音響合成システムの中には楽器音の合成
用と歌声合成用とが存在する。このうち歌声合成システ
ムには、例えば[ホルマント型音声合成LSIを用いた
パソコン用歌声合成システム1 (石原、伏木田、三留
、井土:昭和59年度電子通信学会総合全国大会、6l
−198)などが知られている。このものは入力された
音声文字列と楽譜文字列とのうち、音声文字列を子音と
母音を基本単位とするパラメータに分解し、また楽譜文
字列の中の音階データに従つ”Cピッチパラメータをテ
ーブルから読み取り、しかる後に−に配の子音、母音パ
ラメータの分解により作成したテーブルに従ってデータ
ROMより取り出したホルマントパラメータ及び振幅に
、上記音階のピッチパラメータを組み合わせて合成パラ
メータを生成Jると共に、楽譜文字列の中の音符長デー
タに従って時間長テーブルを作成する。そして、上記合
成パラメータは時間長テーブルに従って、順次音声合成
LSI(大規模集積回路)に所定のフレーム周期毎に転
送された後、ここで10 kl−I Z +Jシンリン
グで合成波形が生成される。
Conventional sound synthesis systems for playing technical music include those for synthesizing musical instrument sounds and those for synthesizing singing voices. Among these, singing voice synthesis systems include, for example, [Singing voice synthesis system for personal computers using formant type speech synthesis LSI 1 (Ishihara, Fushikida, Mitome, Izuchi: 1981 National Conference of the Institute of Electronics and Communication Engineers, 6l.
-198) are known. This method decomposes the input audio character string and musical score character string into parameters whose basic units are consonants and vowels, and also uses the "C pitch parameter" that follows the scale data in the musical score character string. is read from the table, and then, according to the table created by decomposing the consonant and vowel parameters placed in -, the formant parameter and amplitude retrieved from the data ROM are combined with the pitch parameter of the above-mentioned scale to generate synthetic parameters. A time length table is created according to the note length data in the character string.Then, the above synthesis parameters are sequentially transferred to a speech synthesis LSI (Large Scale Integrated Circuit) at predetermined frame periods according to the time length table, and then transferred here. A composite waveform is generated by 10 kl-I Z +J thin rings.

発明が解決しようどする問題点 しかるに、上記の従来の歌声システムは歌声音を単に発
’tすることができるだけで、ビブラートなどの音楽的
変化をつ(することが回動で音楽的表現に乏しい等の問
題点があった。
Problems to be Solved by the Invention However, the above-mentioned conventional singing voice systems can only produce singing voice sounds, but they cannot produce musical changes such as vibrato (they are rotational and lack musical expression). There were problems such as.

また、指定した音高で人声音を発生させる装置どし一0
1特開昭55−77799号に開示された装置もあるが
、このものはボワイ1〜ノイズで子音を近似させている
ため、ホルマント周波数の急激な変化を正確に再現でき
す、従って発生される人声音は不明瞭て゛、不自然であ
るという問題点があった。更に従来は歌痺音だけの発生
であり、伴奏音となるような楽器音を介牛覆ることがで
きないという問題点があった。
Also, a device that generates human voice sound at a specified pitch.
There is also a device disclosed in Japanese Patent Application Laid-Open No. 55-77799, but since this device approximates consonants with noise, it is not possible to accurately reproduce rapid changes in formant frequency, and therefore There was a problem that human voice sounds were unclear and unnatural. Furthermore, in the past, only the singing sound was generated, and there was a problem in that it was not possible to cover up the musical instrument sounds that would serve as accompaniment sounds.

そこで、本発明は特にM I D I (Musica
lI nstrument D 1g1tal  r 
nterrace)規格のインター7丁−スを用いて2
つのシンセリ−イザと接続することにJ:す、上記の問
題点を解決した歌声音発生装置を提供することを目的と
する。
Therefore, the present invention particularly focuses on MID I (Musica
lI nstrument D 1g1tal r
2 using the interface of the interrace) standard.
An object of the present invention is to provide a singing voice generating device that can be connected to two synthesizers and solves the above-mentioned problems.

問題点を解決するための手段 本発明になる歌声音発生装置は、テーブル作成手段、ピ
ッチパラメータ変換手段9白成パラメータ作成手段、第
1及び第2のデータ変換手段、データ転送手段、第1及
び第2のシンセサイザ及びインターフェース手段とより
なる。上記テーブル作成手段は入力歌詞データを子音と
母音を単位とするパラメータに分解して第1のテーブル
を作成し、上記ピッチパラメータ変換手段は入力楽譜デ
ータの中の音階データに従ってピッチパラメータを、例
えば予め用意した音階に対応する第2のテーブルから読
み取る。合成パラメータ作成手段は上記第1のテーブル
に従ってメモリから読み出したホルマントパラメータに
、上記ピッチパラメータを組み合わせて編集及び補間さ
れた合成パラメータを生成すると共に、上記楽譜データ
中の音価データに従って時間長テーブルを作成し、ぞれ
らを一時記憶する。また、上記の第1のデータ変換手段
は上記合成パラメータを特定の規格のデータに変換し、
また上記第2のデータ変換手段は入力楽器音用楽譜デー
タを特定の規格のデータに変換する。
Means for Solving the Problems The singing voice generating device according to the present invention includes a table creation means, a pitch parameter conversion means 9, a whitening parameter creation means, first and second data conversion means, a data transfer means, a first and a second synthesizer and an interface means. The table creation means creates a first table by decomposing the input lyrics data into parameters with consonants and vowels as units, and the pitch parameter conversion means converts the pitch parameters in accordance with the scale data in the input musical score data, for example, in advance. Read from the second table corresponding to the prepared scale. The synthesis parameter creation means generates an edited and interpolated synthesis parameter by combining the pitch parameter with the formant parameter read from the memory according to the first table, and also creates a time length table according to the note value data in the musical score data. Create and temporarily store them. Further, the first data conversion means converts the synthesis parameters into data of a specific standard,
Further, the second data conversion means converts the input musical score data for musical instrument sounds into data of a specific standard.

上記データ転送手段は上記第1のデータ変換手段の出力
データのうち複数のポルマント周波数に関するデータを
転送し、かつ、ピッチ周波数に関するピッチ周波数デー
タを母音部発声期間中のみ前記時間長テーブルに基づく
期間発生出力すると共に、上記第2のデータ変換手段の
出力データを順次出力する。更に前記インターフェース
手段は上記データ転送手段による転送データのうち複数
のホルマント周波数に関するデータとピッチ周波数デー
タとを第1のシンセサイザ内の複数個の可変周波数発振
器の制御信号として別々に供給すると共に、第2のデー
タ変換手段の出力データを第2のシンセサイザ内の複数
個の可変周波数発振器の制m+偶号として供給する。
The data transfer means transfers data related to a plurality of pomanto frequencies among the output data of the first data conversion means, and generates pitch frequency data related to pitch frequencies based on the time length table only during the vowel utterance period. At the same time, the output data of the second data conversion means is sequentially output. Further, the interface means separately supplies data regarding a plurality of formant frequencies and pitch frequency data among the data transferred by the data transfer means as control signals for the plurality of variable frequency oscillators in the first synthesizer, The output data of the data conversion means is supplied as the m+even signal of the plurality of variable frequency oscillators in the second synthesizer.

作用 」二記第1のシンセ+J−イブ内の複数個の可変周波数
発振器は子音と母音を構成する複数のボルマン6一 ト周波数の信号を発振出力するように制御され、また別
の可変周波数発振器は母音部発声期間中、前記楽譜デー
タによる音階を定めるピッチ周波数の信号を発生出力す
るので、第1のシンセサイザのスピーカから歌声音が発
音される。一方、これに同期して上記第2のシンセサイ
ザの複数個の可変周波数発振器は前記楽器音用楽譜デー
タに基づいて制御されるので、第2のシンセサイザから
は楽器音が取り出されることになる。以下、本発明につ
いて図面を参照しつつ実施例と共に更に詳細に説明する
The plurality of variable frequency oscillators in the first synthesizer +J-Eve are controlled to oscillate and output signals of a plurality of Bormann 6 tot frequencies that constitute consonants and vowels, and another variable frequency oscillator generates and outputs a signal with a pitch frequency that determines the scale according to the musical score data during the vowel part voicing period, so that a singing voice sound is produced from the speaker of the first synthesizer. Meanwhile, in synchronization with this, the plurality of variable frequency oscillators of the second synthesizer are controlled based on the musical score data for musical instrument sounds, so that musical instrument sounds are extracted from the second synthesizer. DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in more detail below with reference to the drawings and embodiments.

実施例 第1図は本発明装置の一実施例のブロック系統図を示す
。同図中、歌詞キーボード1は例えば第2図に示す如く
、キーボード本体16上にアルファベットのキー17を
複数個三段に配置し、最下段に母音を示すアルファベッ
トのキーが配回された構造とされており、複数個のキー
17はローマ字で書かれた文字の集合体である歌詞(音
声文字列)に応じて選択的に押される。例えば文字「ビ
」は同と田の2つのキーを押すことによって入力される
。歌詞キーボード1には第2図に示す如く、更に最下段
の位置にアクセント付加用キー18と声種指示用キー1
91〜194どが夫々配置されている3、なお、声種は
周知の如く声域と音色とにJ、゛つて6秤類に分類され
るが、ここでは−例として、−1−19+ 、192.
193及び194は夫々バス、テノール、アルド及びソ
プラノの4種類の声種指示用4ニーとされている。この
歌詞キーボード1によって入力された歌詞データ(文字
音市データと声種データとアクセント・データ)はl1
0(入出力)インターフエース2を通して中央処理装冒
(CPU)3へ供給される。
Embodiment FIG. 1 shows a block system diagram of an embodiment of the apparatus of the present invention. In the figure, the lyric keyboard 1 has a structure in which, as shown in FIG. 2, for example, a plurality of alphabet keys 17 are arranged in three rows on the keyboard body 16, and alphabet keys representing vowels are arranged in the bottom row. A plurality of keys 17 are selectively pressed according to the lyrics (audio character string), which is a collection of letters written in Roman letters. For example, the character "bi" is input by pressing two keys, ``dou'' and ``da''. As shown in Fig. 2, the lyrics keyboard 1 further has an accent addition key 18 and a voice type indication key 1 at the bottom position.
91 to 194 are arranged respectively3.As is well known, the voice types are classified into J according to vocal range and timbre, and into 6 scales, but here, as an example, -1-19+, 192 ..
Reference numbers 193 and 194 are used to indicate four types of voices: bass, tenor, aldo, and soprano, respectively. The lyrics data (letter sound data, voice type data, and accent data) input using this lyrics keyboard 1 is l1
0 (input/output) interface 2 to a central processing unit (CPU) 3.

また伯のキーボードとして音価キーボード4ど]シトロ
ールキーボード5.更には後述する第1及び第2のシン
セサイザ10及び11内の各キーボードがある。音価キ
ーボード4は例えば第3図に示す如く、音価(時価)を
示す複数個のキ一群21がマトリクス状に配置されlこ
構造とされている。一方、]ン1〜ロールキーボード5
は数詞クターブの音域内の音の高さを、例えば「1」か
ら「88」までの節囲内の数字で指定したり、盲の強弱
を指定するためのキーボードである。音価キーボード4
及びコントロールキーボード50両出力データは歌声用
楽譜データ(楽譜文字列)又は楽器音用楽譜データとし
てT10インターフエース2を介してCPtJ3に供給
される。
Also, as a keyboard of Haku, note value keyboard 4] Citrol keyboard 5. Furthermore, there are respective keyboards in first and second synthesizers 10 and 11, which will be described later. As shown in FIG. 3, for example, the note value keyboard 4 has a structure in which a plurality of key groups 21 indicating note values (current prices) are arranged in a matrix. On the other hand, ]n 1 ~ roll keyboard 5
is a keyboard for specifying the pitch of a note within the vocal range of the numeral kutabe, for example, by a number within the clause range from ``1'' to ``88'', or for specifying the strength of the blindness. Note value keyboard 4
The output data of both the control keyboard 50 and the control keyboard 50 are supplied to the CPtJ3 via the T10 interface 2 as musical score data for singing voices (score character strings) or musical score data for musical instrument sounds.

CPU3はランダム・アクセス・メモリ(RAM)6.
リード・オンリ・メモリ(ROM)7及びメモリ(例え
ば磁気ディスク)8が夫々双方向性バスを介して接続さ
れている。RAM6はCPU3のデータストア用及び作
業用のメモリ回路で、また後述する音階に対応するピッ
チパラメータなどが予め格納されている。またROM7
にはCPU3の制御プログラムやホルマント周波数に関
するホルマントパラメータテーブルが予め格納されてい
る。更にメモリ8は入力あるいは加工したデータの保存
用のメモリ回路である。また、T10インターフエース
2は後述するMIDIインターフェース9に双方向性バ
スを介して接続されてお一〇− り、MTr)Iインターフェース9は第1のシンセサイ
ザ10と第2のシンセサイ1f11に双方向性バスを介
して接続され−Cいる。
CPU3 has random access memory (RAM)6.
A read-only memory (ROM) 7 and a memory (eg, magnetic disk) 8 are each connected via a bidirectional bus. The RAM 6 is a memory circuit for data storage and work of the CPU 3, and also stores pitch parameters and the like corresponding to musical scales to be described later. Also ROM7
A control program for the CPU 3 and a formant parameter table regarding formant frequencies are stored in advance. Furthermore, the memory 8 is a memory circuit for storing input or processed data. Further, the T10 interface 2 is connected to a MIDI interface 9, which will be described later, via a bidirectional bus, and the MTr) I interface 9 is connected to a MIDI interface 9, which will be described later, via a bidirectional bus. -C is connected via the bus.

c P LJ 3に入力された前記歌詞データ及び楽譜
データ又(よ楽器音用楽譜プーリ(よビデオ]ントn−
ラ12を介してビデオ・ランダム・アクセス・メ干り(
V、RAM)13に書ぎ込まれ、ビデA=1ンI〜1−
1−ラ12(こJ、リビラ゛AイS号:こ変1堕された
後、三廂色信号分離回路1/lで三原色信号とされてC
RT(陰極線管)15に供給される。また、CRT15
にはCP (、+ 3によって生成されたデータに基づ
く三原色117月す供給される。これにより、操作者は
CRT15に表示された、例えば音価。
c PLJ The lyrics data and musical score data input to 3 (musical instrument sound score pulley (yo video))
Video random access via La 12 (
V, RAM) 13, and the video A=1in I~1-
1-La 12 (This J, Liberia S No. 1: After this change 1 is dropped, it is converted into a three primary color signal by the three color signal separation circuit 1/l and C
It is supplied to an RT (cathode ray tube) 15. Also, CRT15
is supplied with three primary colors based on the data generated by the CP (+3). This allows the operator to display the note values displayed on the CRT 15, for example.

音階、歌詞その他の必要事項を示4表を見ながら、前記
キーボード1,71及び5を操作して所望のデータの入
力の確認、訂正などができ、また楽器音用楽譜データの
入力の確認、訂正も同様にできる。
While looking at the four tables showing scales, lyrics, and other necessary items, you can operate the keyboards 1, 71, and 5 to confirm and correct the input of desired data, and also confirm the input of musical score data for musical instruments. Corrections can be made in the same way.

また、CI) U 3は第4図に示づ−如き構成とされ
ており、第5図に示Jフローチャートに従った動作を行
なう。CPU3はまずイニシャライズされた後(第5図
にステップ35で示す)、第4図のデータ受信部25に
より、前記キーボード1./l及び5よりI10インタ
ーフェース2を介して入力された歌詞データ及び楽譜デ
ータよりなる歌声音用データとキーボード4.5により
入力された楽器音用楽譜データとを夫々順次に受信し、
取込む(第5図のステップ36.37)。CPtJa内
の第4図に示すテーブル作成手段26は取込んだ上記の
歌詞データを子音と母音を単位とする第1のパラメータ
に夫々分解し、これにより第1のデープルを作成し、こ
れをRAM6に格納する(第5図のステップ38)。す
なわち、日本語の音節の大部分は広義の子音と母音との
組合せからなることが知られており、子音とffi音を
単位として、それらの列によって語の青膨が表示される
と考えられるから、上記第1のパラメータによって歌詞
を示す個々の音節を示すことができる。
Further, CI) U3 has a configuration as shown in FIG. 4, and performs operations according to the flowchart shown in FIG. After the CPU 3 is first initialized (shown in step 35 in FIG. 5), the data receiving section 25 in FIG. 4 reads the keyboard 1. /l and 5 sequentially receive singing voice data consisting of lyrics data and musical score data inputted via the I10 interface 2, and musical instrument sound musical score data inputted from the keyboard 4.5, respectively;
(Steps 36 and 37 in Figure 5). The table creation means 26 shown in FIG. 4 in CPtJa decomposes the above-mentioned imported lyric data into first parameters in which consonants and vowels are units, thereby creating a first daple, which is stored in the RAM 6. (Step 38 in FIG. 5). In other words, it is known that the majority of Japanese syllables consist of combinations of consonants and vowels in a broad sense, and it is thought that the blue expansion of a word is expressed by a sequence of consonants and ffi sounds as units. , the first parameter can indicate the individual syllables representing the lyrics.

またピッチパラメータ変換手段27は取込んだ上記の楽
譜データの中の音階データに従って、RAM6に予め記
憶されていたテーブルから音階を定める母音の基本周波
数(ピッチ周波数)FOを示すピッチパラメータを読み
出?i(すなわちピッチパラメータに変換するもので、
これは第5図にステップ39で示す)。また、第4図に
示すCPU5内の合成パラメータ作成手段28は、テー
ブル作成手段26により作成されてRAM6に格納され
ていた前記第1のテーブルを参照しながら前記ポルマン
トパラメータをROM7から読み出し、これにピッチパ
ラメータ変換手段27により変換して19た前記ピッチ
パラメータを組み合わせ、パラメータの編集、補間〈音
が滑らかに変化するように音に区切りをつけることなど
)を行なって合成パラメータを作成すると共に、楽譜デ
ータの中の前記音節データに従って時間長テーブルを作
成し、ぞれらをRAM6に一時記憶する(第5図のステ
ップ40)。
In addition, the pitch parameter converting means 27 reads a pitch parameter indicating the fundamental frequency (pitch frequency) FO of the vowel that defines the scale from a table stored in advance in the RAM 6, according to the scale data in the imported musical score data. i (i.e., converts it into a pitch parameter,
This is shown in FIG. 5 as step 39). Further, the synthesis parameter creation means 28 in the CPU 5 shown in FIG. The pitch parameters converted by the pitch parameter conversion means 27 are combined, and the parameters are edited and interpolated (such as adding breaks to the sounds so that the sounds change smoothly) to create synthesis parameters. A time length table is created according to the syllable data in the musical score data, and each is temporarily stored in the RAM 6 (step 40 in FIG. 5).

ここぐ、歌声は歌詞を示づ個々の音節とそれと共に発生
されるnとからなり、前者は前記第1のパラメータにに
り子音と母音とで示され、また第6図に示す如きポルマ
ント周波数対時間特性を示すことが知られている。すな
わら、盲声の識別は音声波形を構成している基本周波数
(ピッチ周波数)と複数個のポルマントに基づいて行な
われていると見做されている。第1.第2及び第3ホル
マント(以下、ホルマント周波数ともいう)をF+ 、
F2及びF3どすると、−の音節は最初に漸次ホルマン
ト周波数変化を伴って子音部が発音され、次に母音部が
略一定のホルマント周波数により発音される。なお、母
音部発声期間はホルマント周波数F1〜F3と共にピッ
チ周波数も発生される。
Here, the singing voice consists of individual syllables indicating the lyrics and the "n" generated together with the syllables, the former being indicated by the consonant and vowel in the first parameter, and the pomant frequency as shown in Figure 6. It is known to exhibit characteristics over time. In other words, it is considered that the identification of blind voices is performed based on the fundamental frequency (pitch frequency) and a plurality of polmantos that make up the speech waveform. 1st. The second and third formants (hereinafter also referred to as formant frequencies) are F+,
In the case of F2 and F3, the consonant part of the - syllable is first pronounced with a gradual change in formant frequency, and then the vowel part is pronounced with a substantially constant formant frequency. Note that during the vowel part utterance period, a pitch frequency is also generated together with the formant frequencies F1 to F3.

上記子音部におけるホルマント周波数F1〜F3の変化
は子音によって異なり、例えば(1,d及びbの各子音
のホルマント周波数は第7図(A)、(B)及び(C)
に示す如くに変化することが一般に知られている。ここ
で、前記した合成パラメータ中のホルマントパラメータ
は−V記3種のホルマント周波数F+〜F3を決定する
パラメータである。また、ピッチパラメータは前記ピッ
チ周波数を定める。
Changes in the formant frequencies F1 to F3 in the consonant part differ depending on the consonant. For example, the formant frequencies of the consonants 1, d, and b are shown in Figure 7 (A), (B), and (C).
It is generally known that the change occurs as shown in the figure below. Here, the formant parameters in the synthesis parameters described above are parameters for determining the three formant frequencies F+ to F3 listed in -V. The pitch parameter also defines the pitch frequency.

一方、8節(歌詞)と其に発生される1:記の音は音の
iSさ、大きさ、長さによって定まり、これが楽譜デー
タとしC前記した如<CPU3に入力されるが、音階に
応じて第6図に示したホルマント周波数対時間特性が縦
軸方向に平行移動した如き特性どなり、前記ピッチパラ
メータ(ピッチ周波数)がその移動部(音の高さ)を定
める。また音の良さは母音部の時間長によって1qるこ
とができる。更に盲の大きざはコントロールキーボード
5によって入力されるが、音量パラメータどして前記合
成パラメータ中に含まれている。
On the other hand, the 8th verse (lyrics) and the notes generated by it are determined by the sound, size, and length of the note, and this is input into the CPU 3 as musical score data as described above, but it is not converted into a musical scale. Accordingly, the formant frequency vs. time characteristic shown in FIG. 6 becomes a characteristic as if it were moved in parallel in the vertical axis direction, and the pitch parameter (pitch frequency) determines the moving part (pitch of the sound). Also, the quality of the sound can be increased by 1q depending on the duration of the vowel part. Furthermore, the size of the blindness is input via the control keyboard 5, and is included in the synthesis parameters as well as the volume parameter.

この合成パラメータは第1のMll)Iデータ変換手段
29により公知のMTDT規格に適合したフォーマット
のデータ(これをMIDIデータどいつものとり−る)
に変換する(第5図のステップ41・の処理を行なう。
This synthesis parameter is converted into data in a format that conforms to the known MTDT standard by the first MIDI data conversion means 29 (this is then taken by the MIDI data).
(The process of step 41 in FIG. 5 is performed.)

)。ここで、MIDI規格とは楽器を演奏する際に行な
われる種々の操作(キーを押す、ポリコームを回すなど
)を夫々数パイ1〜のデータに変換し、複数の楽器、又
はそれらをコント[1−ルする機械との間で送受信する
ための規格である。MIDIデータは2〜3バイトのシ
リアルデータで伝送されるが、最初の1バイトがステー
タスで、後続のデータバイトがどのようなファンクショ
ンを持っているかを指示するメツセージになっている。
). Here, the MIDI standard converts the various operations performed when playing a musical instrument (pressing a key, turning a polycomb, etc.) into several pieces of data, and can be used to control multiple instruments or control them. - This is a standard for sending and receiving data between devices that use the Internet. MIDI data is transmitted as 2 to 3 bytes of serial data, the first byte of which is a status, and the subsequent data bytes are messages that indicate what function they have.

ステータスを含むデータ長は1〜3バイトと不定であり
、ステータスとデータとは各バイトの第1ビツトが“1
″のときステータス、“0″のときデータという形で認
識される。上記メツセージには大別して個別の操作デー
タを送るチャンネルメツセージと、ネットワークをコン
トロールするためのシステパムメツレージとに分けられ
る。
The data length including the status is undefined, 1 to 3 bytes, and the first bit of each byte is “1” for the status and data.
'' is recognized as status, and ``0'' is recognized as data. The above messages can be broadly divided into channel messages for sending individual operation data and system messages for controlling the network.

他方、データ受信部25において受信された前記楽器音
用楽譜データは、第2のMIDIデータ変換手段30に
供給され、ここで第2のMIDIデータに変換される(
第5図のステップ42)。
On the other hand, the musical instrument sound score data received by the data receiving section 25 is supplied to the second MIDI data converting means 30, where it is converted into second MIDI data (
Step 42 in FIG. 5).

この第2のMIDIデータは第1のMIDIデータ変換
手段29より取り出される第1のMIDIデータと共に
データ転送手段31に供給され、ここで第5図に示すス
テップ43〜56のデータ処理を受ける。すなわ15、
第5図において、データ転送手段31は総音符数をカウ
ントするための変数Jを[1]にセラ]へしくステップ
43)、他のカウント用変数11及びI2を夫々[0]
にセットした後(ステップ45)、第1のシンセサイザ
10よりM T I) Iインター7−[−ス9及びI
10インターフェース2を介して入来するデータに基づ
いてシンセサイ1f10は受信可能か否かが判定され、
受信可能でないときは、後述するステップ53へ移1j
シて、第2のシン1′!勺イIf11よりMIDIイン
ターフェース9及びI10インターフェース2を介して
入来するデータに基づいてシンセサイザ11が受信可能
か否かを判断し、受信可能状態であるとぎは後述のステ
ップ54のデータ処理を行ない、受信可能状態でないと
きは再びステップ45に戻り、第1のシンセリイブ10
の受信可能のも無をチェックする。
This second MIDI data is supplied to the data transfer means 31 together with the first MIDI data taken out from the first MIDI data conversion means 29, where it undergoes data processing in steps 43 to 56 shown in FIG. Sunawa 15,
In FIG. 5, the data transfer means 31 sets the variable J for counting the total number of notes to [1] (step 43), and sets the other counting variables 11 and I2 to [0], respectively.
(step 45), from the first synthesizer 10 M T I) I inter 7-[-s 9 and I
10 It is determined whether the synthesizer 1f10 is capable of receiving data based on the data coming in through the interface 2,
If reception is not possible, proceed to step 53, which will be described later.
Come on, second Shin 1'! The synthesizer 11 determines whether or not it is receivable based on the data that comes in from the If 11 via the MIDI interface 9 and the I10 interface 2, and if it is in a receivable state, it performs data processing in step 54, which will be described later. If the reception is not possible, the process returns to step 45 and the first synthesizer live 10
Check to see if it can be received.

第1のシンセ4J−イザ10が受信可能(イネーブル)
状態となった場合は、前記第1のMIDIデータのうち
、指示された再挿の子音のホルマント周波数F1〜F3
等に関する第1のデータを■10インターフェース2及
びMll)Iインターフェース9を夫々通してシンセサ
イザ10へ転送した後、変数11の値を[1]だけ加算
する(ステップ46.47)。加篩後の変数11の値が
N以上となるまで上記ステップ46及び47の処理動作
が繰り返される(ステップ4B)。
1st Synth 4J-Iza 10 can receive (enable)
If this occurs, the formant frequencies F1 to F3 of the indicated consonant to be reinserted in the first MIDI data.
After transferring the first data relating to the following data to the synthesizer 10 through the 10 interface 2 and the Mll) I interface 9, the value of the variable 11 is added by [1] (step 46.47). The processing operations of steps 46 and 47 are repeated until the value of variable 11 after sieving becomes equal to or greater than N (step 4B).

ここで、上記Nの値は子音部の発声時間帯において、一
定間隔(例えば0.33m5 )で、第1〜第3ホルマ
ント周波数F1〜F3の夫々についC行なうべき周波数
変更の回数を示している。これにより、上記のステップ
46〜4Bで第6図、第7図に示した如き子音部発声時
間帯のホルマント周波数F1〜F3の周波数変化を直線
近似的に行なわせる各ホルマント周波数については各々
3バイトの第1のデータが転送され、約311IS(与
3×3x 320μs)毎にホルマント周波数データが
書き換えられる。
Here, the value of N indicates the number of frequency changes to be made for each of the first to third formant frequencies F1 to F3 at regular intervals (for example, 0.33 m5) during the voicing time period of the consonant part. . As a result, in steps 46 to 4B described above, the frequency change of the formant frequencies F1 to F3 in the consonant part voicing time period as shown in FIGS. 6 and 7 is performed in a linear approximation. The first data of is transferred, and the formant frequency data is rewritten every approximately 311 IS (3×3×320 μs).

変数11の値がN以上となると、次に前記第1のMID
Iデータのうち母音のホルマント周波数F1〜F3.ピ
ッチ周波数FO及び音量等に関する第2のデータが第1
のシンセサイザ10へ転送されてピッチ周波数Foの設
定等が行なわれる(ステップ/19)。そして、前記時
間長テーブルに基づいて音価に従った時間長どなるよう
に、母音部の1間長さのチェックのためのタイムカラン
]〜が行なわれ、所定の時間長となると第2のデータの
送出がAフとされる(ステップ50)。データ転送手段
31は次に第1のデータをクリアした後(ステップ51
)、変数、ノの値を11」だ1プ増加づる(ステーツブ
52)。
When the value of variable 11 becomes N or more, then the first MID
Formant frequencies F1 to F3 of vowels in the I data. The second data regarding pitch frequency FO, volume, etc. is the first data.
The signal is transferred to the synthesizer 10, where pitch frequency Fo is set, etc. (step /19). Then, based on the time length table, a time calculation is performed to check the length of one interval of the vowel part to determine the time length according to the note value, and when the predetermined time length is reached, the second data is The transmission of is determined to be A-f (step 50). The data transfer means 31 then clears the first data (step 51
), the value of the variable is increased by 11'' (state 52).

しかる後に、第2のシンセサイザ11よりのデータに基
づいてシンセサイザ11が受信可能かどうか判断され、
受信可能状態のどきにデータ転送手段31はI10イン
ターフェース2及びMIDIインターフJ−ス9を介し
てシンセサイザ11へ前記第2のMIDIデータを転送
する(ステップ53.5/l)。なお、MIDIインタ
ーフT−ス9よりシンゼ(Vイブ10及び11のどちら
へデータを転送1−るかは、MIDIデータのステータ
ー18= スのチャンネルメツセージによって行ない得る。
After that, it is determined whether the synthesizer 11 can receive data based on the data from the second synthesizer 11,
When the data is ready for reception, the data transfer means 31 transfers the second MIDI data to the synthesizer 11 via the I10 interface 2 and the MIDI interface 9 (step 53.5/l). Incidentally, it is possible to determine which of the synths (Vibes 10 and 11) the data is to be transferred from the MIDI interface T9 to by a channel message of the MIDI data stator 18.

データ転送手段31は次に変数12の値を[11だけ増
加した後(ステップ55)、前記変数Jの値が歌声音用
楽譜の総音符数m1よりも大であるか、また上記変数I
2の値が楽器音用楽譜の総音符数m2よりも大であるか
の判定が行なわれ、J。
The data transfer means 31 next increases the value of the variable 12 by [11 (step 55), and then checks whether the value of the variable J is greater than the total number of notes m1 of the musical score for singing voice, and whether the value of the variable I
It is determined whether the value of 2 is greater than the total number of notes m2 of the musical score for musical instruments.

I2の値が”+ * ’ +112を越えるまで−に記
のステップ45〜55のデータ処理動作が繰り返され、
ml、I2を共に越えた時点で動作終了となる。
The data processing operations of steps 45 to 55 described in - are repeated until the value of I2 exceeds "+ * ' +112,
The operation ends when both ml and I2 are exceeded.

このようにして取り出された第1及び第2のMIDIデ
ータはI10インターフェース2を通してMl、DIイ
ンターフェース9に供給され、更にこれより第1のシン
セサイザ10又は第2のシンセサイザ11へ振り分けて
供給される。
The first and second MIDI data extracted in this way are supplied to the Ml and DI interface 9 through the I10 interface 2, and further distributed and supplied from there to the first synthesizer 10 or the second synthesizer 11.

第8図はMIDIインターフェース9の一例の回路図を
示す。I10インターフェース2よりのMIDIデータ
(第1.第2のMIDIデータ)は、信号処理装置58
のデータ入出力端子り、o〜D7に供給され、ここで並
直列変換等されてインバータ59,60.抵抗61.コ
ネクタ62等を介してシンセサイザ10又は11へ転送
される。
FIG. 8 shows a circuit diagram of an example of the MIDI interface 9. The MIDI data (first and second MIDI data) from the I10 interface 2 is sent to the signal processing device 58.
The data is supplied to the input/output terminals o to D7, where it is parallel-to-serial converted and sent to inverters 59, 60, . Resistance 61. The signal is transferred to the synthesizer 10 or 11 via the connector 62 or the like.

またシンセサイザ10又は11よりのデータはコネクタ
63.フォトカブラ6/lを夫々介して信号処理装置5
8に供給され、そのデータ入出力端子Do−r)7より
並列に出力される。なお、信号処]]!装詔58はクロ
ックモジュールI C65より例えば500kHzのク
ロックが供給される。
Also, data from the synthesizer 10 or 11 is sent to the connector 63. Signal processing device 5 via photocoupler 6/l, respectively.
8 and output in parallel from its data input/output terminal Do-r)7. Furthermore, the signal station]]! The device 58 is supplied with a clock of, for example, 500 kHz from the clock module IC65.

更に、シンセサイザ10及び11を接続する際のネット
ワークのために、入力はそのままインバータ66.67
、抵抗68及び]コネクタTI−IRU端子)60を介
1ノで出力される。
Furthermore, for the network when connecting synthesizers 10 and 11, the inputs are directly connected to inverters 66 and 67.
, resistor 68 and connector TI-IRU terminal) 60.

第9図は第1のシンセサイザ10の一実施例のブロック
系統図を示寸。MID[インターフェース9よりの第1
のMIDIデータはシンセサイザ10内の入出力インタ
ーフェース(図示せず)を介して入力端子701へ・7
06に順次入力される。
FIG. 9 shows a block diagram of an embodiment of the first synthesizer 10. MID [1st from interface 9
MIDI data is sent to the input terminal 701 via an input/output interface (not shown) in the synthesizer 10.
06 are input sequentially.

入力端子701〜704の入力データは電圧制御発振器
(VCO)71〜74に制御信号として供給される。こ
こで、VC,071,72及び73は夫々前記第1.第
2及び第3ホルマント周波数の信号を発生出力し、VC
O74はピッチ周波数FOの信号を発振出力する。また
入力端子705に入来したデータは低周波発振器(l 
FO)75に供給され、その発振動作を制御する。この
L F075の出力信号はVC071〜74に供給され
てその出力発振周波数を可変制御してビブラート効宋を
得ることができ、またL F O75の出力信号は電圧
制御フィルタ(V、CF)78及び電圧制御増幅器(V
CA>79に夫々供給されて特定の倍音のみを強調した
り、トレモロ効果を得ることができる。
Input data at input terminals 701-704 are supplied to voltage controlled oscillators (VCO) 71-74 as control signals. Here, VCs 071, 72 and 73 are the first VCs, respectively. Generates and outputs signals of the second and third formant frequencies, and
O74 oscillates and outputs a signal of pitch frequency FO. Furthermore, the data input to the input terminal 705 is transmitted to a low frequency oscillator (l).
FO) 75 and controls its oscillation operation. The output signal of this L F075 is supplied to VC071 to VC074 to obtain a vibrato effect by variable control of the output oscillation frequency, and the output signal of L F075 is supplied to voltage control filters (V, CF) 78 and Voltage controlled amplifier (V
It is possible to emphasize only specific harmonics or obtain a tremolo effect by supplying each signal to CA>79.

VC071〜74の各出力信号はリングモジュレータ7
6に夫々供給され、ここで各周波数の和又は差の周波数
の信号に変換された後ミキサ77に供給され、ここでV
C071〜74の各出力信号と混合される。リングモジ
コレ−タフ6は特定の音色を得るような場合に用いられ
、その動作は端子706よりのデータによって制御され
る。ミキサ77の出力混合信号はVCF7B、VCA7
9及び増幅器80を夫々経て第10図に示す如き波形の
信号どされてスピーカ81に供給される。
Each output signal of VC071 to 74 is sent to the ring modulator 7.
6, where it is converted into a signal with a sum or difference frequency of each frequency, and then supplied to a mixer 77, where V
It is mixed with each output signal of C071 to C074. The ring modifier 6 is used to obtain a specific tone, and its operation is controlled by data from a terminal 706. The output mixed signal of mixer 77 is VCF7B, VCA7
9 and an amplifier 80, a signal having a waveform as shown in FIG. 10 is outputted to a speaker 81.

第10図中、王はピッチ周期を示す。In FIG. 10, the king indicates the pitch period.

ここで、子音部発声1時間帯は端子701〜703にの
み所定のデータが印加されるので、VCO71,72及
び73から第1.第2及び第3ホルマント周波数F+、
F2及び[3が夫々同時的に出力され、かつ、ぞの周波
数値が前記N段階に分けて順次変更せしめられるが、V
CO74からは信号は光牛出力されない。これに対して
、母音部発声時間帯は前記第2のデータの一部によって
VCO74からは音階を定めるピッチ周波数Foが初め
て発生出力されると共に、VC071〜73からは引続
き第1へ・第3ホルマント周波数F1〜F3の信号が一
定値で夫々発生される。この結果、スピーカ81からは
歌詞キーボード1によって入力された歌詞が、音価キー
ボード4及びコントロール4−−ボード5によって入力
された楽譜及び再挿に従って人声音で発音される。また
、その人声音、すなわち歌轡音にはビブラート、トレモ
ロ等の如き音楽的変化をつ+jることもできる。この結
−22= 果、ニュアンスがつき、より好ましい歌声となる。
Here, predetermined data is applied only to the terminals 701 to 703 during the first consonant production period, so the first . second and third formant frequencies F+,
F2 and [3 are output simultaneously, and their frequency values are divided into the N stages and sequentially changed, but V
No signal is output from the CO74. On the other hand, in the vowel voicing time period, the pitch frequency Fo that determines the musical scale is generated and output from the VCO 74 for the first time based on a part of the second data, and the VCs 071 to 73 continue to produce the first and third formants. Signals of frequencies F1 to F3 are generated at constant values, respectively. As a result, the lyrics inputted by the lyrics keyboard 1 are pronounced by the speaker 81 in a human voice according to the musical score and reinsertion inputted by the note value keyboard 4 and the control 4--board 5. Furthermore, musical changes such as vibrato, tremolo, etc. can be applied to the human voice sound, that is, the vocal sound. As a result, the singing voice becomes more nuanced and more desirable.

なお、第9図に示したシンセサイザ10は、キーボード
82の使用によって従来と同様に楽器音だけを得ること
もできる。
Note that the synthesizer 10 shown in FIG. 9 can also obtain only musical instrument sounds by using the keyboard 82 as in the conventional case.

一方、第9図と同様構成の第2のシンセサイザ11内の
vcoやL F O等には前記第2のMIDIデータが
印加され、楽器音用楽譜データに従った楽器音がシンセ
サイザ11のスピーカより発音される。従って、第1の
シンセサイザ10よりの歌声前tま第2のシンセサイザ
11よりの楽器音と共に同期して発音せしめられること
になる。
On the other hand, the second MIDI data is applied to the VCO, LFO, etc. in the second synthesizer 11 having the same configuration as in FIG. pronounced. Therefore, the singing voice from the first synthesizer 10 is emitted in synchronization with the musical instrument sound from the second synthesizer 11 until t before the singing voice from the first synthesizer 10.

なお、本発明において、ピッチパラメータ変換手段はテ
ーブルから読み取るものに限らず、その値を計算で求め
ることもできる。またホルマントの数は3以外の複数で
もよく、更にまたスピーカ81に供給する子音の合成音
声信号波形は、第11図に示す如く、第1〜第3ホルマ
ント周波数F+〜F3の信号を時分割的に合成した波形
であってもよい。
In the present invention, the pitch parameter converting means is not limited to reading from a table, but can also calculate the value. Further, the number of formants may be a plurality other than three, and the waveform of the consonant synthesized speech signal supplied to the speaker 81 is as shown in FIG. It may also be a waveform synthesized with.

発明の効果 −に述の如く、本発明によれば、2つのシンセサイザを
用いて歌声前と楽器音とを別々に、又は同時に発音する
ことができ、よって楽器音を伴奏音とした歌声前の発生
ができ、またホルマント周波数等を合成するようにした
ので、子音としてホワイ1−ノイズを利用する従来装置
に比し、自然で明瞭な歌声前を発生することができ、更
にシンセサイザを用いているので歌声前に音楽的変化を
もたせることができ、双子より従来装置に比し、はるか
に魅力的な、かつ、表坦力に富んだ歌声前を発生覆るこ
とができる等の数々の特長を有するものである。
As described in ``Effects of the Invention'', according to the present invention, the pre-singing voice and the instrumental sound can be generated separately or simultaneously using two synthesizers, so that the pre-singing voice with the instrumental sound as the accompaniment sound can be generated separately or simultaneously. Because it synthesizes formant frequencies, etc., it can generate natural and clear singing voices compared to conventional devices that use why-noise as consonants, and it also uses a synthesizer. Therefore, it is possible to create a musical change before the singing voice, and compared to conventional devices, it has many features such as being able to produce a much more attractive and expressive voice before the singing voice. It is something.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明装置の一実施例を示すブロック系統図、
第2図及び第3図は第1図図示ブロック系統中の各キー
ボードの概略構成を示す図、第4図は本発明装置の要部
の一実施例を示すブロック系統図、第5図は本発明装置
の要部の動作説明用フローブjl−1−1第6図は合成
音声の子音部、ffl音部とホルマント周波数の関係を
示す図、第7図は各子音のホルマント周波数と時間との
関係を示す図、第8図は第1図図示ブロック系統中のM
IDIインターフェースの一例の回路図、第9図は第1
図図示ブロック系統中のシンセサイザの一実施例を示す
ブロック系統図、第10図及び第11図は夫々第9図図
示ブロック系統中のスビiカの人力合成音声信号波形の
各個を示す図である。 1・・・歌詞キーボード、2・・・I10インターフェ
ース、3・・・中央処理装置(CPLJ)、4・・・音
節キーボード、5・・・コントロールキーボード、6・
・・ランダム・アクセス・メモリ(RAM)、7・・・
リード・オンリ・メモリ(ROM>、9・・・MIDI
インターフェース、10.11・・・シンセサイザ、1
2・・・ビデオコントローラ、13・・・ビデオ・ラン
ダム・アクセス・メモリ(V、RAM)、25・・・デ
ータ受信部、26・・・テーブル作成手段、27・・・
ピッチパラメータ変換手段、28・・・合成パラメータ
作成手段、29・・・第1のMll)Iデータ変換手段
、30・・・第20M1r)Iデータ変換手段、31・
・・データ転送手段、70+”706・・・入力端子、
71・〜7/I・・・電1−f−制御発振器(VCO)
、75・・・低周波発振器(1−[))、77・・・ミ
キ1ノ。 特許出願人 日本ビクター株式会社 =26−
FIG. 1 is a block diagram showing an embodiment of the device of the present invention;
2 and 3 are diagrams showing the schematic configuration of each keyboard in the block system shown in FIG. Flowchart jl-1-1 for explaining the operation of the main parts of the inventive device Figure 6 is a diagram showing the relationship between the consonant part, ffl sound part and formant frequency of synthesized speech, and Figure 7 is a diagram showing the relationship between the formant frequency of each consonant and time. Figure 8 shows the relationship between M in the block system shown in Figure 1.
A circuit diagram of an example of an IDI interface, FIG.
FIG. 10 and FIG. 11 are block system diagrams showing one embodiment of the synthesizer in the block system shown in FIG. . DESCRIPTION OF SYMBOLS 1... Lyrics keyboard, 2... I10 interface, 3... Central processing unit (CPLJ), 4... Syllable keyboard, 5... Control keyboard, 6...
...Random access memory (RAM), 7...
Read-only memory (ROM>, 9...MIDI
Interface, 10.11...Synthesizer, 1
2... Video controller, 13... Video random access memory (V, RAM), 25... Data receiving unit, 26... Table creation means, 27...
pitch parameter conversion means, 28... synthesis parameter creation means, 29... first Mll) I data conversion means, 30... 20th M1r) I data conversion means, 31.
...Data transfer means, 70+"706...Input terminal,
71・~7/I...Electric 1-f-controlled oscillator (VCO)
, 75...Low frequency oscillator (1-[)), 77...Miki 1no. Patent applicant: Victor Japan Co., Ltd. = 26-

Claims (1)

【特許請求の範囲】[Claims] 入力歌詞データを子音と母音を単位とするパラメータに
分解して第1のテーブルを作成するテーブル作成手段と
、入力楽譜データの中の音階データに従ってピッチパラ
メータに変換するピッチパラメータ変換手段と、作成さ
れた該第1のテーブルに従ってメモリから読み出したホ
ルマントパラメータに、上記ピッチパラメータを組み合
わせて編集及び補間された合成パラメータを生成すると
共に上記楽譜データの中の音価データに従って時間長テ
ーブルを作成し、それらを一時記憶する合成パラメータ
作成手段と、該合成パラメータを特定の規格のデータに
変換する第1のデータ変換手段と、入力楽器音用楽譜デ
ータを該特定の規格のデータに変換する第2のデータ変
換手段と、複数個の可変周波数発振器の出力信号を混合
して出力する第1及び第2のシンセサイザと、該第1の
データ変換手段の出力データのうち複数のホルマント周
波数に関するデータを転送し、かつ、該ピッチパラメー
タに関するピッチ周波数データを母音部発声期間中のみ
前記時間長テーブルに基づく期間発生出力すると共に、
該第2のデータ変換手段の出力データを順次出力するデ
ータ転送手段と、該データ転送手段よりの転送データの
うち複数のホルマント周波数に関するデータと該ピッチ
周波数データとを該第1のシンセサイザ内の該複数個の
可変周波数発振器の制御信号として別々に供給すると共
に、該第2のデータ変換手段の出力データを該第2のシ
ンセサイザ内の該複数個の可変周波数発振器の制御信号
として供給するインターフェース手段とよりなることを
特徴とする歌声音発生装置。
table creation means for creating a first table by decomposing input lyrics data into parameters having consonants and vowels as units; pitch parameter conversion means for converting into pitch parameters according to scale data in input musical score data; The formant parameters read from the memory according to the first table are combined with the pitch parameters to generate edited and interpolated synthesis parameters, and a time length table is created according to the note value data in the musical score data. a first data conversion means that converts the synthesis parameters into data of a specific standard; and a second data converter that converts the musical score data for the input instrument sound into data of the specific standard. a converting means, first and second synthesizers that mix and output output signals of a plurality of variable frequency oscillators, and transfer data regarding a plurality of formant frequencies among the output data of the first data converting means; and generates and outputs pitch frequency data regarding the pitch parameter based on the time length table only during the vowel part utterance period,
data transfer means for sequentially outputting the output data of the second data conversion means; and a data transfer means for sequentially outputting the output data of the second data conversion means; Interface means for separately supplying the plurality of variable frequency oscillators as control signals, and supplying output data of the second data conversion means as the control signals for the plurality of variable frequency oscillators in the second synthesizer; A singing voice generating device characterized by:
JP59203464A 1984-09-28 1984-09-28 Singing sound generator Pending JPS6180300A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59203464A JPS6180300A (en) 1984-09-28 1984-09-28 Singing sound generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59203464A JPS6180300A (en) 1984-09-28 1984-09-28 Singing sound generator

Publications (1)

Publication Number Publication Date
JPS6180300A true JPS6180300A (en) 1986-04-23

Family

ID=16474559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59203464A Pending JPS6180300A (en) 1984-09-28 1984-09-28 Singing sound generator

Country Status (1)

Country Link
JP (1) JPS6180300A (en)

Similar Documents

Publication Publication Date Title
JP3333022B2 (en) Singing voice synthesizer
US5590282A (en) Remote access server using files containing generic and specific music data for generating customized music on demand
JP3102335B2 (en) Formant conversion device and karaoke device
US5704007A (en) Utilization of multiple voice sources in a speech synthesizer
US6191349B1 (en) Musical instrument digital interface with speech capability
JPH0950287A (en) Automatic singing device
US11942071B2 (en) Information processing method and information processing system for sound synthesis utilizing identification data associated with sound source and performance styles
Lindemann Music synthesis with reconstructive phrase modeling
CN107430849A (en) Sound control apparatus, audio control method and sound control program
JPH11184490A (en) Singing synthesizing method by rule voice synthesis
JP2564641B2 (en) Speech synthesizer
JP4277697B2 (en) SINGING VOICE GENERATION DEVICE, ITS PROGRAM, AND PORTABLE COMMUNICATION TERMINAL HAVING SINGING VOICE GENERATION FUNCTION
JP2002278548A (en) Lyric writing and composing system and program
JPH11126083A (en) Karaoke reproducer
JP3307283B2 (en) Singing sound synthesizer
JPS6180300A (en) Singing sound generator
JPH0728483A (en) Musical sound generating device
JP3265995B2 (en) Singing voice synthesis apparatus and method
JPS6183600A (en) Singing voice synthesizer/performer
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
JPS6183599A (en) Singing voice synthesizer/performer
JPH0895588A (en) Speech synthesizing device
EP0396141A2 (en) System for and method of synthesizing singing in real time
JP3457582B2 (en) Automatic expression device for music
JPH0812559B2 (en) Singing voice generator