JP3144273B2 - 自動歌唱装置 - Google Patents
自動歌唱装置Info
- Publication number
- JP3144273B2 JP3144273B2 JP21824195A JP21824195A JP3144273B2 JP 3144273 B2 JP3144273 B2 JP 3144273B2 JP 21824195 A JP21824195 A JP 21824195A JP 21824195 A JP21824195 A JP 21824195A JP 3144273 B2 JP3144273 B2 JP 3144273B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- event
- lyrics
- sound
- syllable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/011—Lyrics displays, e.g. for karaoke applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/471—General musical sound synthesis principles, i.e. sound category-independent synthesis methods
- G10H2250/481—Formant synthesis, i.e. simulating the human speech production mechanism by exciting formant resonators, e.g. mimicking vocal tract filtering as in LPC synthesis vocoders, wherein musical instruments may be used as excitation signal to the time-varying filter estimated from a singer's speech
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
形式で入力された歌詞データに基づいて対応する音素を
発音し、当該歌詞を人声音で歌唱するようになされた自
動歌唱装置に関する。
いて利用されており、できるだけ自然な音声を出力する
ために各種の工夫がなされている。また、歌詞に対応す
る音素を発声するようになされた歌唱装置も提案されて
いる(例えば、特開昭58−37693号公報)。この
提案されている歌唱装置は、歌詞データを予め記憶して
おき、鍵盤などの操作により、前記歌詞データを順次読
み出して音声合成回路に入力し、歌詞データに対応する
音素を発音させるものであった。
トデータの読み上げなどの通常の音声合成の場合とは異
なり、発音した音節と次に発音する音節との間に無声部
があると歌唱としては不自然なものとなる場合があるこ
と、および、単一の音符に対して複数の音節を発音する
場合があることなどの歌唱特有の条件が存在している。
しかしながら、従来の装置においては、上述したような
歌唱特有の条件について十分な配慮がなされているもの
とは言えず、いかにも機械により発音された音声という
印象を与えるものであった。
することができる自動歌唱装置を提供することを目的と
している。
に、本発明の自動歌唱装置は、歌詞シーケンスデータと
メロディシーケンスデータとを記憶し、前記メロディシ
ーケンスデータの読み出しに対応して前記歌詞シーケン
スデータを読み出し、前記歌詞シーケンスデータに対応
した音素を発音させて当該歌詞を歌唱させるように構成
された自動歌唱装置であって、前記歌詞シーケンスデー
タは、当該歌詞の各音節に対応するボイスイベントデー
タを有し、前記各ボイスイベントデータは、少なくと
も、発音する音節を指定する音韻指定データ、および、
一つの音符の発音期間内で発音すべき他の音節が存在し
ているときにその発音期間内にこのボイスイベントが占
める発音時間の割合を示すデータを含み、かつ、操作者
により編集することができるようになされているもので
ある。また、前記ボイスイベントデータは、子音を含む
音節を発音する場合における当該子音の発音時間を示す
子音発音時間データを含むものである。
歌唱装置のシステム構成の一例を示す図である。この図
において、1はこの電子楽器全体の制御を行う中央処理
装置(CPU)、2は制御プログラムおよび各種のデー
タなどが格納されているROM、3はワーク領域および
各種のバッファなどとして使用されるRAM、4はメロ
ディシーケンスデータ、歌詞シーケンスデータおよび音
声合成用のデータなどが格納されるデータメモリ、5は
機器の動作状態や入力データおよび操作者に対するメッ
セージなどを表示するための表示部である。6は歌詞デ
ータなどのテキストデータを入力するための文字テキス
ト入力操作部であり、たとえばASCIIキーボードな
どが用いられる。7はタイマー、8は鍵盤などからなる
演奏操作子、9は操作つまみや操作ボタンなどの各種設
定操作子である。
G)を有する音源部であり、音源部10の各音源は、3
つの発音チャンネルFORMANT TG CH 10−1、10−2
および10−3に割り当てられている。なお、この例に
おいては、10−1〜10−3の3つの発音チャンネル
が設けられているが、発音チャンネルは少なくとも2つ
設けることができればよいものである。また、各音源は
楽音の発生も行うことができ、発音チャンネルとして割
り当てられていない音源は、楽音の発生に割り当てるこ
とができるものである。13は音源部10から出力され
るデータをデジタルアナログ変換するD/A変換器であ
り、14は、該D/A変換器13からの出力を増幅し、
音響信号に変換して出力するサウンドシステムである。
また、15は装置内各部の間のデータ転送を行うための
バスである。
3の構成を示す。各発音チャンネル10−1〜10−3
は、音声合成を行うことのできるものであればどのよう
な方式によるものであってもよいが、ここでは、図2に
示すように、有声音(母音)の発音を受け持つ4個の音
源VTG1〜4からなる有声音成分発音(VTG)グル
ープ11と、無声音(子音)の発音を受け持つ4個の音
源UTG1〜4からなる無声音成分発音(UTG)グル
ープ12とからなるものを採用している。なお、このよ
うな音声合成装置は本出願人により既に提案されている
(特開平3−200299号公報)。また、音源部は、
CPUによって音源プログラムを実行させること、即
ち、ソフトウエアで置き換えることも可能である。
−1〜10−3において、有声音の発音を受け持つVT
Gグループ11の各音源VTG1〜4は、当該音声の母
音部のフォルマントの特徴的な4つの部分をそれぞれ分
担して発生する。すなわち、各音源VTG1〜4は、C
PU1から印加される有声音発音指示信号VKONによ
りその動作が開始され、CPU1から有声音フォルマン
トデータVFRMNT DATAして供給される、フォルマント中
心周波数データ、フォルマントレベルデータ、およびフ
ォルマント帯域幅データにより、当該フォルマントの各
音源VTGが担当している部分の特性が制御されるもの
であり、これら各VTG1〜4からのフォルマント出力
を合成することにより、当該音声の母音部が生成される
ものである。また、各音源VTG1〜4のピッチ周波数
を制御することにより、発生される音声の音高が制御さ
れる。
ープ12の各音源UTG1〜4は、当該音声の子音部を
分担して発音するものである。すなわち、各音源UTG
1〜4は、CPU1から印加される無声音発音指示信号
UKONによりその動作が開始され、CPU1から供給
される無声音フォルマントデータUFRMNT DATA に含まれ
ている各パラメータにより、音源により発音したホワイ
トノイズにそれぞれが分担している帯域通過特性あるい
はフォルマント特性を付加して出力する。そして、これ
ら各UTG1〜4からの出力を合成することにより、当
該音声の子音部が生成されるものである。
−1〜10−3を用いて音声を出力させる場合、制御部
であるCPU1は、まず、使用する発音チャンネルを指
定し、該発音チャンネルの無声音成分発音グループ12
に対して、無声音フォルマントデータUFRMNT DATA によ
り所定のパラメータを供給するとともに、無声音発音指
示信号UKONを印加する。そして、有声音成分発音グ
ループ11に対して有声音フォルマントデータVFRMNT D
ATA により所定のパラメータを供給し、無声音の発音時
間経過後に有声音発音指示信号VKONを印加する。こ
れにより、無声音成分発音グループ12により子音が発
音され、それに続けて、有声音成分発音グループ11に
より母音が発音される。この無声音成分発音グループ1
2の出力と有声音成分発音グループ11の出力は加算手
段16により加算されて、当該音声合成出力が得られ
る。
化するときや、アクセントを付けるために声の高さを変
更するときなどに、発生するフォルマントを連続的に変
化させることが自然な発声に聞こえるために重要であ
る。したがって、前述したフォルマント中心周波数、フ
ォルマントレベル、フォルマント帯域幅およびピッチ周
波数などの各パラメータを、所定時間間隔で(例えば、
数ミリ秒程度の間隔で)、制御部であるCPU1から逐
次送出して制御すること、あるいは、各音源に含まれて
いるエンベロープジェネレータにより前記各パラメータ
を逐次制御させることが行われる。
発音チャンネルを用いることにより、一つの音節を発音
した後に次の音節を発音させる場合に、現在発音してい
る発音チャンネルをキーオフし、別の発音チャンネルを
用いて次の音節を発音させることにより、音のつながり
時における雑音や不自然な発音を防ぐことができるよう
になる。
らない限りは、前の音節と次の音節とを連続して発音す
るのが通常であり、一方、メロディシーケンスデータの
場合は、実際には音符長分全部を発音せず、音符と音符
との間に鍵盤の押し変えなどによる空白時間が存在して
いるのが通常である。そこで、歌詞データを発音すると
きは、メロディシーケンスデータにおける音符と音符と
の間の空白時間に無関係に、音符と音符とを連続させ、
スラー的に発音させることにより、人間の歌唱の場合と
同様な自然な発声が可能となる。
力されるデータについて説明する。図3に示すように、
歌唱データaは音符により表される演奏データcと歌詞
データbとからなる。演奏データcは、通常の電子楽器
の場合と同様に、演奏操作子の操作やデータの打ち込み
などにより、図に示すように、例えば、MIDIコード
などのメロディシーケンスデータとして入力され、デー
タメモリ4に格納される。
文字テキスト入力操作部6から、通常のワードプロセッ
サなどにおける文字入力の場合と同様にテキストコード
で入力される。ただし、歌詞テキストデータはローマ字
表記により入力するものとし、また、音符と歌詞との関
連を持たせるために、音符の区切りを示す区切り記号を
付加して入力するものとされている。この区切り符号と
してはスペースなどを使用することができ、例えば、1
つの4分音符に対して「さい」と2音節歌唱させる場合
には、' sa''i''_' と入力する。このようにして入
力される歌詞テキスト入力データは、後述するように、
RAM3における歌詞テキスト入力バッファ領域TXTBUF
に格納される。
される各種データについて説明する。図4の(a)は、
RAM3のメモリマップを示す図であり、CPU1によ
り使用されるCPUワーキングエリア、歌詞テキストバ
ッファTXTBUF、および、歌詞テキスト入力バッファTXTB
UFに格納された歌詞テキスト入力データを解析・変換す
ることにより得られる歌詞シーケンスデータを格納する
ための歌詞シーケンスデータバッファLYRIC DATA BUFの
ための領域が確保されている。
グ、DUR レジスタ、SLURフラグおよびCTIME BUF などの
領域が確保されている。PLAYONフラグは、この装置が演
奏中であるか否かを示すフラグであり、演奏中のときに
「1」にされ、演奏中でないときに「0」にされる。DU
R レジスタは、後述するメロディシーケンスデータ中に
含まれるデュレーションデータDURATIONが記憶される領
域である。SLURフラグは、後述するように単一の音符の
発音時間の中で複数の音節が発音される場合に「1」に
されるフラグである。CTIME BUF は、後述する子音の発
音時間データが格納される領域である。
は、前述したように、文字テキスト入力操作部6から入
力される、区切り記号により区切られた歌詞テキストデ
ータが格納される領域である。そして、この歌詞テキス
トデータは、CPU1により音素辞書を参照するなどし
て各音素データに分解され、歌詞シーケンスデータLYRI
C DATAに変換される。歌詞シーケンスデータバッファLY
RIC DATA BUFは、このようにして変換された歌詞シーケ
ンスデータLYRIC DATAが格納される領域である。そし
て、この歌詞シーケンスデータバッファLYRIC DATA BUF
に格納された歌詞シーケンスデータLYRIC DATAは、デー
タメモリ4に転送される。
C DATA BUFを設けることなく、歌詞テキスト入力バッフ
ァTXTBUFの内容から変換された歌詞シーケンスデータLI
RICDATAをデータメモリ4の対応する領域に直接書き込
むように構成してもよい。
タの詳細について、図4の(b)〜図6を参照して説明
する。図4の(b)は、データメモリ4のメモリマップ
を示す図である。この図に示すように、データメモリ4
は、各音節に対応するフォルマントデータFRMNT DATAa
〜zが格納されているフォルマントデータ格納領域A、
各楽曲の歌詞シーケンスデータLYRIC DATAが格納されて
いる歌詞シーケンスデータ格納領域Bおよび各楽曲のメ
ロディシーケンスデータMELODY SEQ DATA が格納されて
いるメロディシーケンスデータ格納領域Cの3つの領域
に大別される。
節に対応するフォルマントデータがFRMNT DATAaからFR
MNT DATAzまで格納されている。この各フォルマントデ
ータFRMNT DATAは、図5の(a)に示すように、有声音
成分発音グループ11の各音源VTG1〜4にそれぞれ
供給される有声音フォルマントデータVFRMNT1〜4、無
声音成分発音グループ12の各音源UTG1〜4にそれ
ぞれ供給される無声音フォルマントデータUFRMNT1〜4
および発音時に均一な大きさの音になるようにするため
のボリューム補正データなどの補足データMISCからな
る。なお、当該音節が母音のみからなる音節の場合に
は、無声音フォルマントデータUFRMNT DATA〜4には空
データが入っている。
および各無声音フォルマントデータUFRMNT1〜4は、い
ずれも、図5の(b)に示すフォーマットを有してお
り、フォルマント中心周波数データFRMNT FREQ、フォル
マントレベルデータFRMNT LVLフォルマント帯域幅デー
タFRMNT BWおよびフォルマントの補足データFRMNT MISC
とからなる。そして、フォルマント中心周波数データFR
MNT FREQには、図5の(c)に示すように、FRMNT FRQ
1〜FRMNT FRQ lのl個のフォルマント中心周波数デー
タが格納されており、これらのデータはフレームタイミ
ング毎に順次読み出されて、前記VTGグループ11ま
たはUTGグループ12の対応する音源に印加される時
系列データである。
L およびフォルマント帯域幅データFRMNT BWについて
も、図5の(d)および(e)に示すように、それぞ
れ、FRMNT LVL 1〜FRMNT LVL lおよびFRMNT BW1〜FR
MNT BWlのl個の時系列データが格納されており、これ
らのデータも順次読み出されて前記VTGグループ11
またはUTGグループ12の対応する音源に印加され
る。このように構成することにより、時間的に変動する
フォルマントデータを再生することができる。
に記憶しておき、途中の時間については補間演算により
実際の制御パラメータを発音させるようにすること、あ
るいは、前の時間のデータと同じ場合には同じデータの
格納を省略するなどの方法により、記憶容量を圧縮する
ようにしてもよい。さらに、フォルマント補足データFR
MNT MISCには、例えば、ビブラートや揺らぎのようなエ
フェクトを付加するためのデータが記憶されている。
述したRAM3の歌詞シーケンスデータバッファLYRIC
DATA BUFから転送された歌詞シーケンスデータLYRIC DA
TAが格納されている。この各歌詞シーケンスデータLYRI
C DATAは、図6の(f)に示すように、当該歌詞の名称
LYRICNAME 、当該歌詞の各音節に対応するボイスイベン
トデータVEVENT1〜VEVENTmおよび当該歌詞シーケンス
データLYRIC DATAの終了を示すエンドコードEND からな
っている。
図6の(g)に示すように、発音する音節を指定する音
韻指定データVOICE INDEX 、子音を含む音節を発音する
場合に当該子音の発音時間を表す子音発音時間データCO
NSO TIME、当該音節の後に息継ぎをするか否かを示す呼
気指定フラグBREATH FLG、一つの音符の発音期間内、す
なわち、同一キーオンイベント内で発音すべき他の音節
が後続しているか否かを示す連続発音指定フラグLSLUR
FLG 、および、同一キーオンイベント内で発音すべき他
の音節が存在しているときに、該キーオンイベントの継
続時間(DURATIN TIME)の内にこのボイスイベントが占
める発音時間の割合を示す発音持続レートデータDUR RA
TEが含まれている。すなわち、同一キーオンイベント内
で発音すべき他の音節があるときには、このボイスイベ
ントの音節が発音される期間dは、d=(DURATION)×
(DUR RATE)により規定され、後続するボイスイベント
はd時間後にその発音を開始されることとなる。
は、各楽曲のメロディシーケンスデータMELODY SEQ DAT
A が格納されている。各メロディシーケンスデータMELO
DY SEQDATA は、図6の(h)に示すように、当該楽曲
の曲名TITLENAME 、各イベントデータEVENT 1〜EVENT
nおよび当該メロディシーケンスデータMELODY SEQ DAT
A の終了を示すエンドコードEND からなっている。各イ
ベントデータEVENT 1〜nは、通常の自動演奏データと
同一のものであり、図6の(i)に示すように、キーオ
ンまたはキーオフのいずれかの命令コードが格納されて
いるステイタスバイトSTATUS(KEYON /OFF )、キーコ
ード情報KEYCODE およびタッチ情報TOUCHどからなるキ
ーイベント情報と、イベントとイベントの間の時間情報
であるデュレーションデータDURATIONとが交互に格納さ
れているものである。なお、キーオンイベントにおい
て、タッチ情報TOUCH =0のときはキーオフイベント
(KEYOFF)として取り扱われるようになっている。
LODY SEQ DATA と歌詞シーケンスデータLYRIC DATAとが
独立してデータメモリ4に格納されているので、すでに
蓄積されているメロディシーケンスデータMELODY SEQ D
ATA に対応する歌詞シーケンスデータLYRIC DATAを後か
ら格納することが可能となり、過去に格納したメロディ
シーケンスデータMELODY SEQ DATA を有効に利用するこ
とができる。また、メロディシーケンスデータMELODY S
EQ DATA と歌詞シーケンスデータLYRIC DATAとは必ずし
も1対1の対応関係とする必要はなく、例えば、一つの
メロディシーケンスデータMELODY SEQ DATA に対して、
複数の歌詞シーケンスデータLYRIC DATAを対応させた
り、あるいは、その逆の関係とすることも可能であり、
替え歌を歌唱させることも可能である。
る動作について、図7〜図12のフローチャートを参照
しつつ説明する。図7に、CPU1により実行されるメ
インプログラムのフローチャートを示す。なお、煩雑さ
を避けるために、このメインプログラムにおいては、本
発明に関係する演奏モードと歌詞編集モードの2つの動
作モードにおける処理についてのみ記載してあるが、実
際には、メロディシーケンスデータの入力および編集処
理などのその他の処理も、後述する発音処理400と操
作イベント検出処理101との間に挿入されて実行され
るようになされている。
プ100において装置の初期設定が行われる。続いて、
ステップ101において、文字テキスト入力操作部6、
演奏操作子8あるいは設定操作子9などからの操作イベ
ントがあるか否かが検出され、ステップ102におい
て、検出された操作イベントに対応して演奏する曲の指
定など各種のパラメータの設定処理が行われる。次い
で、ステップ103において、当該操作イベントがモー
ドに関する操作である場合には、それに対応して演奏モ
ードであるか歌詞編集モードであるかのモードの設定管
理が行われる。
動作モードが演奏モードであるか否かが判定され、演奏
モードのときはステップ200の演奏処理に進み、ま
た、演奏モードでないときは、歌詞編集モードであるか
ら、ステップ300の歌詞編集処理に進む。そして、ス
テップ200の演奏処理あるいはステップ300の歌詞
編集処理が終了した後に、ステップ400の発音処理が
実行され、再びステップ101の操作イベント検出処理
に戻る。以下、これらの処理が繰り返されることとな
る。
て、図8〜図10を参照して説明する。ステップ200
の演奏処理に入ると、まず、ステップ201において、
現在装置が演奏中であるか否かを、RAM3の中のPLAY
ONフラグを参照することにより判定する。このPLAYONフ
ラグが「0」、すなわち、非演奏中のときは、ステップ
202に進み、図7に示したメインプログラムにおける
操作イベント検出処理101において検出された操作イ
ベントが歌唱スタートイベントであるか否かが判定され
る。この判定結果がNOのときは、演奏処理200を終
了する。
O、すなわち、現在演奏中であるときには、ステップ2
42に進み、前述したステップ101で検出された操作
イベントが演奏ストップイベントであるか否かが判定さ
れる。この判定結果がYESのときはステップ243に
進み、前記PLAYONフラグを「0」にリセットし、演奏終
了処理を行って、演奏処理200を終了する。また、こ
のステップ242の判定結果がNOのときは後述するス
テップ204に進む。
ESのとき、すなわち、当該イベントが歌唱スタートイ
ベントであるときは、ステップ203に進み、音符の間
隔、すなわち、デュレーションの時間を計数しているDU
RATIONタイマーをリセットし、ボイスイベントポインタ
mおよびメロディイベントポインタnを、それぞれ、
「1」にセットするとともに、RAM3中のPLAYONフラ
グを「1」にセットする。ここで、ボイスイベントポイ
ンタmは、データメモリ4の歌詞シーケンスデータ格納
領域B中に格納されている対応する歌詞シーケンスデー
タLYLIC DATA中のボイスイベントデータVEVENTの読み出
し位置を指定するポインタであり、メロディイベントポ
インタnは、データメモリ4のメロディシーケンスデー
タ格納領域Cに格納されている対応する楽曲のメロディ
シーケンスデータMELODY SEQ DATAのイベントデータEVE
NT の読み出し位置を指定するポインタである。
のステップ204は、前記ステップ203の実行後、あ
るいは、前記したように、演奏中(ステップ201の結
果がNO)において当該操作イベントが演奏ストップイ
ベント以外のイベント(ステップ242の結果がNO)
であるときに実行される。ステップ204においては、
DURATIONタイマーにおけるデュレーションデータの計数
が完了したか否かが判定される。この判定結果がNOの
ときは、演奏処理200は終了される。一方、DURATION
タイマーがリセットされた状態にあったり、あるいは、
デュレーションデータDURATIONの計数が完了していて、
この判定結果がYESとなるときは、ステップ205に
進む。
URフラグが「0」となっているか否かが判定される。前
述したように、SLURフラグは、同一キーオンイベント期
間中に複数の音節を発音する場合に「1」にされるフラ
グであるから、このステップ205の判定結果がYES
のときは同一キーオンイベント期間中に発音すべき他の
音節がないことを示し、NOのときは同一キーオンイベ
ント期間中に発音すべき他の音節が存在していることを
示している。そして、この判定結果がNOのときは、次
に説明するステップ206からステップ209の処理を
行わずに、後述するステップ210に進み、YESのと
きはステップ206に進む。
のメロディシーケンスデータ格納領域Cのメロディイベ
ントポインタnにより指定される位置から対応するメロ
ディシーケンスデータMELODY SEQ DATA に含まれている
イベントデータEVENT nが読み出される。前述したよう
に、メロディシーケンスデータMELODY SEQ DATA から読
み出されるデータは、キーイベントデータ、デュレーシ
ョンデータあるいはEND コードのいずれかである。そし
て、ステップ207において、該読み出したイベントデ
ータEVENT nがキーイベントデータであるか否かが判定
される。この判定結果がYESのときは、ステップ20
8において、現在の動作モードが歌唱モードであるか否
かが判定され、その判定結果がYESのときは、ステッ
プ209において、そのキーイベントデータがKEYON イ
ベントであるか否かが判定される。
は、ステップ210に進みデータメモリ4の歌詞シーケ
ンスデータ格納領域B中のボイスイベントポインタmに
より指定される位置から歌詞シーケンスデータLYRIC
DATA中のボイスイベントデータVEVENTmを読み出す。続
いて、図9に示すステップ211に進み、ステップ21
0において読み出したボイスイベントデータVEVENTm中
のLSURフラグが「0」であるか否かが判定される。
212において、前のボイスの発音状態、すなわち、現
在歌詞を発音中であるか否かをチェックする。そして、
ステップ213において、前のボイスに対応する発音チ
ャンネルが発音中であるか否かが判定され、現在前の音
声を発音中であるときは、ステップ214において、該
発音中の発音チャンネルに対してKEYOFFを出力してか
ら、一方、発音中の音声がないときは、直接にステップ
215に進む。そして、ステップ215において、音源
部FORMANT TG10の空きチャンネルを探し、そのチャン
ネルをこのボイスイベントに対応する音節に対応する発
音を行うために割り当てる。
215において割り当てられた発音チャンネルFORMANT
TG CH に対し、当該ボイスイベントデータVEVENTm中に
記載されているVOICE INDEX mにより指定されるフォル
マントデータFRMNT DATAを用い、KEYON 信号を出力す
る。またそれと同時に、当該VEVENTmに含まれている子
音発音時間データCONSO TIMEmをRAM3中のCTIME BU
F に書き込む。これらステップ212〜ステップ216
により、新しい音節を発音する段階でその前に発音され
ている音節に対するキーオフが行われることとなる。
ィイベントポインタnをn+1に更新し、ステップ21
8に進む。ステップ218において、RAM3中のSLUR
フラグを参照し、それが「0」であるか否かが判定され
る。この判定結果がYESのときは、演奏処理200を
終了する。SLURフラグが「1」のときは、図10のステ
ップ219に進み、RAM3のDUR に格納されている値
に当該ボイスイベントデータVEVENTm中に記載されてい
る発音持続レートデータDUR RATEmの値を乗算し、その
結果を設定デュレーション値として、DURATIONタイマの
カウントをスタートさせる。そして、ステップ220に
おいて、RAM3中のSLURフラグを「0」にリセット
し、演奏処理200を終了する。
がNOのとき、すなわち、当該ボイスイベントデータVE
VENTm中のLSURフラグが「1」となっており、同一キー
オンイベント内で発音すべき音節が後続していることが
示されているときには、図10のステップ221に進
む。このステップ221において前のボイスの発音状態
がチェックされ、ステップ222において、前のボイス
に対応する音声チャンネルが発音状態であるか否かが判
定され、発音状態にあるときにはステップ223におい
て該発音チャンネルに対しKEYOFF信号を出力した後、一
方、発音状態にないときには直接にステップ224に進
む。
ANT TG10の空きチャンネルを探し、そのチャンネルを
当該音節の発音を行うために割り当てる。そして、ステ
ップ225において、該割り当てられた発音チャンネル
に対し、当該ボイスイベントデータVEVENTm中に記載さ
れているVOICE INDEX mにより指定されるフォルマント
データFRMNT DATAを用い、KEYON 信号を出力する。ま
た、それと同時に、当該EVENT mに含まれている子音発
音時間データCONSO TIMEmをRAM3内のCTIMEBUF に
書き込む。以上のステップ221〜225は前述したス
テップ212〜216と同様である。
て、ステップ226が実行される。このステップ226
において、RAM3のSLURフラグが「0」であるか否か
が判定される。この結果、SLURフラグが「0」のとき、
すなわち、同一キーオンイベント内で発音する音節がな
いときは、ステップ227に進み、メロディイベントポ
インタnをn+1に更新し、続いて、該更新されたイベ
ントポインタにより指定されるイベントデータEVENT n
に含まれているデュレイションデータDURATIONをRAM
3のDUR レジスタに記憶する。そして、ステップ229
において、該DUR レジスタの値とボイスイベントデータ
VEVENTmに含まれている発音持続レートデータDUR RATE
mの値とを乗算し、その値を設定デュレーション値とし
てDURATIONタイマのカウントをスタートさせる。
果がNOのときは、ステップ227とステップ228を
実行することなく、上記ステップ229を実行する。ス
テップ229が終了した後にステップ230が実行さ
れ、RAM3のSLURフラグが「1」にセットされ、ボイ
スイベントポインタの値がm+1に更新され、演奏処理
200を終了する。
結果がNOとなったとき、すなわち、KEYEVENTデータが
KEYON イベントではなかったときは、KEYOFFイベントで
あるから、図9のステップ231に進む。このステップ
231において、現在発音中のボイスイベントVEVENTm
に含まれているデータのチェックを行い、ステップ23
2において、該VEVENTm中の呼気指定フラグBREATH FLG
に「1」が立っているか否かが判定される。この判定結
果がYESのときは、ステップ233において発音中の
発音チャンネルに対してKEYOFF信号を出力した後、一
方、ステップ232の結果がNOのときは直接に、ステ
ップ234に進み、メロディイベントポインタnの値を
n+1に、また、ボイスイベントポインタmの値をm+
1に、それぞれ、更新し、演奏処理200を終了する。
これにより、KEYOFFイベントを読み出したときに、息継
ぎ指定があるときは発音中の音節の発声は停止される
が、息継ぎ指定がないときにはキーオフが無視されて発
音中の音声に対しる発声の停止が行われないこととな
る。
果がNOのとき、すなわち、現在歌唱モードにないとき
はメロディ演奏モードにあるから、ステップ235に進
み、所定の音色で対応するKEYON あるいはKEYOFF処理を
行い、メロディイベントポインタnを更新し、演奏処理
200を終了する。すなわち、ボイスイベントポインタ
mによる歌詞シーケンスデータLYRIC DATAの読み出しは
行われない。
NOのときは、ステップ236において、読み出された
イベントデータEVENT nがデュレーションデータDURATI
ONであるか否かが判定される。この判定結果がYESの
ときは、ステップ237に進み、該ステップ237にお
いて、該デュレーション値を設定値としてDURATIONタイ
マーのカウントをスタートさせ、次いで、ステップ23
8において、メロディイベントポインタnの値をn+1
に更新して、演奏処理200を終了する。
NOのときは、ステップ239に進み、当該イベントデ
ータEVENT nがEND コードであるか否かが判定される。
この判定結果がNOのときはそのまま演奏処理200を
終了する。また、このステップ239の判定結果がYE
Sのときは、ステップ240においてRAM3のPLAYON
フラグを「0」にリセットし、ステップ241において
演奏終了処理を実行して、演奏処理200を終了する。
300について説明する。前述したように、図7におけ
るメインプログラムにおけるステップ104の判定結果
がNOのときは、歌詞編集モードであると判断され、歌
詞編集処理300が実行される。この歌詞編集処理にお
いては、まず、ステップ301において、歌詞編集処理
におけるモードの管理が行われ、ステップ302におい
て、歌詞テキスト入力モードであるか否かが判定され
る。この判定結果がNOのときは、ステップ307にお
いて、前述したRAM3中の歌詞シーケンスデータバッ
ファLYRIC DATA BUF編集モードであるか否かが判定され
る。この判定結果がNOのときは、ステップ309に進
み、ユーティリティモードであるか否かが判定され、こ
の判定結果もNOのときは歌詞編集処理300を終了す
る。
ESのとき、すなわち、歌詞テキスト入力モードである
ときは、ステップ303に進み、文字テキスト入力操作
部6から入力される歌詞テキストデータをRAM3中の
歌詞テキストバッファTXTBUFに記憶する。続いて、ステ
ップ304において歌詞テキストデータの入力が完了し
たか否かが判定され、未だ完了していないときは歌詞編
集処理300を終了する。また、ステップ304の判定
結果がYESのときは、次にステップ305に進み、歌
詞シーケンスデータLYRIC DATAの作成をするか否かを操
作者に問い合わせ、それに対して歌詞シーケンスデータ
LYRIC DATAの作成が指示されたか否かが判定される。こ
の判定結果がNOのときはこのまま歌詞編集処理300
を終了する。
わち、歌詞シーケンスデータLYRICDATAの作成が指示さ
れているときは、ステップ306に進み、歌詞テキスト
バッファTXTBUFの内容を音素辞書を参照するなどして歌
詞シーケンスデータLYRIC DATAに変換し、RAM3中の
歌詞シーケンスデータバッファLYRIC DATA BUFに格納す
る。そして、歌詞編集処理300を終了する。
わち、歌詞シーケンスデータバッファLYRIC DATA BUF編
集モードであるときは、ステップ308に進み、ユーザ
により指定されたボイスイベントVEVENTに含まれている
音韻指定データVOICE INDEX子音発音時間データCONSO T
IME、呼気指定フラグBREATH FLG、連続発音指定フラグL
SLUR FLG および発音持続レートデータDUR RATEの各デ
ータの編集処理を行う。これにより、操作者は、歌詞シ
ーケンスデータLYRIC DATAを任意に編集することがで
き、自由度の高い歌唱制御を行うことが可能となる。
対応編集処理において、連続発音指定フラグLSLUR FLG
を「1」にセットすると、当該ボイスイベントの次にあ
るボイスイベントを同一のキーイベント(音符)内で発
音させることとなる。具体的には、「さ」という音節と
「い」という音節が連続している場合において、同一キ
ーイベント内で「さい」という2つの音節を発音させよ
うとするときは、操作者は「さ」に対応するボイスイベ
ントVEVENTの連続発音指定フラグLSLUR FLG を「1」に
セットし、その発音持続レートデータDUR RATEの値を入
力する。すると、これに応じて、ステップ308の編集
処理により、LSLUR FLG が「1」にセットされたボイス
イベントに後続するボイスイベント、今の場合は「い」
に対応するボイスイベントVEVENTの発音持続レートDUR
RATEが、操作者により入力された「さ」に対応するボイ
スイベントの発音持続レートデータDUR RATEの値を1か
ら減算した値にセットされる。すなわち、連続発音指定
フラグLSLUR FLG によりつながれたボイスイベントのDU
R RATEの値の総和が1となるように自動的に設定編集が
なされるものである。
S、すなわち、ユーティリティモードであるときは、ス
テップ310に進み、歌詞シーケンスデータバッファLY
RIC DATA BUFに格納されているデータのデータメモリ4
のLYRIC DATA領域への格納などの処理が行われる。
参照しつつ説明する。図7のメインプログラムにおいて
説明したように、発音処理400は、演奏処理200あ
るいは歌詞編集処理300が実行された後に実行され
る。この発音処理400においては、対応する発音チャ
ンネルの各TG(VTG1〜4およびUTG1〜4)に
対応するパラメータを各フレームタイム毎に供給し、時
間的に変化する音韻が発音されるように制御が行われ
る。この発音処理400に入ると、まず、ステップ40
1において、キーオンイベントであるか否かが判定され
る。この判定結果がNOのときはキーオフイベントであ
るから、ステップ408において該当チャンネルのキー
オフ処理が行われ、発音処理400は終了される。
き、すなわち、キーオンイベントのときは、ステップ4
02において、発音すべき音素がチェックされ、ステッ
プ403において、発音すべき音素が子音付の音素であ
るか否かが判定される。この判定結果がNOのときは、
母音からなる音素であるから、後述するステップ407
に進む。ステップ403の判定結果がYESのときは、
ステップ404に進み、子音の発音時間が完了したか否
かが判定される。
405に進み、発音が指定されている音素、すなわち、
音韻指定データVOICE INDEX m=xにより指定されてい
るフォルマントデータFRMNT DATAxに含まれている無声
音フォルマントデータUFRMNT1〜4を、UTGグループ
12の音源UTG1〜4に、それぞれ、供給し、RAM
3のCTIME BUF に設定されている時間だけ発音処理さ
せ、発音処理400を終了する。
き、すなわち、子音発音時間が完了していないときは、
ステップ406に進み、無声音成分発音(UTG)グル
ープ12をキーオフする。次に、ステップ407に進
み、音韻指定データVOICE INDEX m=xで指定されるフ
ォルマントデータFRMNT DATAxに含まれている有声音フ
ォルマントデータVFRMNT1〜4を、有声音成分発音(V
TG)グループ11の音源VTG1〜4に、それぞれ、
供給して、母音成分の発声処理を行い、発音処理400
を終了する。
声の音程の制御については説明を省略したが、メロディ
シーケンスデータMELODY SEQ DATA に含まれているKEYC
ODEより、各TGのピッチ周波数を制御することにより
容易に制御することができる。
で、一つの音符を発音する時間内に複数の音節データを
発音することができ、人間の自然な歌唱と同様の歌唱を
行う自動歌唱装置を提供することができる。また、歌詞
における子音の発音時間を設定する手段を設けた本発明
によれば、母音の発音時間は音符長により変化するもの
の、子音の発音時間は設定された時間により規定されて
いるため、より自然の発音に近い歌唱をおこなう自動歌
唱装置を提供することができる。
構成の一例を示す図である。
説明するための図である。
示す図である。
る。
ある。
ローチャートである。
ートである。
ートである。
ャートである。
ーチャートである。
ャートである。
タメモリ、5 表示部、6 文字テキスト入力操作部、
7 タイマー、8 演奏操作子、9 設定操作子、10
音源部、10−1〜3 発音チャンネル、11 有声
音成分発音(VTG)グループ、12 無声音成分発音
(UTG)グループ、13 D/A変換器、14 サウ
ンドシステム、15 バス、16 加算手段
Claims (2)
- 【請求項1】 歌詞シーケンスデータとメロディシーケ
ンスデータとを記憶し、前記メロディシーケンスデータ
の読み出しに対応して前記歌詞シーケンスデータを読み
出し、前記歌詞シーケンスデータに対応した音素を発音
させて当該歌詞を歌唱させるように構成された自動歌唱
装置であって、 前記歌詞シーケンスデータは、当該歌詞の各音節に対応
するボイスイベントデータを有し、 前記各ボイスイベントデータは、少なくとも、発音する
音節を指定する音韻指定データ、および、一つの音符の
発音期間内で発音すべき他の音節が存在しているときに
その発音期間内にこのボイスイベントが占める発音時間
の割合を示すデータを含み、かつ、操作者により編集す
ることができるようになされていることを特徴とする自
動歌唱装置。 - 【請求項2】 前記ボイスイベントデータは、子音を含
む音節を発音する場合における当該子音の発音時間を示
す子音発音時間データを含むことを特徴とする前記請求
項1記載の自動歌唱装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21824195A JP3144273B2 (ja) | 1995-08-04 | 1995-08-04 | 自動歌唱装置 |
US08/691,089 US5747715A (en) | 1995-08-04 | 1996-08-01 | Electronic musical apparatus using vocalized sounds to sing a song automatically |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21824195A JP3144273B2 (ja) | 1995-08-04 | 1995-08-04 | 自動歌唱装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0950287A JPH0950287A (ja) | 1997-02-18 |
JP3144273B2 true JP3144273B2 (ja) | 2001-03-12 |
Family
ID=16716811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21824195A Expired - Lifetime JP3144273B2 (ja) | 1995-08-04 | 1995-08-04 | 自動歌唱装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5747715A (ja) |
JP (1) | JP3144273B2 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3226011B2 (ja) * | 1995-09-29 | 2001-11-05 | ヤマハ株式会社 | 歌詞表示装置 |
JP3872842B2 (ja) * | 1996-07-10 | 2007-01-24 | ブラザー工業株式会社 | 楽音再生装置 |
US5998725A (en) * | 1996-07-23 | 1999-12-07 | Yamaha Corporation | Musical sound synthesizer and storage medium therefor |
US5895449A (en) * | 1996-07-24 | 1999-04-20 | Yamaha Corporation | Singing sound-synthesizing apparatus and method |
US6758755B2 (en) | 1996-11-14 | 2004-07-06 | Arcade Planet, Inc. | Prize redemption system for games executed over a wide area network |
JPH10319947A (ja) * | 1997-05-15 | 1998-12-04 | Kawai Musical Instr Mfg Co Ltd | 音域制御装置 |
JP3890692B2 (ja) * | 1997-08-29 | 2007-03-07 | ソニー株式会社 | 情報処理装置及び情報配信システム |
JPH11250632A (ja) * | 1998-03-02 | 1999-09-17 | Pioneer Electron Corp | 情報記録媒体及びその情報記録媒体再生装置 |
US6928410B1 (en) * | 2000-11-06 | 2005-08-09 | Nokia Mobile Phones Ltd. | Method and apparatus for musical modification of speech signal |
JP3709817B2 (ja) | 2001-09-03 | 2005-10-26 | ヤマハ株式会社 | 音声合成装置、方法、及びプログラム |
JP3938015B2 (ja) | 2002-11-19 | 2007-06-27 | ヤマハ株式会社 | 音声再生装置 |
JP4483188B2 (ja) * | 2003-03-20 | 2010-06-16 | ソニー株式会社 | 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置 |
JP4415573B2 (ja) * | 2003-06-13 | 2010-02-17 | ソニー株式会社 | 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置 |
JP4487632B2 (ja) * | 2004-05-21 | 2010-06-23 | ヤマハ株式会社 | 演奏練習装置および演奏練習用コンピュータプログラム |
JP4929604B2 (ja) * | 2005-03-11 | 2012-05-09 | ヤマハ株式会社 | 歌データ入力プログラム |
KR100658869B1 (ko) * | 2005-12-21 | 2006-12-15 | 엘지전자 주식회사 | 음악생성장치 및 그 운용방법 |
WO2008053204A1 (en) * | 2006-10-30 | 2008-05-08 | Stars2U Limited | Speech communication method and apparatus |
JP4821802B2 (ja) * | 2008-05-22 | 2011-11-24 | ヤマハ株式会社 | 音声データ処理装置及びプログラムを記録した媒体 |
JP4821801B2 (ja) * | 2008-05-22 | 2011-11-24 | ヤマハ株式会社 | 音声データ処理装置及びプログラムを記録した媒体 |
US7977562B2 (en) * | 2008-06-20 | 2011-07-12 | Microsoft Corporation | Synthesized singing voice waveform generator |
US7977560B2 (en) * | 2008-12-29 | 2011-07-12 | International Business Machines Corporation | Automated generation of a song for process learning |
JP5598056B2 (ja) * | 2010-03-30 | 2014-10-01 | ヤマハ株式会社 | カラオケ装置およびカラオケ曲紹介プログラム |
US8847056B2 (en) | 2012-10-19 | 2014-09-30 | Sing Trix Llc | Vocal processing with accompaniment music input |
US9123315B1 (en) * | 2014-06-30 | 2015-09-01 | William R Bachand | Systems and methods for transcoding music notation |
JP2016080827A (ja) * | 2014-10-15 | 2016-05-16 | ヤマハ株式会社 | 音韻情報合成装置および音声合成装置 |
CN108806656B (zh) | 2017-04-26 | 2022-01-28 | 微软技术许可有限责任公司 | 歌曲的自动生成 |
JP6610715B1 (ja) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6547878B1 (ja) | 2018-06-21 | 2019-07-24 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610714B1 (ja) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP7059972B2 (ja) | 2019-03-14 | 2022-04-26 | カシオ計算機株式会社 | 電子楽器、鍵盤楽器、方法、プログラム |
JP7143816B2 (ja) | 2019-05-23 | 2022-09-29 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
CN112420004A (zh) * | 2019-08-22 | 2021-02-26 | 北京峰趣互联网信息服务有限公司 | 生成歌曲的方法、装置、电子设备及计算机可读存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3877338A (en) * | 1973-07-06 | 1975-04-15 | Mack David | Method and system for composing musical compositions |
JPS5837693A (ja) * | 1981-08-31 | 1983-03-04 | ヤマハ株式会社 | 歌唱電子楽器 |
US4527274A (en) * | 1983-09-26 | 1985-07-02 | Gaynor Ronald E | Voice synthesizer |
US4979216A (en) * | 1989-02-17 | 1990-12-18 | Malsheen Bathsheba J | Text to speech synthesis system and method using context dependent vowel allophones |
JP3130305B2 (ja) * | 1989-12-28 | 2001-01-31 | ヤマハ株式会社 | 音声合成装置 |
-
1995
- 1995-08-04 JP JP21824195A patent/JP3144273B2/ja not_active Expired - Lifetime
-
1996
- 1996-08-01 US US08/691,089 patent/US5747715A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH0950287A (ja) | 1997-02-18 |
US5747715A (en) | 1998-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3144273B2 (ja) | 自動歌唱装置 | |
EP3588485B1 (en) | Electronic musical instrument, electronic musical instrument control method, and storage medium | |
CN110390923B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN110390922B (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN110634464A (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
CN110634461A (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
US11417312B2 (en) | Keyboard instrument and method performed by computer of keyboard instrument | |
CN113506554A (zh) | 电子乐器、电子乐器的控制方法 | |
JP6766935B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP6760457B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP2023100776A (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP3518253B2 (ja) | データ編集装置 | |
JPH11126083A (ja) | カラオケ再生装置 | |
JP6819732B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP3233036B2 (ja) | 歌唱音合成装置 | |
JP3265995B2 (ja) | 歌唱音声合成装置及び方法 | |
JPH0895588A (ja) | 音声合成装置 | |
JP3239706B2 (ja) | 歌唱音声合成装置 | |
JP2004061753A (ja) | 歌唱音声を合成する方法および装置 | |
JPH04331990A (ja) | 音声電子楽器 | |
EP0396141A2 (en) | System for and method of synthesizing singing in real time | |
JP2022038903A (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JPH0962297A (ja) | フォルマント音源のパラメータ生成装置 | |
JP2000242282A (ja) | カラオケ再生装置 | |
JPS61143799A (ja) | 音声合成方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20000606 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20001128 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090105 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100105 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110105 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120105 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130105 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140105 Year of fee payment: 13 |
|
EXPY | Cancellation because of completion of term |