JPH1049169A - 歌唱音合成装置および記憶媒体 - Google Patents

歌唱音合成装置および記憶媒体

Info

Publication number
JPH1049169A
JPH1049169A JP8202165A JP20216596A JPH1049169A JP H1049169 A JPH1049169 A JP H1049169A JP 8202165 A JP8202165 A JP 8202165A JP 20216596 A JP20216596 A JP 20216596A JP H1049169 A JPH1049169 A JP H1049169A
Authority
JP
Japan
Prior art keywords
phoneme
time
note
sound
singing sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8202165A
Other languages
English (en)
Other versions
JP3132392B2 (ja
Inventor
Shinichi Ota
慎一 大田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP08202165A priority Critical patent/JP3132392B2/ja
Priority to US08/902,424 priority patent/US5998725A/en
Publication of JPH1049169A publication Critical patent/JPH1049169A/ja
Application granted granted Critical
Publication of JP3132392B2 publication Critical patent/JP3132392B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 【課題】 楽器音と歌唱音とを合成する電子楽器で、両
音を同一のタイミングで発音させるべき場合がある。し
かし、両者の発音処理を同時に開始させると、立上りの
遅い歌唱音がやや遅れて聞こえる(図13(b))。従っ
て、同図(a)に示すように、楽器音よりもやや速いタイ
ミングで歌唱音を立ち上げれば良いのであるが、かかる
処理はリアルタイム演奏においては困難である。 【解決手段】 同図(c)に示すように、楽器音のノート
オンに伴って発生させる歌唱音は、通常の歌唱音よりも
速く立ちあげるようにした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、合唱音(楽器音お
よび人声音)の合成に用いて好適な歌唱音合成装置およ
び記憶媒体に関する。
【0002】
【従来の技術】一般に自然楽器には、その楽器固有の構
造(例えばピアノの響板)によって生ずるフォルマント
が存在する。また、人声音にも人体の構造(例えば声
帯、声道及び口腔の形状等)によって所定のフォルマン
トが存在し、これによって人声特有の音色等が特徴付け
られている。
【0003】電子楽器において、自然の楽器音や人声音
(歌唱音)により近い音色を合成するためには、それぞ
れの音に固有のフォルマントに従って音声合成を行わな
ければならない。このようにフォルマントを用いて音声
合成を行う装置は、例えば特開平3−200300号公
報や特開平4−251297号公報に開示されている。
【0004】このような電子楽器を用いて歌詞付きの楽
曲に係る演奏データを作成するためには、楽譜等に基づ
いて、楽器音および歌唱音の各々に対して発音開始タイ
ミングやデュレーションタイム等を設定する必要があ
る。
【0005】
【発明が解決しようとする課題】しかし、一般的に人声
音は楽器音よりも立上がりが遅いため、演奏データ上の
発音開始タイミングと聴感上の発音開始タイミングとが
ずれるという問題があった。例えば、楽器音のノートオ
ン信号に対応して楽器音の発音と歌唱音の発音とを同時
に開始させたとしても、聴感上は歌唱音がやや遅れて開
始されたように聞こえる。
【0006】かかる問題を解消するためには、楽曲全体
あるいは演奏パート毎の演奏データのタイミング調整を
行えば良いのであるが、作業がきわめて煩雑になる。こ
の発明は上述した事情に鑑みてなされたものであり、簡
易に、かつ適切なタイミングで歌唱音を制御できる歌唱
音合成装置および記憶媒体を提供することを目的として
いる。
【0007】
【課題を解決するための手段】上記課題を解決するため
請求項1記載の構成にあっては、演奏データに対応して
所定の歌唱音を発生させる歌唱音合成装置において、前
記歌唱音を構成する音素のうち前記演奏データのノート
オン信号に伴って発生される先頭音素の立上り時間を、
この先頭音素がノートオン期間中に他の音素に引き続い
て発音される場合の立上り時間よりも短くすることを特
徴とする。
【0008】また、請求項2記載の構成にあっては、演
奏データに対応して所定の歌唱音を発生させる歌唱音合
成装置において、前記歌唱音を構成する音素の立上り時
間と、この立上り時間内における立上り特性とを記憶す
る記憶手段と、前記立上り時間は前記音素に割り当てら
れた発音時間以下であるか否かを判定する第1の判定手
段と、前記音素は前記演奏データのノートオン信号に伴
って発音されるべき先頭音素であるか否かを判定する第
2の判定手段と、これら第1および第2の判定手段の判
定結果に基づいて、前記立上り特性を時間軸方向に圧縮
する圧縮手段とを具備することを特徴とする。
【0009】また、請求項3記載の構成にあっては、演
奏データに対応して所定の歌唱音を発生させる歌唱音合
成装置において、前記歌唱音を構成する音素と、これら
各音素のデュレーションタイムとを記憶する記憶手段
と、前記音素のうち最後に発音されるべき最終音素のデ
ュレーションタイムとして前記記憶手段に所定値が記憶
されていると、次にノートオン信号が供給されるまで該
最終音素の発音を持続させる発音持続手段と、前記最終
音素以外の音素であって前記デュレーションタイムとし
て前記記憶手段に前記所定値が記憶されている中間持続
音素が存在すると、ノートオフ信号の受信に伴って前記
中間持続音素の発音を停止し、しかる後に前記中間持続
音素以降の音素を発音させる発音中断手段とを具備する
ことを特徴とする。
【0010】また、請求項4記載の構成にあっては、演
奏データに対応して所定の歌唱音を発生させるプログラ
ムを記憶した記憶媒体であって、前記プログラムは、前
記歌唱音を構成する音素のうち前記演奏データのノート
オン信号に伴って発生される先頭音素の立上り時間を、
この先頭音素がノートオン期間中に他の音素に引き続い
て発音される場合の立上り時間よりも短くすることを特
徴とする。
【0011】
【発明の実施の形態】
1.実施形態の原理 1−1.MIDI信号の構成 次に、本発明の一実施形態である電子楽器について説明
するが、最初にこの電子楽器に供給されるMIDI信号
のフォーマットについて図2を参照し説明する。ここで
は、「C3」(ド)、「E3」(ミ)および「G3」
(ソ)の音階に対して、「さ」、「い」および「た」と
いう歌詞を付けて楽音信号を発生させる場合を想定す
る。
【0012】これらMIDI信号のうち、楽器音に関係
する部分をまず説明する。図2において「時刻」欄は、
各MIDI信号がMIDIインターフェース3に供給さ
れる時刻を示している。時刻t2には“90”“30”
“42”というMIDI信号がMIDIインターフェー
ス3に供給されている。なお、本明細書では、二重引用
符(「“」および「”」)で囲まれた文字は16進数を
表わすこととする。
【0013】ここで、“90”は、ノートオンの意味で
あり、続く“30”は「C3」のノートナンバであり、
“42”はべロシティである。すなわち、時刻t2にお
けるMIDI信号は、「べロシティ“42”でC3の音
をノートオンせよ」という意味になる。
【0014】その後、時刻t3においては、“90”
“30”“00”というMIDI信号が供給される。上
述したように“90”はノートオンの意味であるが、べ
ロシティが“00”である場合に限り、例外的にノート
オフの意味になる。すなわち、時刻t3におけるMID
I信号は、「C3の音をノートオフせよ」という意味に
なる。
【0015】同様に、時刻t5においては、ノートナン
バ“34”(「E3」)、べロシティ“50”のノート
オン信号が供給され、時刻t6にはそのノートオフ信号
が供給される。また、時刻t8においてはノートナンバ
“37”(「G3」)、べロシティ“46”のノートオ
ン信号が供給され、時刻t9にはそのノートオフ信号が
供給される。
【0016】このように、図示のMIDI信号は、時刻
2〜t3の期間内で「C3」の音を発音するように指示
しているのであるが、この「C3」の音に合わせて発音
すべき歌唱音(歌詞)すなわち「さ」を指定する必要が
ある。本実施形態においては、かかる指定は楽器音のノ
ートオン(時刻t2)以前の任意の時刻に行うことがで
きる。図示の例では、かかる指示が行われた時刻をt1
とする。
【0017】時刻t1において最初に供給されるMID
I信号は“F0”である。この信号はMIDI規格で
「システムエクスクルーシブ」と称されている情報の開
始信号である。システムエクスクルーシブは、信号“F
0”が現れた後、次に“F7”が現れる迄の情報であ
り、その内容はベンダーが自由に定義できることになっ
ている。
【0018】そこで、本実施形態においては、このシス
テムエクスクルーシブによって歌唱音等のデータを伝送
することとしたものである。以後、このような歌唱音等
のデータを「フォン・シーケンス・データ」と呼ぶ。と
ころで、システムエクスクルーシブはフォン・シーケン
ス・データの伝送以外にも種々の用途に用いられる。
【0019】そこで、本実施形態においては、信号“F
0”に引き続いて、“43”“1n”“7F”“03”
(ここで、nは任意の1桁の数である)という信号が供
給された場合は、当該システムエクスクルーシブはフォ
ン・シーケンス・データであると判断することとしてい
る。以後、この“43”“1n”“7F”“03”の信
号をフォン・シーケンス・ヘッダと呼ぶ。
【0020】さて、これに続く“35”という信号は、
「s」の音素を意味している。すなわち、発音すべき歌
唱音は「さ」であるため、これを「s」と「a」という
音素に分解し、最初に「s」の発音を指示したものであ
る。音素に続くデータは(“00”である場合を除い
て)、当該音素のデュレーションタイムすなわち持続時
間を「5msec」を単位として示すものである。
【0021】図示の例においては、デュレーションタイ
ムは“0A”(10進数では「10」)になっているた
め、は、「s」のデュレーションタイムとして「50m
sec」が指示されたことになる。次に、信号“20”
によって音素「a」が指示され、デュレーションタイム
として“00”が指示される。
【0022】ここで、デュレーションタイムが“00”
である場合は、「次のノートオンまで発音を持続せよ」
という意味になる。従って、図示の例にあっては、時刻
において「E3」のノートオンが発生するまで
「a」の発音が持続されることになる。
【0023】このように信号“00”によって未確定な
(次のノートオンまでの)デュレーションタイムを指定
させることとした理由は、楽器音は断続的であっても歌
詞は連続的に発音される傾向が強いことに鑑みてであ
る。勿論、断続的に歌詞を発音すべき場合は、「a」の
デュレーションタイムとして“00”に代えて所望の値
を設定すればよい。
【0024】次に、「E3」の音に合わせて発音すべき
歌唱音すなわち「い」を指定する必要がある。本実施形
態においては、かかる指定は直前の歌唱音の指定時刻
(t)以降であって楽器音のノートオン時刻(t5
以前の任意の時刻に行うことができる。図示の例では、
かかる指示が行われた時刻をt4とする。時刻t4におい
ては、再びシステムエクスクルーシブの開始信号“F
0”と、フォン・シーケンス・ヘッダ“43”“1n”
“7F”“03”とが供給される。
【0025】次に、“22”という信号が供給される
が、これは「i」の音素を意味している。すなわち、
「い」は、単一の音素「i」で示されるため、当該音素
の発音が指示されるのである。これに引き続くデータは
“00”であるため、「i」の音素が次のノートオンす
なわち時刻t8まで発音が持続するように、指示が行わ
れたことになる。
【0026】次に、「G3」の音に合わせて発音すべき
歌唱音すなわち「た」は、の発音タイミングは、直前の
歌唱音の指定時刻(t4)以降であって楽器音のノート
オン時刻(t8)以前の任意の時刻に行うことができ
る。図示の例では、かかる指示が行われた時刻をt7
する。時刻t7においては、再びシステムエクスクルー
シブの開始信号と、フォン・シーケンス・ヘッダとが供
給される。
【0027】次に、“3F”“01”なる信号が供給さ
れる。この“3F”は、クローズ音「CL」を表わすもの
であり、「音を一旦途切らせよ」という意味を有してい
る。すなわち、日本語の「た」の音は、純粋に「t」お
よび「a」の音素のみから成るものではなく、「t」の
音素を発音する前に、舌の下面を上下の門歯に当接させ
て空気の流れを遮断し、音を一旦途切らせる傾向があ
る。そこで、最初の音素として「5msec」のクロー
ズ音「CL」をを設けたものである。
【0028】これに引き続く信号“37”“02”の
“37”は「t」の音素を示すものであり、信号“2
0”“00”の“20”は、上述したように「a」の音
素を示すものである。以上詳述したように、本実施形態
の電子楽器に供給されるMIDI信号は、予めフォン・
シーケンス・データによって歌唱音の内容を特定してお
き、後に発生する楽器音のノートオン信号によって楽器
音と歌唱音の発音を共に指示するものである。
【0029】1−2.音源の制御方式 本実施形態においては、特開平3−200300号公報
に開示されているものと同様の音源回路が用いられる。
この音源回路においては、歌唱音の発音用に「8」チャ
ンネルが割り当てられ、そのうち「4」チャンネルで有
声音の第1〜第4フォルマントが合成され、残り「4」
チャンネルで無声音の第1〜第4フォルマントが合成さ
れる。
【0030】ここで、無声音の第1〜第4フォルマント
のレベルをUTG1〜4 とし、これらのフォルマント周波数
をUTGf1〜4とする。また、有声音の第1〜第4フォルマ
ントのレベルをVTG1〜4とし、これらのフォルマント周
波数をVTGf1〜4とする。
【0031】本明細書においては、各音素の定常状態に
おける特性を「パラメータPHPAR[*]」の形式で表わす。
ここで「*」の文字は、「s」、「a」、「i」などの
音素名に置き換えられる。パラメータPHPAR[*]の内容を
図11(a)に示す。図においてパラメータPHPAR[*]に
は、有声音第1〜第4フォルマント中心周波数VF FREQ1
〜4と、無声音第1〜第4フォルマント中心周波数UF FR
EQ1〜4と、有声音第1〜第4フォルマントレベルVF LEV
EL1〜4と、無声音第1〜第4フォルマントレベルUF LEV
EL1〜4と、フォルマント形状の指定情報とが含まれてい
る。このパラメータPHPAR[*]は、音素の種類(数十個程
度)に相当する数だけ設けられている。
【0032】次に、ある音素から他の音素に遷移する際
の特性を「パラメータPHCOMB[1-2]」の形式で表わす。
ここで「1」および「2」の文字は、「s」、「a」、
「i」などの音素名に置き換えられる。例えば、パラメ
ータPHCOMB[s-a]は、「s」から「a」に遷移する場合
の特性を表わす。なお、ある音素が無音状態から立ち上
がる場合の特性は、「PHCOMB[ -s]」のように、「1」に
相当する文字をブランクにする。
【0033】従って、パラメータPHCOMB[1-2]の数はパ
ラメータPHPAR[*]のほぼ二乗倍になる。しかし、実際の
データ量は二乗倍よりもはるかに少ない数になる。これ
は、音素は有声子音、無声子音、摩擦音等数種類に分類
され、同一の分類に属する音素の変換特性が存在するな
らば、同一のパラメータを使える可能性が高いからであ
る。
【0034】さて、パラメータPHCOMB[1-2]の具体的内
容を図11(b)に示す。図において下から2段目には、
調音結合時間COMBI TIMEなるパラメータが設けられてい
る。このパラメータは、対象となる音素の遷移(例えば
「s」から「a」への遷移)が自然に聞こえるために
は、どれだけの時間が必要であるかを示すパラメータで
ある。
【0035】次に、最下欄には音韻認識時間RCG TIMEな
るパラメータが設けられている。このパラメータは、調
音結合時間COMBI TIME内で、対象音素がその音素らしく
聞こえ始めるまでの時間である。従って、音韻認識時間
RCG TIMEは常に調音結合時間COMBI TIMEよりも短い時間
になる。
【0036】次に、同図の最上欄に示されているVF LEV
EL CURVE1は先行音韻有声音振幅下降特性であり、上記
調音結合時間COMBI TIME内で有声音である先行音韻がど
のような特性で降下してゆくのかを示すパラメータであ
る。次に、UF LEVEL CURVE1は先行音韻無声音振幅下降
特性であり、同様の内容を無声音に対して規定したもの
である。
【0037】ここで先行音韻無声音振幅下降特性UF LEV
EL CURVE1等の特性としては、例えば「直線」、「指数
関数」を指定することができる。次に、VF FREQ CURVE2
は後続音韻有声音フォルマント周波数変化特性であり、
先行音韻の有声音のフォルマント周波数から後続音韻の
有声音のフォルマント周波数にどのように遷移してゆく
のかを規定したものである。
【0038】また、UF FREQ CURVE2は後続音韻無声音フ
ォルマント周波数変化特性であり、同様の内容を無声音
について規定したものである。次に、VF LEVEL CURVE2
は後続音韻有声音振幅立ち上がり特性であり、後続音韻
の有声音のフォルマントレベルがどのような特性で立ち
上がってゆくのかを規定したものである。また、UF LEV
EL CURVE2は後続音韻無声音振幅立ち上がり特性であ
り、同様の内容を無声音について規定したものである。
【0039】次に、VF INIT FREQ1〜4は有声音第1〜第
4フォルマント初期中心周波数であり、無音から立ち上
がる場合(例えばパラメータPHCOMB[ -s])において設
定されている。これらの周波数は、有声音第1〜第4フ
ォルマント中心周波数VF FREQ1〜4の初期値を指定する
ものである。また、UF INIT FREQ1〜4は無声音第1〜第
4フォルマント初期中心周波数であり、同様の内容を無
声音について規定したものである。なお、無音から立ち
上がる場合には、先行音韻有声音振幅下降特性VF LEVEL
CURVE1および先行音韻無声音振幅下降特性UF LEVEL CU
RVE1は無視される。
【0040】ここで、一例として、音源回路の各チャン
ネルが音素「s」の定常状態になっており、これを音素
「a」の定常状態に移行させる場合の設定状態を説明す
る。まず、「s」から「a」に遷移させるタイミングか
ら、パラメータPHCOMB[s-a]の調音結合時間COMBI TIME
に相当する期間を遷移させる期間として設定する。
【0041】そして、当該期間内において、音源回路の
有声音第1〜第4フォルマント中心周波数を後続音韻有
声音フォルマント周波数変化特性VF FREQ CURVE2に基づ
いて変化させる。また、無声音第1〜第4フォルマント
中心周波数を後続音韻無声音フォルマント周波数変化特
性UF FREQ CURVE2に応じて変化させる。
【0042】これと同時に、音素「s」の有声音第1〜
第4フォルマントレベルおよび無声音第1〜第4フォル
マントレベルを先行音韻有声音振幅下降特性VF LEVEL C
URVE1および後続音韻有声音振幅立ち上がり特性VF LEVE
L CURVE2に従って降下させ、音素「a」の有声音第1〜
第4フォルマントレベルおよび無声音第1〜第4フォル
マントレベルを後続音韻有声音振幅立ち上がり特性VF L
EVEL CURVE2および後続音韻無声音振幅立ち上がり特性U
F LEVEL CURVE2に従って上昇させることになる。
【0043】この際、例えば音源回路の有声音第1フォ
ルマントのレベルは、音素「s」に係るレベルと、音素
「a」に係るレベルとを合計したものになる。このよう
にして、「さいた」の歌詞に応じた各チャンネルの設定
内容を図9および図10に示す。
【0044】なお、これらの図においては、無声音フォ
ルマント周波数UTGf1〜4および有声音フォルマント周波
数をVTGf1〜4が等しいものと仮定し、「フォルマント周
波数をTGf1〜4」として表わす。また、これらの図はフ
ォルマントレベルおよびフォルマント周波数の遷移状態
の例を示すものであって、理想的な遷移状態を示すもの
ではない。 1−3.歌唱音の発音タイミングの問題点 1−3−1.問題の所在 次に、音素「s」および「a」が発音される場合におい
て、調音結合時間COMBI TIMEとデュレーションタイムと
の関係を図12(a)に示す。上述したように、調音結合
時間COMBI TIMEは音素の種類に応じて一意に決定される
値であり、デュレーションタイムはMIDI信号によっ
て決定される。
【0045】従って、デュレーションタイムから調音結
合時間を減算した値が定常部における発音時間(定常時
間)になる。ここで、音素「s」は、調音結合時間の当
初(時刻ta)より人間の耳に「s」らしく聞こえるの
ではなく、ある程度時間(音韻認識時間RCG TIME)が経
過した時刻tbにおいて「s」らしく聞こえるようにな
る。
【0046】従って、楽器音と歌唱音とが同時に発音さ
れているが如く音声を再生するためには、同図(b)に示
すように、楽器音のノートオンのタイミングと時刻tb
とが一致するように、歌唱音の発音タイミングをシフト
させることが理想的である。
【0047】このような理想的状態を同図(b)に示す。
しかし、実際上、同図(b)に示すように歌唱音の発音を
制御することはきわめて困難である。何故なら、同図
(b)においては楽器音のノートオンの前に歌唱音の発音
を開始させる必要があるため、将来発生する楽器音のノ
ートオンタイミングを予め予測する必要が生じるためで
ある。
【0048】このため、歌唱音の発音開始タイミングを
あくまでも楽器音のノートオン以降に設定しながら両者
のタイミングを如何に合わせるかが問題になる。そこ
で、本発明者は、以下のような種々の方式を検討した。
【0049】1−3−2.先頭音素のみの発音開始タイ
ミングを遅延させる方式 まず、歌唱音の先頭音素の発音開始タイミングを楽器音
のノートオンのタイミングに合わせ(発音開始タイミン
グを理想形よりも遅らせ)、以降の音素は理想形の通り
に発音させる方式が考えられる。このような方策が施さ
れた場合の遷移状態を図12(c)に示す。
【0050】しかし、この状態においては、「s」の音
素の定常時間の大部分が「a」の音素の発音期間に重な
り、「s」の音素がほとんど認識されなくなるという問
題が生ずる。すなわち、聴取者においては「あ」に若干
ノイズが乗ったような音が聞こえ、「さ」の音であると
認識させることが困難になる。
【0051】1−3−3.時刻tb以前の状態を切り捨
てる方式 理想形の遷移状態より時刻tb以前の状態を切り捨てる
方式も考えられる。その場合の遷移状態を図12(d)に
示す。この方式にあっては、「s」の音素が急激に立ち
上がるため、人声音としてはきわめて不自然に聞こえる
という欠点がある。
【0052】1−3−4.音素全体を遅延させる方式 「s」の音素の発音開始タイミングを楽器音のノートオ
ンのタイミングに合わせ、それ以降の音素も順次遅らせ
てゆく方式も考えられる。その場合の遷移状態を図13
(b)に示す。この方式にあっては、歌唱音のタイミング
が遅れるため、不自然に聞こえるという欠点がある。
【0053】1−3−5.全イベントを遅延させる方式 電子楽器において、MIDI信号を一律に所定時間遅延
させて発音させる技術が知られている(図示せず)。こ
の所定時間が例えば「300msec」であれば、楽器
音のノートオンのタイミングは一律に「300mse
c」だけ遅延させられる。
【0054】一方、歌唱音については、上記ノートオン
以前の発音時間に応じて遅延時間が決定するとよい。例
えば、理想形において時刻ta〜tbの期間(音韻認識時
間RCG TIME)が「50msec」であれば、「s」の音
素から始まる音韻は、「250msec」だけ遅延させ
るとよい。
【0055】これにより、所定時間だけ遅れて理想形と
同様の遷移状態で音韻を発生させることができる。この
方式は、レコーディングしたMIDI信号を再生する場
合には最適である。しかし、リアルタイムの演奏が関係
する場合は、演奏タイミングと発音タイミングとのずれ
が大きくなるため、演奏者に対してきわめて不自然な感
触を与えることになる。
【0056】1−3−6.先頭音素の調音結合時間を圧
縮する方式 本発明者の検討した結果によれば、先頭音素の調音結合
時間を時間軸方向に圧縮することにより、上記各方式の
欠点を解消または緩和できることが判明した。上記例に
おいては、理想形における調音結合時間(図13(a)の
時刻ta〜tc)内の遷移状態を時間軸方向に圧縮して、
楽器音のノートオン(時刻tb)から時刻tcまでの遷移
状態として設定することになる。
【0057】かかる方式が採られた場合の遷移状態を図
13(c)に示す。同図においては、音素「s」の調音結
合時間は短くなっているが、その範囲内ではなめらかに
立ち上がっているため、図12(d)のものと比較すると
格段に良好な音声を合成することができる。さらに、音
素「s」の定常時間においては音素「a」のエネルギー
が未だ弱いため、「s」および「a」の音素を明確に区
別することができる。
【0058】2.実施形態の構成 次に、本実施形態の電子楽器の構成を図1を参照し説明
する。図において9はCPUであり、ROM7に記憶さ
れたプログラムに基づいて他の構成要素を制御する。8
はRAMであり、CPU9のワーキングメモリとして使
用される。1はスイッチパネルでありユーザによって音
色等の条件が設定される。また、この設定内容は、液晶
ディスプレイ2に表示される。
【0059】6はキーボードであり、ユーザによって操
作されると、バス10を介して演奏データを出力する。
3はMIDIインターフェースであり、外部装置とCP
U9との間でMIDI信号の受け渡しを行う。ここで、
外部装置からMIDI信号が供給されると、MIDIイ
ンターフェース3はCPU9に対して割り込み(MID
I受信割り込み)を発生させる。
【0060】次に、4は音源回路であり、バス10を介
して供給された演奏データに基づいて歌唱音等の楽音信
号を生成する。上述したように、音源回路4は有声音お
よび無声音に対して各々「4」チャンネルを有してお
り、CPU9によって各チャンネルのフォルマント周波
数およびフォルマントレベルを逐次更新することが可能
になっている。5はサウンドシステムであり、生成され
た楽音信号を発音する。11はタイマであり、所定時間
毎にCPU9に対して割り込み(タイマ割り込み)を発
生させる。
【0061】3.実施形態の動作 3−1.初期動作 まず、本実施形態の電子楽器が起動されると、図3に示
すメインルーチンが起動される。図において処理がステ
ップSP1に進むと、所定の初期設定が行われる。次
に、処理がステップSP2に進むと、タスク管理が行わ
れる。すなわち、割り込み状態に応じて複数のルーチン
(タスク)が切り換えられつつ並列処理される。
【0062】このうち、最も優先度の高いルーチンは、
MIDI受信割り込みが発生した際に起動されるMID
I受信割り込み処理ルーチンである。次に優先度の高い
ルーチンは、タイマ割り込みによって起動されるタイマ
割り込み処理ルーチンである。
【0063】その他のルーチンの優先度は最も低く設定
されている。優先度の低いルーチンの一つとして、後述
する演奏データ処理ルーチンが設けられており、上記割
り込み処理ルーチンが休止状態である場合に動作可能に
なっている。
【0064】3−2.フォン・シーケンス・データの受
信(時刻t1) MIDIインターフェース3においてMIDI信号が供
給された場合、あるいはキーボード6においてイベント
が発生すると、図4に示すMIDI受信割り込み処理ル
ーチンが起動される。図において処理がステップSP1
1に進むと、MIDI信号の内容あるいはキーボード6
の操作情報が、RAM8内の所定の領域(MIDI受信
バッファ)に書き込まれ、直ちに処理が終了する。
【0065】ここで、キーボード6の操作情報は、ノー
トナンバとべロシティを伴うノートオン情報、あるいは
ノートナンバを伴うノートオフ情報等であり、楽器音に
係るMIDI信号と同様の内容を有している。そこで、
本明細書ではMIDIインターフェース3から供給され
るMIDI信号と、キーボード6から出力される操作情
報を総称して「MIDI信号」と呼ぶ。以下、時刻t1
〜t9において、図2に示されたMIDI信号が順次M
IDIインターフェース3を介してMIDI受信バッフ
ァに記憶されていく場合を想定して、本実施形態の動作
を説明する。
【0066】時刻t1において「さ」の音に係るフォン
・シーケンス・データがMIDI受信バッファに記憶さ
れると、その後適当な時期(割り込みが生じていない
時)に演奏データ処理ルーチンが起動される。図5にお
いて処理がステップSP21に進むと、MIDI受信バ
ッファより、「1」バイトのMIDI信号が取り込まれ
る。
【0067】図2の例では、時刻t1に供給されたMI
DI信号の先頭のバイトは、“F0”であるから、この
“F0”が取り込まれることになる。次に、処理がステ
ップSP22に進むと、取り込まれたMIDI信号は
「ステータス・バイト」(“80”〜“FF”の値)で
あるか否かが判定される。ここでは、「YES」と判定
されるから、処理はステップSP24に進み、当該ステ
ータス・バイトの種類(ここではシステムエクスクルー
シブの開始信号)がRAM8の所定領域に記憶される。
【0068】次に、処理がステップSP25に進むと、
当該ステータス・バイトの種類に応じて処理が分岐され
る。ステータス・バイトがシステムエクスクルーシブの
場合は、処理がステップSP27に進む。ここでは、シ
ステムエクスクルーシブ開始信号に続く「4バイト」の
MIDI信号がMIDI受信バッファから読み出され、
その内容がフォン・シーケンス・ヘッダであるか否かが
判定される。
【0069】図2に示す例にあっては、時刻t1の“F
0”に続く“43”“1n”“7F”“03”が読み込
まれることになる。これはフォン・シーケンス・ヘッダ
に他ならないため、ステップSP27においては「YE
S」と判定され、処理はステップSP28に進む。
【0070】ステップSP28にあっては、システムエ
クスクルーシブ終了信号“F7”が現れるまで、MID
I受信バッファの内容が繰り返し読み出され、ここに記
憶されたフォン・シーケンス・データが読み出され、そ
の内容がRAM8内の所定領域 phoneSEQbuffer に記憶
される。図示の例においては、音素「s」、「a」およ
びこれらのデュレーションタイムが領域 phoneSEQbuffe
r に記憶されることになる。
【0071】さらに、ステップSP28においては、変
数 phone number に、音素数(ここでは「2」)が代入
される。以上の処理が終了すると、本ルーチンの処理は
一旦終了する。以後、「5msec」毎にタイマ割り込
みが発生すると、図8に示すタイマ割り込み処理ルーチ
ンが起動される。
【0072】図において処理がステップSP61に進む
と、発音中の音素は存在するか否かが判定され、「N
O」と判定されると直ちに処理が終了する。上記例にお
いては、時刻t1に取り込まれたフォン・シーケンス・
データに含まれる音素は何れも発音されていないため、
タイマ割り込み処理ルーチンにおいては実質的な処理は
行われない。
【0073】3−3.「C3」のノートオン その後、時刻がt2になり、「C3」のノートオンがM
IDIインターフェース3に供給されると、MIDI受
信割り込み処理ルーチンが実行されることによって当該
ノートオンがMIDI受信バッファに書き込まれる。そ
して、再び演奏データ処理ルーチンが起動される。
【0074】図5において処理がステップSP21に進
むと、時刻t2に受信されたMIDI信号の先頭バイト
“90”が取り込まれる。これはステータス・バイトで
あるから、ステップSP22を介して処理はステップS
P24に進む。
【0075】ところで、MIDI信号の先頭バイトが
“90”である場合は、ノートオンまたはノートオフの
うち何れかである。そこで、ステップSP24において
は、先頭バイトが“90”である場合は、これに続く
「2」バイトのデータが読み出され、ノートオンまたは
ノートオフのうち何れであるかが判定される。
【0076】上記例にあっては、“90”に続くデータ
は“30”“42”であり、べロシティ(“42”)が
“00”以外の値であるから、当該ステータスはノート
オンである旨が判定され、RAM8に記憶される。次
に、この判定内容に鑑みて、処理はステップSP25を
介してステップSP31(図6)に進む。
【0077】ステップSP31においては、変数 phone
SEQtime_counter および変数 phoneSEQphone_counter
に共に「0」が代入される。ここで、変数 phoneSEQpho
ne_counter は、今回のノートに含まれる音素(「s」
および「a」)のうち、現在発音の対象とされている音
素を指標する変数である。
【0078】すなわち、先頭の音素の番号を「0」と
し、以降の音素に対応して「1」づつインクリメントさ
れる番号が変数 phoneSEQphone_counter の内容にな
る。また、変数 phoneSEQtime_counter は、現在発音の
対象とされている音素の発音が開始された後の経過時間
を、「5msec」を単位としてカウントするための変
数である。
【0079】次に、処理がステップSP32に進むと、
領域 phoneSEQbuffer 内の先頭の「1」ノート(上記例
では時刻t1に供給されたフォン・シーケンス・デー
タ)中に「呼気情報」と称するデータは存在するか否か
が判定される。ここで、呼気情報とは、呼気(ブレス)
を行う旨を示す信号であり、他の音素と同様に所定の番
号が割り当てられている。
【0080】ここでは呼気情報は存在しないから、「N
O」と判定され、処理はステップSP33に進み、呼気
フラグ f_kokiが「0」に設定される。次に、処理がス
テップSP35に進むと、領域 phoneSEQbuffer より、
先頭の音素ナンバと、そのデュレーションタイムが抽出
される。
【0081】上記例にあっては、「s」の音素ナンバで
ある“35”と、そのデュレーションタイムである“0
A”が抽出されることになる。次に、処理がステップS
P36に進むと、前後の音素関係に基づいて、パラメー
タPHPAR[*]と、パラメータPHCOMB[1-2]とがROM7内
のデータベースから読み出される。この例にあっては、
音素「s」が無音から立ち上がるため、パラメータPHPA
R[s]と、パラメータPHCOMB[ -s]とが読み出されること
になる。
【0082】次に、処理がステップSP37に進むと、
パラメータPHCOMB[ -s]内の調音結合時間COMBI TIME
は、音素「s」のデュレーションタイム以下であるか否
かが判定される。ここで、仮に「NO」と判定される
と、ステップSP38が実行され、調音結合時間がデュ
レーションタイムの値に再設定される。
【0083】何れにしても、次に処理はステップSP3
9に進み、今回の音素(s)の発音に適用される変化特
性が算出される。但し、その前提として、調音結合時間
を圧縮する必要がある場合、あるいは既にステップSP
38で圧縮されている場合には、圧縮後の調音結合時間
が適用される。
【0084】上記例にあっては、音素「s」はフォン・
シーケンス・ヘッダの直後に位置するから、楽器音のノ
ートオンに伴って発音される音素である。従って、図1
3(a)および(c)において説明した規則に従って、データ
ベースに記憶された各変化特性が時間軸方向に圧縮され
る。
【0085】すなわち、これら変化特性は、元々は通常
の調音結合時間COMBI TIME内の変化特性であったが、時
間「COMBI TIME−RCG TIME」内に遷移が完了するよう
に、これらの変化特性が時間軸方向に圧縮されるのであ
る。また、「s」以降に発音される音素であっても、先
にステップSP38が実行された場合には、新たな(短
縮された)調音結合時間に基づいて、これら変化特性が
圧縮されるのである。
【0086】次に、各変化特性(適宜圧縮された特性)
において、現時点の変数 phoneSEQtime_counter の値
(ここでは「0」)に応じたフォルマントデータが算出
される。次に、処理がステップSP40に進むと、算出
されたフォルマントデータが音源回路4の歌唱音用のチ
ャンネルに書き込まれる。
【0087】また、ステップSP40においては、歌唱
音用のチャンネルがノートオフ状態である場合は、これ
らのノートオン信号も音源回路4に供給される。上記例
にあっては、音韻「s」は楽曲における最初の歌唱音で
あるから、このノートオン信号も音源回路4に供給され
ることになる。
【0088】これにより、音素「s」に係る歌唱音の発
音が開始されることになる。さらに、ステップSP40
においては、楽器音自体のノートオン信号も音源回路4
に供給されることは言うまでもない。以上の処理が終了
すると、今回のノートオンに係る演奏データ処理は終了
する。
【0089】3−4.発音中のタイマ割込み 次にタイマ割り込みが発生すると、図8のタイマ割り込
み処理ルーチンが起動される。この場合、音素「s」を
発音中であるから、ステップSP61において「YE
S」と判定され処理はステップSP62に進む。
【0090】ここでは、変数phone_duration_timeが
「0」(=“00”)であるか否か、すなわちデュレー
ションタイムが未確定であるか否かが判定される。音韻
「s」のデュレーションタイムは、「10」(=“0
A”)であるから、ここでは「NO」と判定され、処理
はステップSP63に進む。ここでは、変数 phoneSEQt
ime_counter がデュレーションタイムを越えているか否
かが判定される。
【0091】上記例にあっては、変数 phoneSEQtime_co
unter は先にステップSP31で「0」に設定されてい
る。一方、音韻「s」のデュレーションタイムは、「1
0」(=“0A”)である。従って、ここでは「YE
S」と判定され処理はステップSP64に進み、変数 p
honeSEQtime_counter が「1」だけインクリメントされ
る。
【0092】次に、処理がステップSP65に進むと、
先にステップSP39で算出された(圧縮された)各変
化特性において、現時点の変数 phoneSEQtime_counter
の値(ここでは「1」)に応じたフォルマントデータが
算出される。
【0093】次に、処理がステップSP66に進むと、
算出されたフォルマントデータが音源回路4の歌唱音用
のチャンネルに書き込まれる。これにより、音素「s」
に係る歌唱音の発音状態は、上記各変化特性において
「5msec」だけ進んだ状態になる。以上により、1
回分のタイマ割り込み処理は終了する。
【0094】以後、「5msec」毎に同ルーチンが起
動され、ステップSP64において変数 phoneSEQtime_
counter が「1」づつインクリメントされてゆく。そし
て、インクリメントされた値に基づいて、ステップSP
65,66が実行される。
【0095】これにより、音韻「s」が徐々に立ち上が
るように、音源回路4のフォルマントデータが更新され
てゆく。そして、デュレーションタイムが調音結合時間
よりも長い場合にあっては、その差に相当する時間だけ
パラメータPHPAR[s]に基づく定常状態の音素「s」の発
音が行われることになる。
【0096】3−5.音素「a」への遷移 さて、ステップSP64のインクリメント処理が繰り返
されると、やがて変数phoneSEQtime_counter はデュレ
ーションタイムを越えることになる。その後、再度タイ
マ割り込み処理ルーチンが呼び出され処理がステップS
P63に進むと、ここで「NO」と判定され、処理はス
テップSP67に進む。
【0097】ここでは、変数 phoneSEQphone_counter
が「1」だけインクリメントされ、「1」になる。すな
わち、同変数は「2」番目の音素である「a」を指標す
ることになる。そして、これに対応して、変数 phoneSE
Qtime_counter がリセットされる。
【0098】次に、処理がステップSP68に進むと、
変数 phoneSEQphone_counter は変数 phone number以下
であるか否かが判定される。先にステップSP28にお
いて変数 phone numberには「2」が代入されているか
ら、ここで「YES」と判定され、処理はステップSP
69に進む。
【0099】ここでは、領域 phoneSEQbuffer より、
「2」番目の音素ナンバと、そのデュレーションタイム
が抽出される。上記例にあっては、「a」の音素ナンバ
である“20”と、そのデュレーションタイムである
“00”が抽出されることになる。
【0100】次に、処理がステップSP70に進むと、
前後の音素関係に基づいて、パラメータPHPAR[*]と、パ
ラメータPHCOMB[1-2]とがROM7内のデータベースか
ら読み出される。この例にあっては、音源回路4の状態
を音素「s」から音素「a」に遷移させようとしている
ため、パラメータPHPAR[a]とパラメータPHCOMB[s-a]と
が読み出されることになる。
【0101】次に、処理がステップSP65に進むと、
このパラメータPHCOMB[s-a]に含まれる各変化特性にお
いて、現時点の変数 phoneSEQtime_counter の値(ここ
では「0」)に応じたフォルマントデータが算出され
る。次に、処理がステップSP66に進むと、算出され
たフォルマントデータが音源回路4の歌唱音用のチャン
ネルに書き込まれる。これにより、音素「s」から
「a」への遷移が開始されるのである。
【0102】以後、音素「s」について説明した動作と
同様に、「5msec」毎に同ルーチンが起動され、ス
テップSP64において変数 phoneSEQtime_counter が
「1」づつインクリメントされてゆく。そして、インク
リメントされた値に基づいて、ステップSP65,66
が実行される。
【0103】これにより、音素「s」が徐々に音素
「a」に遷移するように、音源回路4のフォルマントデ
ータが更新されてゆく。やがて、パラメータPHCOMB[s-
a]に係る調音結合時間COMBI TIMEが経過すると、定常状
態の音素「a」の発音が行われることになる。なお、こ
の場合はデュレーションタイムが「0」であるため、ス
テップSP63は常にスキップされる。
【0104】3−6.「C3」のノートオフ 図2の時刻t3においてMIDIインターフェース3に
「C3」のノートオフのMIDI信号が供給されると、
MIDI受信割り込み処理ルーチン(図4)によってそ
の内容がMIDI受信バッファに書き込まれる。
【0105】その後、演奏データ処理ルーチン(図5)
が起動されると、ステップSP21において当該ノート
オフ信号が取り込まれ、ステップSP22〜25を介し
て処理はステップSP51(図7)に進む。ここでは、
「デュレーションタイムが0である音素」の後に、他の
音素は存在するか否かが判定される。
【0106】ここで「デュレーションタイムが0である
音素」とは音素「a」であり、時刻t1に供給されたノ
ートにおいては、この音素「a」以降に他の音素は存在
しない。従って、ここでは「NO」と判定され、処理は
ステップSP57に進む。
【0107】ここでは、呼気フラグ f_kokiは「1」で
あるか否かが判定される。先にステップSP33におい
て呼気フラグ f_kokiは「0」に設定されているから、
ここでは「NO」と判定され、処理はステップSP59
に進み、楽器音のキーオフ処理が行われる。
【0108】これにより、当該ノートオフ処理に係る演
奏データ処理は終了する。すなわち、この例では楽器音
のノートオフに対応して歌唱音に直接影響する処理はな
されないことが解る。従って、当該ノートオフ以降も、
音韻「a」に対する発音が持続される。
【0109】3−7.以降のノートオン 次に、時刻t4において音韻「i」に係るフォン・シー
ケンス・データがMIDIインターフェース3に供給さ
れると、MIDI受信割り込み処理ルーチンにおいて当
該データがMIDI受信バッファに書き込まれる。その
後、演奏データ処理ルーチンのステップSP28におい
て、バッファphoneSEQbufferにフォン・シーケンス・デ
ータが書き込まれ、変数 phone numberに「1」が代入
される。
【0110】次に、時刻t5において楽器音「E3」の
ノートオン信号が供給されると、再び図6に示すノート
オン処理が実行されることになる。その際、ステップS
P36で参照されるパラメータは、PHPAR[i]とPHCOMB[a
-i]である。
【0111】また、音素「i」はノートオン信号に伴っ
て発音される音素であるため、音素「s」の立ち上がり
時と同様に、ステップSP39においてはPHCOMB[a-i]
の調音結合時間COMBI TIMEは短縮され、これに伴って各
変化特性も時間軸方向に圧縮される。
【0112】これにより、歌唱音は「a」から「i」に
遷移し、「i」の定常状態になる。以後、楽器音に係る
新たなノートオン信号が発生すると、次の音素の音素ナ
ンバおよびデュレーションタイムが読み出され、歌唱音
が順次遷移してゆくことになる。
【0113】3−8.呼気情報に対応する処理 ところで、フォン・シーケンス・データには上述したも
の以外の種々の情報を含めることができる。そのうちの
一つとして、呼気情報(息継ぎ)がある。そこで、フォ
ン・シーケンス・データにこの呼気情報が含まれていた
場合の処理を説明する。
【0114】呼気情報を含むフォン・シーケンス・デー
タが供給された後、対応する楽器音のノートオンが発生
すると、上述したように図6に示す処理が実行される。
そして、ステップSP32においては「YES」と判定
され、呼気フラグ f_kokiが「1」に設定される。
【0115】その後、呼気情報が含まれない場合と同様
の処理が行われるが、楽器音のノートオフが発生し図7
に示す処理が実行されると、ステップSP57において
「YES」と判定され、ステップSP58において歌唱
音のキーオフ処理が行われる。
【0116】すなわち、音源回路4に対して歌唱音のキ
ーオフ信号が供給される。そして、音源回路4において
は、歌唱音をなだらかに落としてゆくリリース処理が行
われる。これにより、現在処理中のノートと後続のノー
トオンとの間が無音状態になり、あたかも人間が息継ぎ
をしているかのように歌唱音が発音される。 3−9.デュレーションタイムが有限である場合 一ノートに含まれる全ての音素のデュレーションタイム
が有限値(“00”以外の値)であった場合の処理を説
明する。かかる場合、タイマ割り込み処理ルーチン(図
8)が起動される毎にステップSP64において変数 p
honeSEQtime_counter がインクリメントされ、次に同ル
ーチンが起動された際に、同変数の値と、発音処理中の
音素のデュレーションタイムとが比較される。
【0117】そして、ステップSP63において「YE
S」と判定された場合はステップSP67が実行され、
変数 phoneSEQphone_counter がインクリメントされ
る。そして、最終の音素に対するデュレーションタイム
が経過すると、変数 phoneSEQphone_counter と変数 ph
one numberとが等しくなるから、ステップSP68にお
いて「NO」と判定され、処理はステップSP71に進
む。
【0118】ステップSP71においては、歌唱音に対
するキーオフ処理が行われる。すなわち、音源回路4に
対して歌唱音のキーオフ信号が供給され、現在処理中の
ノートと後続のノートオンとの間が無音状態になる。こ
のような有限値のデュレーションタイムは、スタッカー
トすなわち断続的に歌唱音を発音させる場合に用いて好
適である。
【0119】3−10.デュレーションタイムが「0」
である音素の後に他の音素が続く場合 デュレーションタイムが「0」である音素の後に他の音
素が続く場合とは、例えば一ノートに含まれる音素が
「s」「a」「t」の順序であって「a」のデュレーシ
ョンタイムが“00”、「s」および「t」のデュレー
ションタイムが有限値である場合が挙げられる。
【0120】かかる場合、対応する楽器音のノートオフ
が発生し図7のルーチンに処理が進むと、ステップSP
51において「YES」と判定され、処理はステップS
P52に進む。ここでは、変数 phoneSEQphone_counter
の値は、デュレーションタイムが「0」である音素の
直後の音素を指標する値にセットされる。
【0121】上記例(「s」「a」「t」)にあって
は、変数 phoneSEQphone_counter は、「t」を指標す
る「2」にセットされることになる。さらに、ステップ
SP52においては、変数 phoneSEQtime_counter が
「0」にセットされる。
【0122】次に、処理がステップSP53に進むと、
バッファphoneSEQbufferより、次の音素ナンバとデュレ
ーションタイムとが抽出される。すなわち、上記例で
は、「t」の音素ナンバと、そのデュレーションタイム
とが抽出される。
【0123】次に、処理がステップSP54に進むと、
前後の音素関係に基づいて、パラメータPHPAR[*]と、パ
ラメータPHCOMB[1-2]とがROM7内のデータベースか
ら読み出される。この例にあっては、パラメータPHPAR
[t]と、パラメータPHCOMB[a-t]とが読み出されることに
なる。
【0124】次に、処理がステップSP55に進むと、
これらパラメータに含まれる各変化特性において、現時
点の変数 phoneSEQtime_counter の値(ここでは
「0」)に応じたフォルマントデータが算出される。次
に、処理がステップSP56に進むと、算出されたフォ
ルマントデータが音源回路4の歌唱音用のチャンネルに
書き込まれる。これにより、歌唱音は音素「a」から
「t」に遷移し始めることになる。
【0125】次に、処理がステップSP59に進むと、
楽器音のキーオフ処理が行われる。その後はタイマ割り
込み処理ルーチン(図8)が繰り返し実行されることに
より、歌唱音は「a」から「t」に遷移し、やがて
「t」の定常状態における発音が行われる。
【0126】そして、最終の音素である「t」のデュレ
ーションタイムが経過すると、変数phoneSEQphone_coun
ter と変数 phone numberとが等しくなるから、ステッ
プSP68において「NO」と判定される。これによ
り、ステップSP71において、歌唱音に対するキーオ
フ処理が行われる。
【0127】以上のように、デュレーションタイムが
「0」である音素(「a」)の後に他の音素(「t」)
が続く場合は、楽器音のノートオフが発生したタイミン
グで後者の発音が開始される。このため、特殊な状況
(例えば、「他の音素」のデュレーションタイムが極端
に長い場合や次の楽器音のノートオンまでのタイミング
が極端に短い場合)を除けば、次の楽器音のノートオン
が発生するまでに全ての音素の発音を完了させることが
できる。
【0128】4.変形例 本発明は上述した実施形態に限定されるものではなく、
例えば以下のように種々の変形が可能である。 4−1.上記実施形態においては、フォン・シーケンス
・データ内に呼気情報が含まれていた場合は、楽器音の
ノートオフの際に歌唱音のキーオフ処理が行われた(図
7、ステップSP57,58)。しかし、キーオフ処理
の前に、息継ぎ音(人間が息継ぎしているような音)を
発生させてもよい。
【0129】4−2.また、上記実施形態においては、
音源回路4は有声音および無声音の各々に対して「4」
チャンネルづつ確保していたが、「s」のように高周波
成分が強い音素については追加のチャンネルを確保し、
高周波成分用のフォルマントを生成してもよい。図9,
図10には、このような追加フォルマントの周波数およ
びフォルマントレベルを「TGf5」および「UTG5」として
示す。
【0130】4−3.また、上記実施形態においては、
調音結合時間COMBI TIMEは全フォルマントに対して共通
の値を用いたが、フォルマント毎に異なる値を用いても
よい。また、各フォルマントが遷移を開始するタイミン
グについても、相互に時間差を付けてもよい。
【0131】4−4.また、上記実施形態においては、
音声信号の立上り時間を短くする具体例として図13
(c)に示すようにフォルマントレベルを変化させる技術
を用いたが、これに代えて立上り時間を短くするための
種々の方法を用いることができる。
【0132】4−5.また、上記実施形態においては、
プログラムを記憶する記憶媒体としてROM7を用いた
が、本発明は、パーソナルコンピュータ用のソフトウエ
アとして、CD−ROMやフロッピーディスク等の記憶
媒体上に実現可能であることは言うまでもない。さら
に、音源回路4も含めてソフトウエア上で実現すること
も可能であり、電子楽器のみならずゲームマシン、カラ
オケ等、各種アミューズメント機器に対して適用可能で
ある。
【0133】
【発明の効果】以上説明したように、請求項1,4記載
の構成によれば、ノートオン信号に伴って発生させる音
声信号の立上り時間を、他の音声信号の立上り時間より
も短くすることができる。さらに、請求項2記載の構成
によれば、立上り時間が音声信号に割り当てられた発音
時間以下である場合も立上り特性を時間軸方向に圧縮す
ることができる。これにより、ノートオンに伴って適切
なタイミングで音声信号を発音させることができる。
【0134】また、請求項3記載の構成によれば、ノー
トオフ信号の受信に伴って中間持続音素の発音を停止さ
せることができるから、以降の音素を適切なタイミング
で発音させることができる。
【図面の簡単な説明】
【図1】 本発明の一実施形態の電子楽器のブロック図
である。
【図2】 一実施形態に供給されるMIDI信号の例を
示す図である。
【図3】 一実施形態のメインルーチンのフローチャー
トである。
【図4】 一実施形態のMIDI受信割り込み処理ルー
チンのフローチャートである。
【図5】 一実施形態の演奏データ処理ルーチンのフロ
ーチャートである。
【図6】 演奏データ処理ルーチンのノートオン処理の
フローチャートである。
【図7】 演奏データ処理ルーチンのノートオフ処理の
フローチャートである。
【図8】 一実施形態のタイマ割り込み処理ルーチンの
フローチャートである。
【図9】 音源回路4の各チャンネルに設定されるフォ
ルマント周波数およびフォルマントレベルの一例を示す
図である。
【図10】 図9の続きである。
【図11】 一実施形態のデータベースに格納されるパ
ラメータのデータフォーマットを示す図である。
【図12】 ノートオンイベント発生時における音素の
遷移方法の各種の例を示す図である。
【図13】 図12の続きである。
【符号の説明】
1……スイッチパネル、2……液晶ディスプレイ、3…
…MIDIインターフェース、4……音源回路、5……
サウンドシステム、6……キーボード、7……ROM
(記憶媒体)、8……RAM(記憶手段)、9……CP
U(第1および第2の判定手段、圧縮手段、発音持続手
段、発音中断手段)、10……バス、11……タイマ。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 演奏データに対応して所定の歌唱音を発
    生させる歌唱音合成装置において、 前記歌唱音を構成する音素のうち前記演奏データのノー
    トオン信号に伴って発生される先頭音素の立上り時間
    を、この先頭音素がノートオン期間中に他の音素に引き
    続いて発音される場合の立上り時間よりも短くすること
    を特徴とする歌唱音合成装置。
  2. 【請求項2】 演奏データに対応して所定の歌唱音を発
    生させる歌唱音合成装置において、 前記歌唱音を構成する音素の立上り時間と、この立上り
    時間内における立上り特性とを記憶する記憶手段と、 前記立上り時間は前記音素に割り当てられた発音時間以
    下であるか否かを判定する第1の判定手段と、 前記音素は前記演奏データのノートオン信号に伴って発
    音されるべき先頭音素であるか否かを判定する第2の判
    定手段と、 これら第1および第2の判定手段の判定結果に基づい
    て、前記立上り特性を時間軸方向に圧縮する圧縮手段と
    を具備することを特徴とする歌唱音合成装置。
  3. 【請求項3】 演奏データに対応して所定の歌唱音を発
    生させる歌唱音合成装置において、 前記歌唱音を構成する音素と、これら各音素のデュレー
    ションタイムとを記憶する記憶手段と、 前記音素のうち最後に発音されるべき最終音素のデュレ
    ーションタイムとして前記記憶手段に所定値が記憶され
    ていると、次にノートオン信号が供給されるまで該最終
    音素の発音を持続させる発音持続手段と、 前記最終音素以外の音素であって前記デュレーションタ
    イムとして前記記憶手段に前記所定値が記憶されている
    中間持続音素が存在すると、ノートオフ信号の受信に伴
    って前記中間持続音素の発音を停止し、しかる後に前記
    中間持続音素以降の音素を発音させる発音中断手段とを
    具備することを特徴とする歌唱音合成装置。
  4. 【請求項4】 演奏データに対応して所定の歌唱音を発
    生させるプログラムを記憶した記憶媒体であって、 前記プログラムは、前記歌唱音を構成する音素のうち前
    記演奏データのノートオン信号に伴って発生される先頭
    音素の立上り時間を、この先頭音素がノートオン期間中
    に他の音素に引き続いて発音される場合の立上り時間よ
    りも短くすることを特徴とする記憶媒体。
JP08202165A 1996-07-23 1996-07-31 歌唱音合成装置および歌唱音の発生方法 Expired - Lifetime JP3132392B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP08202165A JP3132392B2 (ja) 1996-07-31 1996-07-31 歌唱音合成装置および歌唱音の発生方法
US08/902,424 US5998725A (en) 1996-07-23 1997-07-29 Musical sound synthesizer and storage medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08202165A JP3132392B2 (ja) 1996-07-31 1996-07-31 歌唱音合成装置および歌唱音の発生方法

Publications (2)

Publication Number Publication Date
JPH1049169A true JPH1049169A (ja) 1998-02-20
JP3132392B2 JP3132392B2 (ja) 2001-02-05

Family

ID=16453046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08202165A Expired - Lifetime JP3132392B2 (ja) 1996-07-23 1996-07-31 歌唱音合成装置および歌唱音の発生方法

Country Status (1)

Country Link
JP (1) JP3132392B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010730A (ja) * 2004-06-22 2006-01-12 Brother Ind Ltd 歌唱音合成装置及び歌唱音合成方法
JP2006105619A (ja) * 2004-09-30 2006-04-20 Kawai Musical Instr Mfg Co Ltd 電子メトロノーム
JP2006119674A (ja) * 2006-01-30 2006-05-11 Yamaha Corp 歌唱合成方法と装置及び記録媒体
US7124084B2 (en) 2000-12-28 2006-10-17 Yamaha Corporation Singing voice-synthesizing method and apparatus and storage medium
WO2020217801A1 (ja) * 2019-04-26 2020-10-29 ヤマハ株式会社 オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7124084B2 (en) 2000-12-28 2006-10-17 Yamaha Corporation Singing voice-synthesizing method and apparatus and storage medium
US7249022B2 (en) 2000-12-28 2007-07-24 Yamaha Corporation Singing voice-synthesizing method and apparatus and storage medium
JP2006010730A (ja) * 2004-06-22 2006-01-12 Brother Ind Ltd 歌唱音合成装置及び歌唱音合成方法
JP4525201B2 (ja) * 2004-06-22 2010-08-18 ブラザー工業株式会社 歌唱音合成装置及び歌唱音合成方法
JP2006105619A (ja) * 2004-09-30 2006-04-20 Kawai Musical Instr Mfg Co Ltd 電子メトロノーム
JP2006119674A (ja) * 2006-01-30 2006-05-11 Yamaha Corp 歌唱合成方法と装置及び記録媒体
JP4631726B2 (ja) * 2006-01-30 2011-02-16 ヤマハ株式会社 歌唱合成装置及び記録媒体
WO2020217801A1 (ja) * 2019-04-26 2020-10-29 ヤマハ株式会社 オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム
JPWO2020217801A1 (ja) * 2019-04-26 2020-10-29

Also Published As

Publication number Publication date
JP3132392B2 (ja) 2001-02-05

Similar Documents

Publication Publication Date Title
US10629179B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
US7124084B2 (en) Singing voice-synthesizing method and apparatus and storage medium
US11468870B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
US11545121B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
US10825434B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
US5703311A (en) Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques
US20190318715A1 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
US11417312B2 (en) Keyboard instrument and method performed by computer of keyboard instrument
US5998725A (en) Musical sound synthesizer and storage medium therefor
JP2003241757A (ja) 波形生成装置及び方法
JP7476934B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP3132392B2 (ja) 歌唱音合成装置および歌唱音の発生方法
JP3307283B2 (ja) 歌唱音合成装置
JP4300764B2 (ja) 歌唱音声を合成する方法および装置
JP3233036B2 (ja) 歌唱音合成装置
JP7276292B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JPH04146473A (ja) 電子音声楽器
JP2002221978A (ja) ボーカルデータ生成装置、ボーカルデータ生成方法および歌唱音合成装置
JPH0895588A (ja) 音声合成装置
WO2023171497A1 (ja) 音響生成方法、音響生成システムおよびプログラム
EP0396141A2 (en) System for and method of synthesizing singing in real time
JP2006119674A (ja) 歌唱合成方法と装置及び記録媒体
JPH06348261A (ja) 電子楽器
JP2004287463A (ja) 波形生成方法及び装置

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071124

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131124

Year of fee payment: 13

EXPY Cancellation because of completion of term