JPH10240264A - 楽音合成装置および方法 - Google Patents

楽音合成装置および方法

Info

Publication number
JPH10240264A
JPH10240264A JP9059906A JP5990697A JPH10240264A JP H10240264 A JPH10240264 A JP H10240264A JP 9059906 A JP9059906 A JP 9059906A JP 5990697 A JP5990697 A JP 5990697A JP H10240264 A JPH10240264 A JP H10240264A
Authority
JP
Japan
Prior art keywords
phoneme
formant
pitch
time
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9059906A
Other languages
English (en)
Other versions
JP3834804B2 (ja
Inventor
Shinichi Ota
慎一 大田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP05990697A priority Critical patent/JP3834804B2/ja
Publication of JPH10240264A publication Critical patent/JPH10240264A/ja
Application granted granted Critical
Publication of JP3834804B2 publication Critical patent/JP3834804B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/471General musical sound synthesis principles, i.e. sound category-independent synthesis methods
    • G10H2250/481Formant synthesis, i.e. simulating the human speech production mechanism by exciting formant resonators, e.g. mimicking vocal tract filtering as in LPC synthesis vocoders, wherein musical instruments may be used as excitation signal to the time-varying filter estimated from a singer's speech

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 【課題】フォルマント合成音源を用いて歌唱させる場合
に、より自然な合成音を得ることができ、特にピッチを
含む各種の演奏情報の変化に適応した自然な歌声を合成
することが可能な楽音合成装置および方法を提供するこ
とを目的とする。 【解決手段】音素データベースに格納するフォルマント
パラメータを、ピッチの変化に対応したフォルマントパ
ラメータの変化を反映したものとする。そして、唄わせ
る歌詞を表す歌詞情報と少なくともピッチ情報を含む演
奏情報とを入力し、上記音素データベースを参照し、入
力した歌詞情報およびピッチ情報に対応するフォルマン
トパラメータを求める。求めたフォルマントパラメータ
に応じたフォルマントを有する音声を上記ピッチ情報の
ピッチで合成出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、所望のフォルマ
ントにしたがう自然な楽音を合成する楽音合成装置およ
び方法に関する。
【0002】
【従来の技術】従来より、人が発する音声には所定のフ
ォルマントが存在し、これにより音声が特徴づけられて
いることが知られている。一方、楽音合成装置で音声を
合成して所望の音高で出力することにより歌を唄わせる
試みがなされている。
【0003】
【発明が解決しようとする課題】このように楽音合成装
置で歌唱させる場合、より自然な合成音を得ることが求
められている。特に、音高(ピッチ)を含む各種の演奏
情報が変化した場合でも、それらの演奏情報に適応して
自然な歌声を合成できるようにすることが求められてい
る。
【0004】この発明は、フォルマント合成音源を用い
て歌唱させる場合に、より自然な合成音を得ることがで
き、特にピッチを含む各種の演奏情報の変化に適応した
自然な歌声を合成することが可能な楽音合成装置および
方法を提供することを目的とする。
【0005】
【課題を解決するための手段】この目的を達成するた
め、請求項1に係る楽音合成装置は、唄わせる歌詞を表
す歌詞情報と少なくともピッチ情報を含む演奏情報とを
入力する入力手段と、音素ごとのフォルマントパラメー
タであってピッチの変化に対応したフォルマントパラメ
ータの変化を反映したフォルマントパラメータを格納し
た音素データベースと、上記音素データベースを参照し
て、上記入力手段により入力した歌詞情報およびピッチ
情報に対応するフォルマントパラメータを求める手段
と、求めたフォルマントパラメータに応じたフォルマン
トを有する音声を、上記ピッチ情報に応じたピッチで、
合成出力するフォルマント合成音源とを備えたことを特
徴とする。
【0006】請求項2に係る発明は、請求項1におい
て、前記音素データベースを参照してフォルマントパラ
メータを求める手段を、前記ピッチ情報以外の演奏情報
にも基づいてフォルマントパラメータを求めるものとし
たことを特徴とする。
【0007】請求項3に係る楽音合成方法は、唄わせる
歌詞を表す歌詞情報と少なくともピッチ情報を含む演奏
情報とを入力する入力ステップと、音素ごとのフォルマ
ントパラメータであってピッチの変化に対応したフォル
マントパラメータの変化を反映したフォルマントパラメ
ータを格納した音素データベースを参照し、上記入力手
段により入力した歌詞情報およびピッチ情報に対応する
フォルマントパラメータを求めるステップと、求めたフ
ォルマントパラメータに応じたフォルマントを有する音
声を、上記ピッチ情報に応じたピッチで、合成出力する
ステップとを備えたことを特徴とする。
【0008】請求項4に係る発明は、請求項3に係る楽
音合成方法を実現するプログラムを記憶したことを特徴
とする記憶媒体である。
【0009】
【発明の実施の形態】以下、図面を用いてこの発明の実
施の形態を説明する。
【0010】図1は、この発明に係る楽音合成装置(歌
唱シンセサイザ)のシステム構成を示す。この楽音合成
装置は、中央処理装置(CPU)101、MIDI(Mu
sical Instrument Digital Interface)インタフェース
102、データメモリデバイス104、ワーキングメモ
リ106、プログラムメモリ107、設定操作子10
9、ディスプレイ111、ネットワークインターフェー
ス112、フォルマント合成音源115、サウンドシス
テム116、およびシステム共通バス117を備えてい
る。101,104,106〜109,111,11
2,115の各部は、システム共通バス117に接続さ
れている。サウンドシステム116をシステム共通バス
117に接続してCPU101から制御できるようにし
てもよい。
【0011】CPU101は、この楽音合成装置全体の
動作を制御する。CPU101は、MIDIインタフェ
ース102を介して、外部のMIDI機器群103との
間でMIDI方式メッセージを送受信する機能を有す
る。データメモリデバイス104は、各種のデータを記
憶する記憶装置であり、具体的には、半導体メモリ、フ
ロッピーディスク装置(FDD)、ハードディスク装置
(HDD)、光磁気(MO)ディスク装置、およびIC
メモリカード装置などのローカルデータ記憶装置105
である。特に、データメモリデバイス104は、MID
Iデータで演奏データや歌詞データなどを格納してい
る。ローカルデータ記憶装置105としては、上記に例
示したもののほかにも、様々な形態のメディアを利用す
る装置が使用できる。
【0012】ワーキングメモリ106は、CPU101
が動作する際にワーク領域として使用するRAM(ラン
ダムアクセスメモリ)であり、各種のレジスタ、フラ
グ、およびバッファなどに使用する。プログラムメモリ
107は、CPU101が実行する制御プログラムや各
種定数データなどを格納したROM(リードオンリメモ
リ)である。設定操作子109は、ユーザが操作する各
種スイッチなどの操作子であり、例えば通常のパーソナ
ルコンピュータで用いられているマウス110やキーボ
ードなどでよい。ディスプレイ111は、各種の情報を
表示するために使用する表示装置である。
【0013】ネットワークインターフェース112は、
電話回線などの公衆回線やイーサネット(Ethern
et)などのローカルエリアネットワーク(LAN)に
接続するためのインターフェースである。いわゆるパソ
コン通信やインターネットなどに接続するためのインタ
ーフェースでもよい。このネットワークインターフェー
ス112を介して、各種のネットワーク113に接続す
ることにより、外部のサーバやホストコンピュータから
(具体的には、それらに接続されたリモートデータ記憶
装置114などから)各種のプログラムやデータをダウ
ンロードすることができる。
【0014】フォルマント合成音源115は、CPU1
01からの指示(フォルマントパラメータなど)に応じ
て、指定されたフォルマントの音声を指定された音高で
生成出力する。フォルマント合成音源115から出力さ
れた音声信号は、サウンドシステム116により放音さ
れる。
【0015】この楽音合成装置では、データメモリ10
4から読み出したMIDI形式の歌詞データ(唄わせる
歌詞を指定するデータ)および演奏データ(音高などの
演奏情報を指定するデータ)や、MIDIインターフェ
ース102を介してMIDI機器103から入力した歌
詞データおよび演奏データにしたがって、歌唱発音を行
なうことができる。歌詞データおよび演奏データは、別
に接続した演奏操作子(例えば鍵盤など)108から入
力したMIDIデータを用いてもよいし、ネットワーク
インターフェース112を介して外部のネットワーク1
13から入力したMIDIデータを用いてもよい。この
場合、入力したデータをリアルタイムに処理して歌唱さ
せてもよいし、一旦、データメモリデバイス104(ロ
ーカルデータ記憶装置105)に格納した後、それを読
み出して処理することにより歌唱させてもよい。歌詞デ
ータと演奏データとを別の系列から入力するようにして
もよい。例えば、データメモリデバイス104にあらか
じめ格納されている歌詞データの歌詞を、演奏操作子1
08からリアルタイムに入力する演奏データの音高で、
歌唱させるようにすることもできる。以上のように、歌
詞データと演奏データはどのような方式で用意してもよ
い。
【0016】このような歌唱発音は、CPU101の制
御のもとで行なわれる。すなわち、CPU101は、上
述のように各種の方式で用意された歌詞データと演奏デ
ータを入力し、後述の図4〜図9で説明するような処理
でフォルマント合成音源115に発音指示を出し、これ
により歌唱させる。この際CPU101が実行する制御
プログラムはROMであるプログラムメモリ107に格
納されているものであるが、プログラムメモリ107を
ROMの代わりにRAMで構成し、ローカルデータ記憶
装置105に制御プログラムを格納しておき、該制御プ
ログラムを必要に応じてRAMであるプログラムメモリ
107にロードして実行するようにしてもよい。このよ
うにすれば、制御プログラムの追加やバージョンアップ
などが容易に行なえる。特に、CD−ROMなどの着脱
可能な記録媒体に記憶されている本発明に係る制御プロ
グラムや各種データをHDDなどのローカルデータ記憶
装置105にインストールして使用するようにすれば、
制御プログラムやデータの新規インストールやバージョ
ンアップなどが容易に行なえる。また、CPU101が
実行する制御プログラムは、ネットワークインターフェ
ース112を介してネットワーク経由でダウンロードし
たものでもよい。その際、ネットワークからダウンロー
ドした制御プログラムを一旦ローカルデータ記憶装置1
05に格納し必要に応じてRAM構成のプログラムメモ
リ107にロードして実行するようにしてもよいし、ネ
ットワークからダウンロードした制御プログラムを直接
RAM構成のプログラムメモリ107にロードして実行
するようにしてもよい。
【0017】このような楽音合成装置は、各種の形態で
実現可能である。例えば、シンセサイザ、音源モジュー
ルなどの電子楽器に適用してもよいし、いわゆるマルチ
メディアパソコンに適用してもよい。汎用のパーソナル
コンピュータに音源ボードを装着し、外部の鍵盤などの
MIDI機器から演奏情報(MIDI入力)を入力する
MIDIインターフェースを装着して、必要なソフトウ
エアを実行することで実現することもできる。
【0018】図2は、本発明に係る図1の楽音合成装置
で歌唱させる場合の処理概要を示す図である。演奏デー
タ201や歌詞データ202は、上述したような各種の
方式でMIDIデータでCPU101に入力する。演奏
データ201は、音高(ピッチ)情報やベロシティ情報
などを含むノートオンとノートオフである。歌詞データ
202は、演奏データ201で指定した音符で発音すべ
き歌詞(音素データ)を示す。歌詞データ202は、M
IDIのシステムエクスクルーシブなどの形式で作成す
る。例えば、「さいた」という歌詞(音素で表わすと
「saita」)を順次C3,E3,G3の音高で唄わ
せる場合、演奏データ201と歌詞データ202は、例
えば以下のようなシーケンス(1)でCPU101に入
力させる。
【0019】なお、ここではノートオンメッセージの前
にその音符で発音すべき歌詞データを送るようにしてい
る。s,a,i,tはそれぞれ音素を示し、音素に続く
<>内の数値はその音素のデュレーションタイム(持続
時間)を示す。ただし、<00>は次の音素のノートオ
ンが来るまでその音素を持続させて発音することを示
す。歌詞データs<20>a<00>とi<00>とt
<02>a<00>とは、それぞれ、所定のシステムエ
クスクルーシブのスタートを表すコードとエンドを表す
コードに挟まれたデータであり、歌詞データであること
が分かるようになっている。以下では、s<20>a<
00>のような1ノート中で発音する歌詞のシーケンス
をフォーンシーケンス(phoneSEQ)と呼び、歌詞データ
バッファ210をフォーンシーケンスバッファ(phoneS
EQバッファ)と呼ぶものとする。
【0020】このようなシーケンス(1)を受信したC
PU101は、以下のように動作する。まず始めに、フ
ォーンシーケンスs<20>a<00>を受信すると、
そのフォーンシーケンスをフォーンシーケンスバッファ
210に記憶しておく。フォーンシーケンスバッファ2
10は、ワーキングメモリ106内に用意してあるバッ
ファである。次に、「C3のノートオン」を受信する
と、CPU101は、フォーンシーケンスバッファ21
0を参照して発音させる歌詞s<20>a<00>を知
り、その歌詞を指定音高「C3」で発生するようにフォ
ルマントパラメータを算出してフォルマント合成音源1
15に送出する。フォルマントパラメータは、所定時間
(ここでは5msec)ごとに送出する。これにより、
歌詞s<20>a<00>の音高「C3」での発音が行
なわれる。
【0021】次に「C3のノートオフ」を受信するが、
直前にa<00>が指定されているので、次のノートオ
ンまで「a」を持続させるため、CPU101は受信し
た「C3のノートオフ」を無視する。次に発音すべきフ
ォーンシーケンスi<00>を受信するとそのフォーン
シーケンスをフォーンシーケンスバッファ210に記憶
し、「E3のノートオン」を受信すると、CPU101
は、フォーンシーケンスバッファ210を参照して発音
させる歌詞i<00>を知り、その歌詞を指定音高「E
3」で発生するようにフォルマントパラメータを算出し
てフォルマント合成音源115に送出する。以下、「t
a」の発音も同様の処理により行なう。
【0022】フォルマントパラメータは、時系列データ
であり、CPU101から所定の時間間隔でフォルマン
ト合成音源115に転送する。所定の時間間隔とは、通
常、人の音声の特徴を出して発音するには、例えば数m
sec間隔程度の低レートでよい。この実施の形態では
5msecごととした。この時間間隔で逐次フォルマン
トを時間的に変化させることにより、人の音声の特徴を
出して歌を唄わせる。フォルマントパラメータとして
は、例えば、有声音/無声音の別、フォルマント中心周
波数、フォルマントレベル、およびフォルマントバンド
幅(周波数軸上でのフォルマントの形状を規定するパラ
メータ)などがある。
【0023】CPU101は、入力したフォーンシーケ
ンス202と演奏データ201に基づいてフォルマント
パラメータを算出するが、その際、音素データベースと
調音結合データベースを参照する。音素データベースと
調音結合データベースは、あらかじめローカルデータ記
憶装置105に用意されており、それをワーキングメモ
リ106にロードして使用するものとする。何種類かの
発音声質(個人差、男声、女声など)で歌唱させること
ができるように、声質ごとに各種用意した音素データベ
ースと調音結合データベースを選択して用いることがで
きるようにしてもよい。
【0024】図3は、音素データベースの参照方式の概
念図である。301は音素データベースを示す。音素デ
ータベース301は、各音素ごとのフォルマントパラメ
ータを集めたものである。302−1,302−2,3
02−3,…,302−N(Nは音素の数)は、それぞ
れ、一つの音素のフォルマントパラメータを集めたもの
を示す。一つの音素のフォルマントパラメータの集まり
(例えば302−1)とは、当該音素の発音開始からの
経過時間とその時点のピッチとを入力すると対応するフ
ォルマントパラメータが一意に出力されるようなデータ
ベースである。したがって、音素データベース301
は、音素を特定する音素ナンバ、ピッチ、およびその音
素の発音開始からの経過時間を入力し、該入力データに
応じたフォルマントパラメータを出力するデータベース
である。その形態はどのようなものでもよい。例えば、
テーブルの形態でもよいし、入力データの範囲を所定の
セグメントに分けて各セグメントごとにフォルマントパ
ラメータを保持しておき入力データに応じた補間処理を
行なって出力するようなものでもよい。また、連続デー
タあるいは数式データの形態でもよい。
【0025】なお、図3では音素データベース301の
フォルマントパラメータとしてフォルマント周波数およ
びフォルマントレベルのグラフ305,306のみを例
示したが、フォルマントパラメータというときは、フォ
ルマント周波数およびフォルマントレベルに限らず、フ
ォルマントバンド幅などの他のフォルマントパラメータ
を含んでいてもよい。また図3では、時間軸方向の次元
は省略し、音素ナンバと矢印307のように入力するピ
ッチに応じてフォルマント周波数およびフォルマントレ
ベルが定まる様子を示した。
【0026】CPU101が音素データベースを参照す
る際に使用するピッチは、303に示すように、ノート
オンで指定される基本的なピッチデータにピッチベンド
データおよびその他のピッチ生成データを加算した値で
ある。歌声のフォルマント(特にフォルマント周波数)
は、ピッチに応じて音素ごとに異なる変化をする。本実
施の形態では、ピッチに応じたフォルマントパラメータ
を出力するように音素データベースを構成しているの
で、ピッチに応じたフォルマントの変化を合成音声でシ
ミュレートでき、自然な歌声を合成することが可能であ
る。なお、304に示すように、ベロシティデータ、ボ
リュームデータ、およびその他レベル生成データを加算
した値を、ピッチデータに反映させても良い。ベロシテ
ィ、ボリューム、およびその他レベルデータは、ピッチ
を変化させる場合があるので、そのピッチの変化をフォ
ルマントパラメータに反映させるということである。特
に、CPU101の処理速度が速ければ、フォルマント
パラメータを音源115に出力するタイミングの都度、
その時点のピッチを反映させてフォルマントパラメータ
を算出するとよい。
【0027】図4は、この楽音合成装置の電源がオンさ
れたときにCPU101が実行するメインプログラムの
手順を示す。まずステップ401で、各種の初期設定を
行なう。特に、後述する発音フラグHFLAGは0に初
期設定する。次にステップ402で各種のイベントを待
つ。イベントが発生したときは、発生したイベントをス
テップ403で判別し、それぞれに応じた処理404〜
406を実行し、再びステップ402に戻る。ステップ
404は、MIDIメッセージを受信したときに実行さ
れるMIDI受信処理である。ステップ405は,MI
DI受信バッファ中のデータを処理するためのMIDI
データ処理である。このMIDIデータ処理は、他のイ
ベントが発生せずタスクが空いているとき繰り返し実行
される。その他、各種のイベントが発生したときには発
生したイベントに応じた処理(ステップ406)を行な
う。
【0028】図5は、図4のステップ404のMIDI
受信処理の手順を示す。MIDI受信処理では、ステッ
プ501で、受信したMIDIメッセージをMIDI受
信バッファ(ワーキングメモリ106内に確保されてい
る)へ書き込み、リターンする。
【0029】図6は、図4のステップ405のMIDI
データ処理の手順を示す。まず、ステップ601で、M
IDI受信バッファより1バイトを取り込む。次にステ
ップ602で、取り込んだ1バイトデータがステータス
バイト(最上位ビットが1)であるか否か判別する。ス
テータスバイトであるときは、ステップ604で、ステ
ータスバイト以降のデータバイトを取り込み、ステータ
スバイトとともに所定のバッファに記憶し、ステップ6
05に進む。ステップ602でステータスバイトでない
ときは、ステップ603でその他の処理を行なった後、
リターンする。なお、ステータスバイトを取り込んだ時
点でMIDI受信バッファに以降に続くデータバイトが
受信されているとは限らないので、ステップ603でス
テータスバイトに引き続くデータバイトを順次取り込
み、1メッセージ分が取り込まれた時点でステップ60
4に進むようにしてもよい。ステップ604の時点で
は、一つのMIDIメッセージが所定のバッファに取り
込まれていることになる。
【0030】ステップ605では、受信したMIDIメ
ッセージの各ステータスごとに処理を分岐する。ノート
オンであるときは、図7のノートオン処理に進む。ノー
トオフであるときは、図8のノートオフ処理に進む。シ
ステムエクスクルーシブであるときは、ステップ607
に進み、当該MIDIメッセージがフォーンシーケンス
のメッセージであるか否かを判別する。フォーンシーケ
ンスであるときは、ステップ608で、当該フォーンシ
ーケンスをフォーンシーケンスバッファへ書き込み、リ
ターンする。ステップ607でフォーンシーケンスでな
いときは、ステップ609で他のシステムエクスクルー
シブの処理を行なった後、リターンする。ステップ60
5で当該MIDIメッセージがその他のメッセージであ
るときは、ステップ606で、各ステータスに応じた処
理を行なった後、リターンする。特に、受信したMID
Iメッセージが歌唱終了情報(演奏データの最後には曲
の終了を示す歌唱終了情報が入力するものとする)であ
ったときは、ステップ606に進み、その時点で発音さ
れているすべての音を消音して曲を終了する。
【0031】図7を参照して、ノートオンのMIDIメ
ッセージを受信したときの処理を説明する。まずステッ
プ701で、フォーンシーケンスのタイムカウンタtime
_counterおよびフォーンカウンタphone_counterを0に
初期化する。タイムカウンタtime_counterはタイマ割込
(5msecごと)がおきるごとにインクリメントされ
るカウンタであり、そのカウンタ値は各音素の発音開始
時からの経過時間を5msec単位で表したものとな
る。タイムカウンタtime_counterは、音素が切り替わる
ごとに0にリセットされる。フォーンカウンタphone_co
unterは、1ノート中(すなわち、1ノートで発音する
1フォーンシーケンス中)における音素の順番を示すカ
ウンタである。ノートが切り替わるごと、すなわちフォ
ーンシーケンスが切り替わるごとに、0にリセットさ
れ、1フォーンシーケンス中では音素が切り替わるごと
にインクリメントされる。0から始まるので、1フォー
ンシーケンス中の最初の音素はphone_counter=0、次
の音素はphone_counter=1、…、というようになる。
【0032】次に、ステップ702で、フォーンシーケ
ンス中に呼気情報があるか否かを判別する。呼気情報と
は、ある音素と次の音素とを区切って発音したい場合に
フォーンシーケンス中に入れる情報である。呼気情報を
入れる場合はフォーンシーケンス中の最後に入れるもの
とし、その場合、フォーンシーケンスの最後の音素の発
音の後、その音素の発音が一旦停止し、次のフォーンシ
ーケンスの発音が開始するようになる。ステップ702
で呼気情報があるときは、呼気フラグf_kokiに1をセッ
トし、ステップ705に進む。呼気情報がないときは、
フラグf_kokiを0にリセットして、ステップ705に進
む。
【0033】ステップ705では、フォーンシーケンス
バッファ中のフォーンカウンタphone_counterで示され
る位置の音素ナンバとデュレーションタイム(duration
time)を抽出する。いまはノートオン直後であってpho
ne_counter=0であるので、フォーンシーケンスバッフ
ァ中の最初の音素が抽出されることになる。次にステッ
プ706で、抽出した音素ナンバとピッチデータより、
図3で説明したように音素データベースを参照して、フ
ォルマント周波数、フォルマントレベル、およびフォル
マントバンド幅などのフォルマントパラメータを引き出
す。ここで用いるピッチデータは、図3の303で説明
したように、ノートオンで指定された基本的なピッチデ
ータにピッチベンドデータやその他のピッチ生成データ
を反映して求めたピッチである。なお、音素データベー
スは入力した音素ナンバとピッチと発音開始からの経過
時間に対応するフォルマントパラメータを出力するデー
タベースであるところ、ステップ706では音素ナンバ
とピッチのみを指定しているので、ここで引き出される
フォルマントパラメータは時系列データ(形態はテーブ
ルや数式などの任意の形態でよいが、経過時間を入力す
るとフォルマントパラメータが一意に出力されるような
情報)になる。後述するステップ710,905では、
ステップ706で引き出されたフォルマントパラメータ
に、現タイムカウンタtime_counter値を入力して、その
時点でのフォルマントパラメータを求めることになる。
【0034】次にステップ707で、前後の音素関係に
より調音結合データベースを参照し調音結合カーブと調
音結合時間を取り出す。調音結合データベースは、ある
音素から次の音素に滑らかに移行するために参照するデ
ータベースである。前の音素と次の音素を特定すると調
音結合データベースから調音結合カーブと調音結合時間
を取り出すことができる。そして、その調音結合カーブ
に沿って前の音素のフォルマントパラメータから次の音
素のフォルマントパラメータへと補間して求めたフォル
マントパラメータを順次音源に送出することで、前の音
素から次の音素への自然な移行が実現できる。このよう
な処理を調音結合と呼ぶ。調音結合時間は、前の音素か
ら次の音素へと補間を行ないつつ移行する時間である。
ステップ707では、いまノートオンで発音しようとし
ている音素の前に発音中の音素があるかを確認し、前の
音素があれば、その音素からいまノートオンで発音しよ
うとしている音素へ移行する際に用いる調音結合カーブ
と調音結合時間を調音結合データベースから取り出す処
理を行なうものである。
【0035】次にステップ708では、ステップ707
で取り出した調音結合時間とステップ705で抽出した
音素のデュレーションタイムとの大小関係を判別する。
調音結合時間がデュレーションタイムより大きいとき
は、その調音結合時間だけの時間を使って調音結合を行
なうと、いまノートオンで発音しようとしている音素の
デュレーションタイムを越えてしまうので、発音のタイ
ミングがずれてしまい不都合である。そこでステップ7
09で、調音結合時間をデュレーションタイムに一致さ
せ、ステップ710に進む。ステップ708で調音結合
時間がデュレーションタイムより大きくないときは、そ
のままステップ710に進む。
【0036】ステップ710では、先にステップ706
で引き出したフォルマントパラメータを参照して現タイ
ムカウンタtime_counterの値(ここではノートオン直後
であるのでタイムカウンタtime_counterの値は0であ
る)におけるフォルマントパラメータを取得し、さらに
ステップ707で調音結合カーブと調音結合時間が取り
出されていたときは、取得したフォルマントパラメータ
と前の音素(現在発音中)のフォルマントパラメータを
用いて、上記調音結合カーブと調音結合時間にしたがう
調音結合処理を行ない、フォルマントパラメータを算出
する。なお、ステップ707で調音結合カーブと調音結
合時間が取り出されていなかったとき(前に発音中の音
素なし)は、調音結合処理は行なう必要がない。次に、
ステップ711で、算出したフォルマントデータとピッ
チを音源115へ書き込む。これにより、発音すべき音
素の最初のフォルマントパラメータが音源115に転送
され、発音が開始される。なおこれ以後は、後述する図
9のタイマ処理で5msecごとにフォルマントパラメ
ータを音源115に送って発音を続ける。次にステップ
712で、発音フラグHFLAGに1をセットして、リ
ターンする。発音フラグHFLAGは、1のとき歌唱発
音が行なわれていることを示し、0のとき行なわれてい
ないことを示す。
【0037】次に図8を参照して、ノートオフのMID
Iメッセージを受信したときの処理を説明する。まずス
テップ801で、いま発音中のフォーンシーケンスの音
素のデュレーションタイムを参照し、該デュレーション
タイムが<00>であって、かつ当該音素の後にさらに
発音すべき音素があるか否かを判別する。そうであると
き(例えばデュレーションが<00>で伸ばして発音す
る音素の後を子音で終えたりするとき)は、その音素を
発音するためにステップ802に進む。ステップ801
で、いま発音中の音素のデュレーションタイムが<00
>でないとき、またはデュレーションタイムは<00>
だがその次に発音すべき音素がないときは、ステップ8
08に進む。
【0038】ステップ802では、フォーンシーケンス
中のいま発音しているデュレーションタイムが<00>
である音素の次の音素の位置にフォーンカウンタphone_
counterを合わせる。さらにタイムカウンタtime_counte
rを0にリセットする。次にステップ803で、フォー
ンシーケンスバッファ中のフォーンカウンタphone_coun
terで示される位置の音素ナンバとデュレーションタイ
ムを抽出する。いまはフォーンカウンタphone_counter
が、最後に発音すべき音素に位置づけられておりその音
素が抽出される。
【0039】次のステップ804,805,806,8
07は、それぞれ、図7で説明したステップ706,7
07,710,711と同じ処理である。これらのステ
ップ804〜807により、発音すべき音素の最初のフ
ォルマントパラメータが音源115に転送され、発音が
開始される。なおこれ以後は、後述する図9のタイマ処
理で5msecごとにフォルマントパラメータを音源1
15に送って発音を続ける。以上のステップ804〜8
07により発音開始する音素は、デュレーションタイム
が<00>で伸ばして発音した音素の次に発音される音
素であるので、次にノートオンが受信されるまでの時間
で発音されるものである。もし、ステップ804〜80
7により発音開始する音素のデュレーションタイムが長
く、当該音素の発音中に次のノートオンが受信された場
合は、図7で説明したように当該音素から次のノートオ
ンの音素へと調音結合されて次の音素に強制的に移行す
ることになる。
【0040】ステップ801でいま発音中の音素のデュ
レーションタイムが<00>でないとき、またはデュレ
ーションタイムは<00>だがその次に発音すべき音素
がないときは、ステップ808で、呼気フラグf_kokiが
1であるか否かを判別する。呼気フラグf_kokiが1であ
るときは、ステップ809でキーオフ処理を行なって現
在発音している音素を発音停止し、さらに発音フラグH
FLAGを0にリセットして、リターンする。ステップ
808で呼気フラグf_kokiが1でないときは、そのまま
リターンする。結果として、呼気フラグf_kokiが1でな
いときは、現在発音中の音素の発音は持続することにな
る。
【0041】図9は、タイマ割込により5msecごと
に実行されるタイマ処理の処理手順を示す。タイマ処理
では、まずステップ901で、発音フラグHFLAGが
1であるか否かを判別する。HFLAGが1でないとき
は、現在発音中でないからそのままリターンする。HF
LAGが1のときは、ステップ902で、いま発音して
いる音素のデュレーションタイムが<00>か否か判別
する。デュレーションタイムが<00>のときは、現在
発音中の音素の発音を継続するため、ステップ904に
進む。デュレーションタイムが<00>でないときは、
ステップ903で、タイムカウンタtime_counterの値が
当該デュレーションタイム以下であるか否かを判別す
る。タイムカウンタtime_counterの値がデュレーション
タイム以下のときは、現在発音している音素の発音をさ
らに継続するということであるから、ステップ904に
進む。ステップ904ではタイムカウンタtime_counter
をインクリメントし、現タイムカウンタtime_counter値
におけるフォルマントパラメータを算出出力すべくステ
ップ905に進む。
【0042】ステップ903でタイムカウンタtime_cou
nterの値がデュレーションタイムを越えたときは、いま
発音中の音素については当該デュレーションタイムだけ
発音を終えたということだから、フォーンシーケンス中
の次の音素の発音に移行するため、ステップ907に進
む。ステップ907では、フォーンシーケンス中に次の
音素があるか否か判別する。次の音素がないときは、ス
テップ912で発音フラグHFLAGを0にリセットし
てリターンする。次の音素があるときは、その発音をす
るため、まずステップ908で、フォーンカウンタphon
e_counterをインクリメントし、タイムカウンタtime_co
unterを0にリセットする。そして、ステップ909
で、フォーンシーケンス中のフォーンカウンタphone_co
unterで示される位置(次に発音すべき音素)の音素ナ
ンバとデュレーションタイムを抽出する。
【0043】次のステップ910,911,905,9
06は、それぞれ、図7で説明したステップ706,7
07,710,711と同じ処理である。これらのステ
ップにより、発音すべき音素のフォルマントパラメータ
が音源115に転送される。なお、ステップ905で
は、先に音素データベースから引き出してあるフォルマ
ントパラメータを参照して現タイムカウンタtime_count
erの値におけるフォルマントパラメータを取得し、さら
に先に調音結合データベースから取り出してある調音結
合カーブと調音結合時間にしたがう調音結合処理を行な
って、フォルマントパラメータを算出する。この「音素
データベースから引き出してあるフォルマントパラメー
タ」とは、具体的には、ノートオンで発音開始した音素
の場合はステップ706で引き出したもの、ノートオフ
時にデュレーション<00>の後に存在した音素の場合
はステップ804で引き出したもの、フォーンシーケン
ス中のデュレーションが<00>でない音素の次の音素
の場合はステップ910で引き出したものである。同様
に、ステップ905での調音結合に用いる調音結合カー
ブと調音結合時間は、具体的には、ノートオンで発音開
始した音素の場合はステップ707で取り出したもの、
ノートオフ時にデュレーション<00>の後に存在した
音素の場合はステップ805で取り出したもの、フォー
ンシーケンス中のデュレーションが<00>でない音素
の次の音素の場合はステップ911で取り出したもので
ある。
【0044】次に、上述の図4〜図9の処理がどのよう
に実行されるかの概要を、具体的な例で説明する。ここ
では、「saita」をC3,E3,G3で発音する場
合の下記シーケンス(1)の順でイベントが発生したと
する。
【0045】これらの各MIDIメッセージは、それぞ
れ、ステップ402→403→404→図5の501の
手順で処理され、MIDI受信バッファに書き込まれ
る。また、書き込まれた各MIDIメッセージは、空い
た時間に図6のMIDIデータ処理のステップ605以
降でMIDIメッセージの種類ごとに処理される。以下
では、上記各MIDIメッセージが、ステップ605以
降どのように処理されるかを説明する。
【0046】まず、最初に受信したフォーンシーケンス
s<20>a<0>は、ステップ605→607→60
8の処理で、フォーンシーケンスバッファに書き込まれ
る。次の「C3のノートオン」は、ステップ605から
図7のノートオン処理に進み処理される。ノートオン処
理では、ステップ701→702→704→705と進
み、フォーンシーケンスバッファから最初に発音すべき
音素「s」を示す音素ナンバとそのデュレーションタイ
ム<20>を抽出する。そして、ステップ706で音素
データベースを参照し、音素「s」の音素ナンバとピッ
チ「C3」に対応するフォルマントパラメータ群を引き
出す。ここで引き出すフォルマントパラメータ群は、音
素「s」の発音開始時からの経過時間(5msecご
と)に応じて変化する時系列データのフォルマントパラ
メータ群(その形態は任意)である。次のステップ70
7では調音結合データベースを参照するが、いま発音し
ようとしている音素「s」の前に発音している音素はな
いから、ステップ707,708では何も処理せず、ス
テップ710に進んで、現タイムカウンタtime_counter
値(ノートオン直後なのでtime_counter=0)における
フォルマントパラメータを、先にステップ706で引き
出したフォルマントパラメータ群から求める。求めたフ
ォルマントパラメータを、ピッチデータおよびキーオン
信号とともに、ステップ711で音源115に送出し、
これにより音素「s」で音高「C3」の楽音を発音開始
させる。ステップ712で発音フラグHFLAG=1と
し、ノートオン処理を終える。
【0047】これ以降は、5msecごとに図9のタイ
マ処理が実行され、s<20>の発音が継続される。タ
イマ処理では、始めはステップ901→902→903
→904と進んでタイムカウンタtime_counterをインク
リメントし、さらにステップ905で、現タイムカウン
タtime_counter値におけるフォルマントパラメータを、
先にステップ706で引き出したフォルマントパラメー
タ群から求める。ステップ906で、求めたフォルマン
トパラメータを音源に送出して、リターンするこのステ
ップ901→902→903→904→905→906
→リターンの流れを5msecごとに繰り返し、タイム
カウンタtime_counter=20に至ると、ステップ903
から907に進み、次の音素a<00>に移行すべくス
テップ908に進む。そして、ステップ909で、フォ
ーンシーケンスバッファから次に発音すべき音素「a」
を示す音素ナンバとそのデュレーションタイム<00>
を抽出する。ステップ910では音素データベースを参
照し、音素「a」の音素ナンバとピッチ「C3」に対応
するフォルマントパラメータ群を引き出す。ここで引き
出すフォルマントパラメータ群は、音素「a」の発音開
始時からの経過時間(5msecごと)に応じて変化す
る時系列データのフォルマントパラメータ群である。次
のステップ911では調音結合データベースを参照し、
前の音素「s」から今回の音素「a」に移行する際に用
いる調音結合カーブおよび調音結合時間を取り出す。そ
して、ステップ905で、現タイムカウンタtime_count
er値におけるフォルマントパラメータを、先にステップ
910で引き出したフォルマントパラメータ群と、ステ
ップ911で取り出した調音結合カーブおよび調音結合
時間から、求める。求めたフォルマントパラメータを、
ピッチデータおよびキーオン信号とともに、ステップ9
06で音源115に送出し、これにより音素「s」から
「a」に自然に移行しながら音高「C3」の楽音の発音
を開始する。音素「a」のデュレーションタイムは<0
0>であるので、これ以降5msecごとのタイマ処理
では、ステップ902→904→905→906と進
み、音素「a」の発音が継続する。
【0048】次の「C3のノートオフ」は、ステップ6
05から図8のノートオフ処理に進み処理される。現在
発音中の音素「a」のデュレーションタイムは<00>
であるが、その後に音素はないので、ステップ801か
ら808に進む。また、呼気情報も設定されていないの
で、f_koki=0であるから、そのままリターンする。し
たがって、音素「a」の発音は継続して実行される。
【0049】次のフォーンシーケンス「i<00>」
は、ステップ605→607→608の処理で、フォー
ンシーケンスバッファに書き込まれる。次の「E3のノ
ートオン」は、ステップ605から図7のノートオン処
理に進み処理される。ノートオン処理では、ステップ7
01→702→704→705と進み、フォーンシーケ
ンスバッファから最初の音素「i」を示す音素ナンバと
そのデュレーションタイム<00>を抽出する。そし
て、ステップ706で音素データベースを参照し、音素
「i」の音素ナンバとピッチ「E3」に対応するフォル
マントパラメータ群を引き出す。ここで引き出すフォル
マントパラメータ群は、音素「i」の発音開始時からの
経過時間(5msecごと)に応じて変化する時系列デ
ータのフォルマントパラメータ群(その形態は任意)で
ある。次のステップ707では調音結合データベースを
参照し、前の音素「a」(現在発音中)から今回の音素
「i」に移行する際に用いる調音結合カーブおよび調音
結合時間を取り出す。ステップ708の判別では、
「i」のデュレーションタイムが<00>であり「a」
から「i」に移行するときの調音結合時間よりデュレー
ションタイムが長いと言えるので、ステップ710に進
む。ステップ710では、現タイムカウンタtime_count
er値におけるフォルマントパラメータを、先にステップ
706で引き出したフォルマントパラメータ群と、ステ
ップ707で取り出した調音結合カーブおよび調音結合
時間から、求める。求めたフォルマントパラメータを、
ピッチデータおよびキーオン信号とともに、ステップ7
11で音源115に送出し、これにより音素「a」から
「i」に自然に移行しながら音高「E3」の楽音を発音
開始する。ステップ712で発音フラグHFLAG=1
とし、ノートオン処理を終える。
【0050】以下同様にして、「E3のノートオフ」か
ら「G3のノートオフ」までの各メッセージを処理す
る。
【0051】なお、上記発明の実施の形態において、フ
ォルマント合成音源115は、全体または部分的にかか
わらず、ハードウェアまたはソフトウェアのどちらによ
って実現しても、また組み合わせて実現してもよい。ま
た、上記発明の実施の形態では、母音と子音とを別の音
素と区別した音素ごとの情報で音素データベースを持っ
ているが、50音(「sa」、「si」など)のそれぞ
れの音を音素とした音素ごとの情報で持ってもよい。音
素データベースと調音結合データベースとを合わせた形
態としてもよい。
【0052】上記実施の形態では、例として5msec
ごとにフォルマントパラメータを変化させるシステムと
したが、フォルマントあるいはスペクトル特性の変化の
大きいところは速く、変化の緩いところは遅いレート
で、フォルマントパラメータの変化を制御するようにし
てもよい。
【0053】
【発明の効果】以上説明したように、この発明によれ
ば、音素データベースに格納するフォルマントパラメー
タを、ピッチの変化に対応したフォルマントパラメータ
の変化を反映したものにしているので、入力したピッチ
に応じたフォルマントで歌唱発音を行なうことができ
る。したがって、ピッチがダイナミックに変化した場合
でも、そのピッチの変化に応じたフォルマントで自然な
合成音を得ることができる。ピッチだけでなく、他の演
奏情報をも加味してフォルマントパラメータを得るよう
にすれば、それらの演奏情報に適応した自然な音声を合
成することができる。
【図面の簡単な説明】
【図1】 この発明に係る楽音合成装置のシステム構成
【図2】 図1の楽音合成装置で歌唱させる場合の処理
概要を示す図
【図3】 音素データベースの参照方式の概念図
【図4】 メインプログラムの手順を示すフローチャー
ト図
【図5】 MIDI受信処理の手順を示すフローチャー
ト図
【図6】 MIDIデータ処理の手順を示すフローチャ
ート図
【図7】 ノートオン処理の手順を示すフローチャート
【図8】 ノートオフ処理の手順を示すフローチャート
【図9】 タイマ処理の手順を示すフローチャート図
【符号の説明】
101…中央処理装置(CPU)、102…MIDIイ
ンタフェース、103…MIDI機器群、104…デー
タメモリデバイス、105…ローカルデータ記憶装置、
106…ワーキングメモリ、107…プログラムメモ
リ、108…演奏操作子、109…設定操作子、111
…ディスプレイ、112…ネットワークインターフェー
ス、115…フォルマント合成音源、116…サウンド
システム、117…システム共通バス、201…演奏デ
ータ、202…歌詞データ、210…歌詞データバッフ
ァ(フォーンシーケンスバッファ)、301…音素デー
タベース。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】唄わせる歌詞を表す歌詞情報と少なくとも
    ピッチ情報を含む演奏情報とを入力する入力手段と、 音素ごとのフォルマントパラメータであってピッチの変
    化に対応したフォルマントパラメータの変化を反映した
    フォルマントパラメータを格納した音素データベース
    と、 上記音素データベースを参照して、上記入力手段により
    入力した歌詞情報およびピッチ情報に対応するフォルマ
    ントパラメータを求める手段と、 求めたフォルマントパラメータに応じたフォルマントを
    有する音声を、上記ピッチ情報に応じたピッチで、合成
    出力するフォルマント合成音源とを備えたことを特徴と
    する楽音合成装置。
  2. 【請求項2】前記音素データベースを参照してフォルマ
    ントパラメータを求める手段は、前記ピッチ情報以外の
    演奏情報にも基づいてフォルマントパラメータを求める
    ものである請求項1に記載の楽音合成装置。
  3. 【請求項3】唄わせる歌詞を表す歌詞情報と少なくとも
    ピッチ情報を含む演奏情報とを入力する入力ステップ
    と、 音素ごとのフォルマントパラメータであってピッチの変
    化に対応したフォルマントパラメータの変化を反映した
    フォルマントパラメータを格納した音素データベースを
    参照し、上記入力手段により入力した歌詞情報およびピ
    ッチ情報に対応するフォルマントパラメータを求めるス
    テップと、 求めたフォルマントパラメータに応じたフォルマントを
    有する音声を、上記ピッチ情報に応じたピッチで、合成
    出力するステップとを備えたことを特徴とする楽音合成
    方法。
  4. 【請求項4】請求項3に係る楽音合成方法を実現するプ
    ログラムを記憶したことを特徴とする記憶媒体。
JP05990697A 1997-02-27 1997-02-27 楽音合成装置および方法 Expired - Fee Related JP3834804B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05990697A JP3834804B2 (ja) 1997-02-27 1997-02-27 楽音合成装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05990697A JP3834804B2 (ja) 1997-02-27 1997-02-27 楽音合成装置および方法

Publications (2)

Publication Number Publication Date
JPH10240264A true JPH10240264A (ja) 1998-09-11
JP3834804B2 JP3834804B2 (ja) 2006-10-18

Family

ID=13126644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05990697A Expired - Fee Related JP3834804B2 (ja) 1997-02-27 1997-02-27 楽音合成装置および方法

Country Status (1)

Country Link
JP (1) JP3834804B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117578A (ja) * 1999-10-21 2001-04-27 Yamaha Corp ハーモニー音付加装置及び方法
US7065489B2 (en) 2001-03-09 2006-06-20 Yamaha Corporation Voice synthesizing apparatus using database having different pitches for each phoneme represented by same phoneme symbol
US7135636B2 (en) 2002-02-28 2006-11-14 Yamaha Corporation Singing voice synthesizing apparatus, singing voice synthesizing method and program for singing voice synthesizing
US7251601B2 (en) 2001-03-26 2007-07-31 Kabushiki Kaisha Toshiba Speech synthesis method and speech synthesizer
JP2015087617A (ja) * 2013-10-31 2015-05-07 株式会社第一興商 カラオケのガイドボーカル生成装置及びガイドボーカル生成方法
US10825438B2 (en) 2017-09-27 2020-11-03 Casio Computer Co., Ltd. Electronic musical instrument, musical sound generating method of electronic musical instrument, and storage medium
JP2022145465A (ja) * 2021-03-18 2022-10-04 カシオ計算機株式会社 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5577799A (en) * 1978-12-07 1980-06-11 Nippon Musical Instruments Mfg Electronic musical instrument producing human voice
JPH04251297A (ja) * 1990-12-15 1992-09-07 Yamaha Corp 楽音合成装置
JPH04349497A (ja) * 1991-05-27 1992-12-03 Yamaha Corp 電子楽器
JPH0744159A (ja) * 1993-07-29 1995-02-14 Yamaha Corp 自動演奏装置
JPH08305392A (ja) * 1995-03-06 1996-11-22 Roland Corp 効果装置
JPH0944179A (ja) * 1995-08-03 1997-02-14 Yamaha Corp 歌唱音声合成装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5577799A (en) * 1978-12-07 1980-06-11 Nippon Musical Instruments Mfg Electronic musical instrument producing human voice
JPH04251297A (ja) * 1990-12-15 1992-09-07 Yamaha Corp 楽音合成装置
JPH04349497A (ja) * 1991-05-27 1992-12-03 Yamaha Corp 電子楽器
JPH0744159A (ja) * 1993-07-29 1995-02-14 Yamaha Corp 自動演奏装置
JPH08305392A (ja) * 1995-03-06 1996-11-22 Roland Corp 効果装置
JPH0944179A (ja) * 1995-08-03 1997-02-14 Yamaha Corp 歌唱音声合成装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001117578A (ja) * 1999-10-21 2001-04-27 Yamaha Corp ハーモニー音付加装置及び方法
US7065489B2 (en) 2001-03-09 2006-06-20 Yamaha Corporation Voice synthesizing apparatus using database having different pitches for each phoneme represented by same phoneme symbol
US7251601B2 (en) 2001-03-26 2007-07-31 Kabushiki Kaisha Toshiba Speech synthesis method and speech synthesizer
US7135636B2 (en) 2002-02-28 2006-11-14 Yamaha Corporation Singing voice synthesizing apparatus, singing voice synthesizing method and program for singing voice synthesizing
JP2015087617A (ja) * 2013-10-31 2015-05-07 株式会社第一興商 カラオケのガイドボーカル生成装置及びガイドボーカル生成方法
US10825438B2 (en) 2017-09-27 2020-11-03 Casio Computer Co., Ltd. Electronic musical instrument, musical sound generating method of electronic musical instrument, and storage medium
JP2022145465A (ja) * 2021-03-18 2022-10-04 カシオ計算機株式会社 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP3834804B2 (ja) 2006-10-18

Similar Documents

Publication Publication Date Title
US11468870B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
US7249022B2 (en) Singing voice-synthesizing method and apparatus and storage medium
US5703311A (en) Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques
US5890115A (en) Speech synthesizer utilizing wavetable synthesis
US5747715A (en) Electronic musical apparatus using vocalized sounds to sing a song automatically
EP2704092A2 (en) System for creating musical content using a client terminal
WO2022095656A1 (zh) 一种音频处理方法、装置、设备及介质
JP2003241757A (ja) 波形生成装置及び方法
CN111696498A (zh) 键盘乐器以及键盘乐器的计算机执行的方法
JPH0442296A (ja) 音声処理装置
JP3834804B2 (ja) 楽音合成装置および方法
JP4561636B2 (ja) 楽音合成装置及びプログラム
JP6835182B2 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP3518253B2 (ja) データ編集装置
CN112992110B (zh) 音频处理方法、装置、计算设备以及介质
WO2023171522A1 (ja) 音響生成方法、音響生成システムおよびプログラム
JPH1031496A (ja) 楽音発生装置
JP3409644B2 (ja) データ編集装置およびデータ編集プログラムを記録した媒体
WO2022208627A1 (ja) 歌唱音出力システムおよび方法
WO2022054496A1 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
JP2008058796A (ja) 奏法決定装置及びプログラム
JP2007193151A (ja) 楽音制御装置および楽音制御処理のプログラム
JP3132721B2 (ja) 楽音合成装置
JPH0944179A (ja) 歌唱音声合成装置
JP3206129B2 (ja) ループ波形生成装置及びループ波形生成方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130804

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees