JP3716725B2 - 音声処理装置、音声処理方法および情報記録媒体 - Google Patents

音声処理装置、音声処理方法および情報記録媒体 Download PDF

Info

Publication number
JP3716725B2
JP3716725B2 JP2000258034A JP2000258034A JP3716725B2 JP 3716725 B2 JP3716725 B2 JP 3716725B2 JP 2000258034 A JP2000258034 A JP 2000258034A JP 2000258034 A JP2000258034 A JP 2000258034A JP 3716725 B2 JP3716725 B2 JP 3716725B2
Authority
JP
Japan
Prior art keywords
information
syllable
vibrato
scale
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000258034A
Other languages
English (en)
Other versions
JP2002073064A (ja
Inventor
秀紀 劔持
高康 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000258034A priority Critical patent/JP3716725B2/ja
Publication of JP2002073064A publication Critical patent/JP2002073064A/ja
Application granted granted Critical
Publication of JP3716725B2 publication Critical patent/JP3716725B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音声処理装置、音声処理方法及び情報記録媒体に関し、特にMIDIデータから合成した歌唱音にビブラートをかける処理を行う音声処理装置及び音声処理方法、この音声処理を行うためのプログラムを記録した情報記録媒体に関する。
【0002】
【従来の技術】
従来、トーンジェネレータにおいては、楽器音の音色情報に加えて人の声の音色情報を内蔵するものがあり、MIDI(Musical Instruments Digital Interface)データから演奏音や歌唱音を合成できるものがある。
また、この種のトーンジェネレータにおいては、エフェクト機能として演奏音や歌唱音の中のユーザが設定した所定位置の音(音階または音節)に対してビブラートをかけることが可能なものがある。
【0003】
【発明が解決しようとする課題】
ところで、人の歌声や人の演奏には様々なビブラートが存在し、人のビブラートは、曲のジャンル(演歌、オペラ)や人の種類(性別、年齢など)で異なるだけでなく、人(歌唱者、演奏者)ごとに異なることによって歌声や演奏に個性が生じていると考えられる。
しかし、この種のトーンジェネレータなどの音声処理装置が行うビブラートの処理は、MIDIデータから生成した合成音に対して一定周期でピッチ変化を付加する簡略的なものであるため、人の歌声などにある不規則なピッチ変化を伴うビブラートとは異なり、特に歌唱音の場合は機械的な(不自然な)歌声に聞こえてしまうという問題があった。
また、従来の音声処理装置では、ビブラートをかける音をユーザが個々に設定する必要があったため、作業が繁雑になるだけでなく、例え、複数種類のビブラート(ピッチ変化のパターン)があったとしても、これをユーザが適切に使い分けて自然な歌声や演奏を再現することは困難であるという問題があった。
【0004】
本発明は、上述した事情に鑑みてなされたものであり、簡易に適切な音に適切なビブラートをかけることができ、自然な歌唱音や演奏音を再現することができる音声処理装置、音声処理方法及びこの音声処理を行うためのプログラムを記録した情報記録媒体を提供することを目的とする。
【0005】
【課題を解決するための手段】
上述の課題を解決するため、請求項1に記載の発明は、ビブラートがかかっている、人の歌唱における音節のピッチ変化と振幅変化の情報であるビブラート情報をその音節の関連情報と対応づけて記憶する記憶手段と、
入力される歌唱音に対応する歌唱情報に対し、音の長さが所定値以上の音節、または、音階が変化する音節をビブラートをかける音節として順次特定するとともに、特定した音節の関連情報を抽出する処理対象特定手段と、
前記記憶手段に記憶された前記音節の関連情報を順次検索し、前記処理対象特定手段が特定した音節の関連情報と同一または類似の音節の関連情報を選択する選択手段と、
前記選択手段により選択された前記音節の関連情報に対応づけられた前記ビブラート情報に基づいて、前記処理対象特定手段が特定した音節に対してビブラートをかける処理を順次行って前記歌唱情報に対応する音声信号を生成する音声処理手段と、
前記音声処理手段により生成された前記音声信号を出力する出力手段とを備えることを
を特徴とする。
また、請求項2に記載の発明は、請求項1に記載の音声処理装置において、前記選択手段は、前記記憶手段に記憶された前記音節の関連情報と、前記処理対象特定手段が特定した音節の関連情報との類似度を計算し、前記記憶手段に記憶された前記音節の関連情報の中から前記類似度がもっとも高い音節の関連情報を前記同一または類似の音節の関連情報として選択することを特徴とする。
また、請求項3に記載の発明は、請求項1または2に記載の音声処理装置において、人の歌唱音の情報からビブラートがかかっている音節のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、
前記ビブラートがかかっている音節の関連情報を前記人の歌唱音の情報から取得し、前記抽出したビブラート情報と対応づけて前記記憶手段に記憶させるビブラート情報作成手段とをさらに有することを特徴とする。
また、請求項4に記載の発明は、請求項1ないし3のいずれかに記載の音声処理装置において、前記音節の関連情報は、当該音節と、前記人の歌唱音における少なくとも当該音節の前または後ろの音節、当該音節に対応する音階、当該音節の前または後ろの音節に対応する音階、当該音節の長さ、歌唱曲のジャンル、歌唱者の情報のうち1以上を含む情報であることを特徴とする。
請求項5に記載の発明は、請求項1ないし4のいずれかに記載の音声処理装置において、前記歌唱情報は、MIDIデータであることを特徴とする。
請求項6に記載の発明は、請求項1ないし5のいずれかに記載の音声処理装置において、前記記憶手段には、さらに人の歌唱音の歌い出しや歌い終わり、音韻間におけるピッチ変化の情報である他の変化情報がその音節の関連情報と対応づけて記憶され、
前記処理対象特定手段は、さらに、前記歌唱情報に対し歌い出しや歌い終わりの音節、及び音韻を変化させる音節を特定し、
前記音声処理手段は、前記選択手段により選択された前記音節の関連情報に対応づけられた前記他の変化情報に基づいて、前記処理対象特定手段が特定した音節に対してピッチ変化と振幅変化をかける処理を行って前記歌唱情報に対応する音声信号を生成する
ことを特徴とする。
請求項7に記載の発明は、人の歌唱音の情報からビブラートがかかっている音節のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、
当該音節の前または後ろの音節、
当該音節に対応する音階、
当該音節の前または後ろの音節に対応する音階、
当該音節の長さ、
歌唱曲のジャンル、
および歌唱者の情報のうちの1以上と、
前記人の歌唱音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報に、
前記抽出したビブラート情報を対応づけてビブラートデータベースを作成するビブラート情報作成手段とを備えることを特徴とする。
また、請求項8に記載の発明は、請求項7に記載の音声処理装置において、前記抽出手段は、前記人の歌唱音の歌い出しや歌い終わり、音韻間におけるピッチ変化の情報である他の変化情報をさらに抽出し、
前記抽出手段が前記他の変化情報を抽出した音節の関連情報を少なくとも前記人の歌唱音の情報から取得し、前記音節の他の変化情報と対応づける他の変化情報作成手段と
を備えることを特徴とする。
請求項9に記載の発明は、ビブラートがかかっている、人の演奏した楽音における音階のピッチ変化と振幅変化の情報であるビブラート情報をその音階の関連情報と対応づけて記憶する記憶手段と、
入力される演奏音に対応する演奏情報に対し音の長さが所定値以上の音階を特定することによりビブラートをかける音階を順次特定する処理対象特定手段と、
前記記憶手段に記憶された前記音階の関連情報を順次検索し、前記処理対象特定手段が特定した音階の関連情報と同一または類似の音階の関連情報を選択する選択手段と、前記選択手段により選択された前記音階の関連情報に対応づけられた前記ビブラート情報に基づいて、前記処理対象特定手段が特定した音階に対してビブラートをかける処理を順次行って前記演奏情報に対応する音声信号を生成する音声処理手段と、前記音声処理手段により生成された前記音声信号を出力する出力手段とを備えることを特徴とする。
請求項10に記載の発明は、請求項9に記載の音声処理装置において、前記選択手段は、前記記憶手段に記憶された前記音階の関連情報と、前記処理対象特定手段が特定した音階の関連情報との類似度を計算し、前記記憶手段に記憶された前記音階の関連情報の中から前記類似度がもっとも高い音階の関連情報を前記同一または類似の音階の関連情報として選択することを特徴とする。
請求項11に記載の発明は、請求項9または10に記載の音声処理装置において、人の演奏音の情報からビブラートがかかっている音階のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、前記ビブラートがかかっている音階の関連情報を前記人の演奏音の情報から取得し、前記抽出したビブラート情報と対応づけて前記記憶手段に記憶させるビブラート情報作成手段とをさらに有することを特徴とする。
請求項12に記載の発明は、請求項9ないし11のいずれかに記載の音声処理装置において、前記音階の関連情報は、当該音階と、前記人の演奏音における少なくとも当該音階の前または後ろの音階、当該音階の長さ、演奏曲のジャンル、演奏者の情報、楽器の情報のうち1以上を含む情報であることを特徴とする。
また、請求項13に記載の発明は、請求項9ないし12のいずれかに記載の音声処理装置において、前記演奏情報は、MIDIデータであることを特徴とする。
また、請求項14に記載の発明は、請求項9ないし13のいずれかに記載の音声処理装置において、前記記憶手段には、さらに、人の演奏音の弾き始めや弾き終わり、音階間におけるピッチ変化の情報である他の変化情報がその音階の関連情報と対応づけて記憶され、
前記処理対象特定手段は、さらに、前記演奏情報に対し弾き始めや弾き終わりの音階を特定し、
前記音声処理手段は、前記選択手段により選択された前記音節の関連情報に対応づけられた前記他の変化情報に基づいて、前記処理対象特定手段が特定した音に対してピッチ変化と振幅変化をかける処理を行って前記歌唱情報に対応する音声信号を生成する
ことを特徴とする。
請求項15に記載の発明は、人の演奏音の情報からビブラートがかかっている音階のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、
当該音階の前または後ろの音階、
当該音階の長さ、
演奏曲のジャンル、
および演奏者の情報、
楽器の情報のうちの1以上と、
前記人の演奏音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報に、
前記抽出したビブラート情報を対応づけてビブラートデータベースを作成するビブラート情報作成手段と
を備えることを特徴とする。
請求項16に記載の発明は、請求項15に記載の音声処理装置において、前記抽出手段は、前記人の演奏音の弾き始めや弾き終わり、音間におけるピッチ変化の情報である他の変化情報をさらに抽出し、
前記抽出手段が前記他の変化情報を抽出した音階の関連情報を少なくとも前記人の演奏音の情報から取得し、前記音階の他の変化情報と対応づける他の変化情報作成手段と
を備えることを特徴とする。
請求項17に記載の発明は、請求項1ないし16のいずれかに記載の音声処理装置において、前記ビブラート情報は、ベクトル量子化されて記憶されたことを特徴とする。
【0006】
また、請求項18に記載の発明は、入力される歌唱音に対応する歌唱情報に対し音の長さが所定値以上の音節または、音階が変化する音節をビブラートをかける音節として順次特定する処理対象特定ステップと、
ビブラートがかかっている、人の歌唱音における音節のピッチ変化と振幅変化の情報であるビブラート情報をその音節の関連情報と対応づけて記憶する記憶部の前記音節の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音節の関連情報と同一または類似の音節の関連情報を選択する選択ステップと、前記選択ステップにおいて選択された前記音節の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音に対してビブラートをかける処理を順次行って前記歌唱情報に対応する音声信号を生成する音声処理ステップと、前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップとを備えることを特徴とする。
請求項19に記載の発明は、請求項18に記載の音声処理方法において、前記歌唱情報に対し歌い出しや歌い終わりの音節、及び音韻間が変化する音節を順次特定する第2の処理対象特定ステップと、
人の歌唱音の歌い出しや歌い終わり、音節間におけるピッチ変化である他の変化情報をその音節の関連情報と対応づけて記憶する記憶部の前記音節の関連情報の中から前記第2の処理対象ステップにおいて特定された音節の関連情報と同一または類似の音節の関連情報を順次検索し、その中からいずれか一つを選択する第2の選択ステップと、
前記第2の選択ステップにおいて選択された前記音節の関連情報に対応づけられた前記他の変化情報に基づいて、前記特定した音節に対してピッチ変化をかける処理を行って前記歌唱情報に対応する音声信号を生成する第2の音声処理ステップとを有し、
前記出力ステップは、前記音声処理ステップと前記第2の音声処理ステップにおいて処理された前記音声信号を出力することを特徴とする。
また、請求項20に記載の発明は、入力される演奏音に対応する演奏情報に対し音の長さが所定値以上の音階を順次特定する処理対象特定ステップと、
ビブラートがかかっている、人の演奏音における音階のピッチ変化と振幅変化の情報であるビブラート情報をその音階の関連情報と対応づけて記憶する記憶部の前記音階の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音階の関連情報と同一または類似の音階の関連情報を選択する選択ステップと、
前記選択ステップにおいて選択された前記音階の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音階に対してビブラートをかける処理を順次行って前記演奏情報に対応する音声信号を生成する音声処理ステップと、前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップとを備えることを特徴とする。
また、請求項21に記載の発明は、請求項20に記載の音声処理方法において、前記演奏情報に対し弾き始めや弾き終わり音階を順次特定する第2の処理対象ステップと、
人の演奏音の弾き始めや弾き終わり、音階間におけるピッチ変化と振幅変化の情報である他の変化情報をその音階の関連情報と対応づけて記憶する記憶部の前記音階の関連情報の中から前記第2の処理対象ステップにおいて特定された音階の関連情報と同一または類似の音階の関連情報を順次検索し、その中からいずれか一つを選択する第2の選択ステップと、
前記第2の選択ステップにおいて選択された前記音階の関連情報に対応づけられた前記他の変化情報に基づいて、前記特定した音階に対してピッチ変化と振幅変化をかける処理を行って前記演奏情報に対応する音声信号を生成する第2の音声処理ステップとを有し、
前記出力ステップは、前記音声処理ステップと前記第2の音声処理ステップにおいて処理された前記音声信号を出力することを特徴とする。
【0007】
また、請求項22に記載の発明は、入力される歌唱音に対応する歌唱情報に対し音の長さが所定値以上の音節または、音階が変化する音節をビブラートをかける音節として順次特定する処理対象特定ステップと、
ビブラートがかかっている、人の歌唱音における音節のピッチ変化と振幅変化の情報であるビブラート情報をその音節の関連情報と対応づけて記憶する記憶部の前記音節の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音節の関連情報と同一または類似の音節の関連情報を選択する選択ステップと、前記選択ステップにおいて選択された前記音節の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音に対してビブラートをかける処理を順次行って前記歌唱情報に対応する音声信号を生成する音声処理ステップと、前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップとを備える音声処理プログラムが記録されたことを特徴とする。
請求項23に記載の発明は、入力される演奏音に対応する演奏情報に対し音の長さが所定値以上の音階をビブラートをかける音階として順次特定する処理対象特定ステップと、
ビブラートがかかっている、人の演奏音における音階のピッチ変化と振幅変化の情報であるビブラート情報をその音階の関連情報と対応づけて記憶する記憶部の前記音階の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音階の関連情報と同一または類似の音階の関連情報を選択する選択ステップと、
前記選択ステップにおいて選択された前記音階の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音に対してビブラートをかける処理を順次行って前記演奏情報に対応する音声信号を生成する音声処理ステップと、
前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップとを備える音声処理プログラムが記録されたことを特徴とする情報記録媒体。
請求項24に記載の発明は、音節のビブラート情報と音節の関連情報を記録した情報記録媒体であって、前記音節のビブラート情報には、
当該音節の前または後ろの音節、
当該音節に対応する音階、
当該音節の前または後ろの音節に対応する音階、
当該音節の長さ、
歌唱曲のジャンル、
および歌唱者の情報のうちの1以上と、
前記人の歌唱音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報が対応づけられて記憶されていることを特徴とする。
請求項25に記載の発明は、音階のビブラート情報と音階の関連情報を記録した情報記録媒体であって、前記音階のビブラート情報には、
当該音階の前または後ろの音階、
当該音階の長さ、
演奏曲のジャンル、
および演奏者の情報、
楽器の情報のうちの1以上と、
前記人の演奏音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報が対応づけられて記憶されていることを特徴とする。
請求項26に記載の発明は、請求項22または24に記載の情報記録媒体において、前記ビブラート情報には、人の歌唱音の歌い出しや歌い終わり、音韻間におけるピッチ変化の情報がその音節の関連情報と対応づけて記憶されていることを特徴とする。
請求項27に記載の発明は、請求項23または25に記載の情報記録媒体において、前記ビブラート情報には、人の演奏音の弾き始めや弾き終わり、音階間におけるピッチ変化と振幅変化の情報が含まれることを特徴とする。
【0035】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳述する。
(1) 実施形態
(1−1)実施形態の構成
図1は、本発明の実施形態に係る音声処理装置を示すブロック図である。
この音声処理装置10は、本発明を楽器音と人の声の音色情報を内蔵するトーンジェネレータに適用したものであり、通常のトーンジェネレータの機能に加えて、MIDIデータから歌唱音の音声信号を生成する場合にはビブラートをかけて出力できるように構成されている。
制御部11は、パーソナルコンピュータなどから入力されるMIDIデータに基づいてこの音声処理装置10全体を制御することにより、演奏音や歌唱音の音声信号を生成してスピーカSPに出力させたり、音声信号に音声処理を行わせたり、録音処理や、後述するビブラートデータベース12の作成更新処理を行う。
ここで、ビブラートデータベース12とは、人のビブラートにあるピッチ変化と振幅変化の情報であるピッチ変化データ(ビブラート情報)を後述する音節の関連情報と対応付けたデータベースである。
【0036】
音源部13は、MIDIデータから音声信号を生成するための楽器音や人の声の音色情報などを保持しており、制御部11の制御に従って演奏音や歌唱音の音声信号を生成する。
なお、歌唱音のMIDIデータを作成する方法について説明すると、従来の方法と同様であるが、MIDI規格のノートデータに予め定めた音節(「あ」、「い」など)を割り当てた歌詞情報をMIDIデータとして作成され、このMIDIデータが対応する機器(音声処理装置など)に入力されることによって歌唱音の音声信号を生成できるようになっている。
また、この音声処理装置10においては、いわゆるアカペラの歌唱音の音声信号を生成するだけでなく、MIDIデータを歌唱音のパートと演奏音(楽器音)のパートを有するトラック構成にすることにより、歌唱音と演奏音を合成した音声信号を生成することもできる。
【0037】
音声処理部14は、音声信号を音声処理(リバーブ/コーラス/バリエーションなど)するための各種情報を保持しており、制御部11の制御により音声信号に各種の音声処理を行う。
また、音声処理部14は、歌唱音の音声信号に対しては、対応する音声信号またはMIDIデータ(歌詞情報)から音の長さが所定値以上の音節、すなわち、伸ばしている音節を後述するその音節の関連情報と共に抽出できるようになっている。
そして、音声処理部14は、この抽出した音節の関連情報とビブラートデータベース12に登録された複数の音節の関連情報との類似度を算出し、類似度がもっとも高い音節の関連情報に対応づけられたピッチ変化データを用い、抽出した音節のピッチを変化させてビブラートをかける処理を行えるようになっている。
【0038】
(1−2) 実施形態の動作
次に、音声処理装置10において、ビブラートデータベース12の作成更新処理を行う場合の動作について説明する。
まず、音声処理装置10においては、実際の人の歌声が図示しないマイクを介して入力され、図示しないメモリに歌唱音データとして録音される。このとき、この歌唱音データには、ユーザの入力により歌(曲)のジャンル(クラシック/ポップス/演歌など)や、歌い手の情報(性別/子供/若者/中年など)が付加されて記録される。
【0039】
次に、音声処理装置10においては、図2に示すように、制御部11によりこの歌唱音データから音の長さが所定値以上の音節(「あ」)が順次特定され、この音節のピッチ変化の波形データがピッチ変化データDPとして順次取得される。
このとき、制御部11では、特定した音節の関連情報DAとして、ユーザが入力した情報(歌(曲)のジャンルや歌い手の情報)に加えて、特定した音節(「あ」)及びその音階(「C4」)と、この音節の前後に割り当てられた音節(「い」と「い」)及びその音階(「D4」と「E4」)と、特定した音節の継続時間(「0.53」)とが順次取得され、図3に符号INで示すように、音節の関連情報DAとピッチ変化データDPとが対応付けされてビブラートデータベース12が作成される。
また、すでにビブラートデータベース12が作成されている場合は、新たに取得した音節の関連情報DAとピッチ変化データDPとが追加されてビブラートデータベース12の内容が更新されるようになっている。
なお、歌唱音データは、この音声処理装置10に接続されたパーソナルコンピュータのHDD(hard disk drive)に記憶されたデータを用いてもよい。
【0040】
すなわち、音声処理装置10においては、人の歌声からビブラートのピッチ変化データDPに加えて、ビブラートがかかる音節の関連情報DAをすべて取得し、これらピッチ変化データDPと音節の関連情報DAとを対応づけてビブラートデータベース12を作成する。
従って、音声処理装置10においては、様々なジャンルや歌い手の歌唱音データを用いてビブラートデータベース12を作成することにより、人の歌声にある多種多様なビブラートをそのビブラートがかかっている音節の周辺情報、ジャンル、歌い手などと組み合わせてデータベース化し、後述するビブラートをかける音声処理を行うことができるようになっている。
【0041】
次に、音声処理装置10において、歌唱音の音声信号の生成に際してビブラートをかける場合の動作について説明する。なお、ここでは、歌唱音のパートと演奏音(楽器音)のパートを有する歌唱音にビブラートをかける例を説明するが、本発明はこれに限らず、いわゆるアカペラの歌唱音でも同様の方法でビブラートをかけることが可能である。
音声処理装置10において、歌唱音のパートと演奏音(楽器音)のパートを有するMIDIデータが入力されると、音源部13により音色情報から対応する人の声の歌唱音と楽器音の演奏音の音声信号が生成され、音声処理部14に出力される(図1)。
音声処理部14では、歌唱音に対応するMIDIデータから音の長さが所定値以上の音節(伸ばしている音節)がビブラートをかける音節SYとして順次特定される。
このとき、音声処理部14では、図4に示すように、例えば、特定したビブラートをかける音節SY(「あ」)の関連情報VDAとして、特定した音節(「あ」)及びその音階(「E4」)と、この音節の前後に割り当てられた音節(「う」と「い」)及びその音階(「D4」と「E4」)と、特定した音節の継続時間(「0.55」)と、予めユーザが入力した歌(曲)のジャンル(「C」)などが取得され、図4の符号CALで示すように、この音節の関連情報VDAと、ビブラートデータベース12に登録された音節の関連情報DAx(x:1〜n)との類似度RExが順次計算される。
【0042】
類似度RExの具体的な計算方法としては、以下に示すように、音節の関連情報VDAと関連情報DAxとの間で項目間の距離di(i=1〜m、mは関連情報の全項目数)と、各項目に対する重みづけwiとの乗算値がすべての項目で計算され、この計算値の累積加算値が類似度RExとされるようになっている。
【0043】
Figure 0003716725
【0044】
距離diは、例えば、音階や継続時間などの数値で表記される項目では差の絶対値で求められ、音節などの項目では、別途備える音節間の距離を定義したテーブル(「あ」と「い」の間は距離が近く、「あ」と「え」は距離が遠い等をすべての音節について数値で定義したテーブル)を用いて求められるようになっている。
そして、音声処理部14では、計算結果に基づいて類似度RExのうちもっとも類似度が高い音節の関連情報(関連情報が同一または類似のもの)DA1を決定すると、その類似度が高い音節の関連情報DA1に対応づけられたピッチ変化データDPを用いて音節SYにビブラートをかける処理を行うようになっている。
なお、ビブラートをかける処理は、ピッチ変化データDPに対応するパラメータをMIDIデータに付加してディジタル処理により行う方法などを広く適用することができる。
【0045】
このようにして、音声処理部14では、特定したビブラートをかける音節SY毎に類似度RExを計算し、類似度が高い音節の関連情報DAに対応づけられたピッチ変化データDPを用いて音節SYにビブラートをかける処理を順次行うようになっている。
これにより、この音声処理装置10は、特定した音節SYに対して、実際の人の歌声から取得した多種多様なビブラートのうち、その音節SYの関連情報と同一または類似の関連情報を有する音節にかかっているビブラートをかけることができ、MIDIデータから合成した歌唱音に実際の人の歌声と同様のビブラートを付加することができ、自然な歌唱音を再現することができる。
【0046】
また、この音声処理装置10は、ビブラートをかける音節の特定とビブラートの選定とを自動で行うことができるので、従来の音声処理装置のように、ビブラートをかける音とビブラートの内容をユーザが個々に設定する必要がなく、簡易に自然な歌唱音を再現することができる。
さらに、ユーザが希望する歌い手の情報(性別/子供/若者/中年など)を入力したり、入力する歌い手の情報や歌のジャンルを変更することによって、ユーザが希望する歌い手やジャンル風(ポップス調、演歌調など)の歌唱音を簡易に再現することができる。
この場合、ビブラートデータベース12を好みの歌手の歌声から作成しておくことにより、好みの歌手の個性を備えた歌唱音を簡易に再現することが可能となる。
【0047】
(2) 変形例
(2−1) 変形例1
上述の実施形態においては、音の長さが所定値以上の音節(伸ばしている音節)のみにビブラートをかける場合について述べたが、本発明はこれに限らず、音階が変化している音節に対して、その関連情報が同一または類似の関連情報に対応付けされたピッチ変化データDPを用いてビブラートをかけるようにしてもよい。
この場合、音節の同一または類似を考慮せずに、音階の変化などが同一または類似の関連情報に対応付けされたピッチ変化データDPを用いてビブラートをかけるようにしてもよい。
【0048】
(2−2) 変形例2
上述の実施形態においては、ビブラートデータベース12に登録されたすべての音節の関連情報DAx(x:1〜n)との類似度RExを計算する場合について述べたが、本発明はこれに限らず、計算中に明らかに類似度が低いと判定できる場合(項目間の距離が遠い場合など)には、計算を中断して次の関連情報との類似度の計算に移行させて計算時間を短縮してもよく、効率的に類似度が高い関連情報を選択する計算方法や選択方法を広く適用することができる。
【0049】
(2−3) 変形例3
上述の実施形態においては、類似度の計算に使用する音節の関連情報を、音節及びその音階と、この音節の前後に割り当てられた音節及びその音階と、特定した音節の継続時間と、歌(曲)のジャンルなどの情報で構成する場合について述べたが、本発明はこれに限らず、情報の種類を適宜増減してもよい。
【0050】
(2−4) 変形例4
上述の実施形態においては、本発明を歌唱音にビブラートを付加する音声処理に適用する場合について述べたが、本発明はこれに限らず、楽器音などの演奏音にビブラートを付加する音声処理に適用してもよい。この場合、実際の人によるバイオリンやトランペットの演奏からビブラートがかかっている音階を特定し、ピッチ変化データと音階の関連情報とを対応づけてビブラートデータベースを作成することにより、上述と同様の方法により、合成した演奏音に実際の人の演奏にあるビブラートを付加することができ、演奏音の自然性を向上させることができる。
【0051】
(2−5) 変形例5
上述の実施形態においては、さらに人の歌唱音の歌い出しや歌い終わり、若しくは音韻間におけるピッチ変化データを取得し、これらピッチ変化データに基づいて、MIDIデータの歌唱音の歌い出しや歌い終わり、若しくは音韻間に人の歌唱音と同じピッチ変化と振幅変化をつけることにより、歌唱音の自然性をさらに向上させることができる。
また、演奏音の場合は、人の演奏の弾き始めや弾き終わり、若しくは音韻間におけるピッチ変化データを取得し、これらピッチ変化データに基づいてMIDIデータの演奏音の弾き始めや弾き終わり、若しくは音韻間に同一のピッチ変化と振幅変化をつけることにより、演奏音の自然性をさらに向上させることができる。
【0052】
(2−6) 変形例6
上述の実施形態においては、マイクを介して録音した人の歌声や楽器音からビブラートデータベースを作成する場合について述べたが、要は実際の人の歌声や演奏音からビブラートの情報(ピッチ変化データや関連情報)を取得できればよく、音楽用CD(Compact Disk)等の情報記録媒体から取得する方法などを広く適用することができる。
【0053】
(2−7) 変形例7
上述の実施形態においては、ビブラートのピッチ変化の波形データをそのまま保持する場合について述べたが、本発明はこれに限らず、ピッチ変化の波形データをベクトル量子化すれば、ビブラートデータベースのデータ量を低減することができる。
この場合 図5(b)に示すように、ピッチ変化の波形データ毎にピッチ変化コードを割り当て、図5(a)に示すように、ビブラートデータベース12では、関連情報とピッチ変化コードとを対応付けさせてもよく、異なる関連情報間でピッチ変化の波形データが同様な場合には、異なる関連情報に同一のピッチ変化コードを対応付けすれば、さらにデータ量を低減することができる。
【0054】
(2−8) 変形例8
上述の実施形態は、本発明をトーンジェネレータに適用する場合について述べたが、本発明はこれに限らず、本発明は信号処理用の半導体集積回路と、それに設定されたマイクロプログラムなどの組み合わせによって構成することができ、また、パーソナルコンピュータおよびその周辺機器と、そのコンピュータで実行されるプログラムとの組み合わせによっても実現することができる。さらに、コンピュータとプログラムとから構成する場合には、そのプログラムをコンピュータが読み取り可能な情報記録媒体に記録して頒布することが可能である。
【0055】
【発明の効果】
上述したように本発明によれば、簡易に適切な音に適切なビブラートをかけることができ、自然な歌唱音や演奏音を再現することができる。
【図面の簡単な説明】
【図1】 本発明の実施形態に係る音声処理装置を示すブロック図である。
【図2】 ビブラートデータベースの作成の説明に供するタイミングチャートである。
【図3】 ビブラートデータベースの内容を示す図である。
【図4】 ビブラートデータベースの中から目的の関連情報を選択する処理の説明に供する図である。
【図5】 変形例6に係るビブラートデータベースの内容を示す図である。
【符号の説明】
10……音声処理装置、
11……制御部、
12……ビブラートデータベース、
13……音源部、
14……音声処理部、
DP……ピッチ変化データ(ビブラート情報)。

Claims (27)

  1. ビブラートがかかっている、人の歌唱における音節のピッチ変化と振幅変化の情報であるビブラート情報をその音節の関連情報と対応づけて記憶する記憶手段と、
    入力される歌唱音に対応する歌唱情報に対し、音の長さが所定値以上の音節、または、音階が変化する音節をビブラートをかける音節として順次特定するとともに、特定した音節の関連情報を抽出する処理対象特定手段と、
    前記記憶手段に記憶された前記音節の関連情報を順次検索し、前記処理対象特定手段が特定した音節の関連情報と同一または類似の音節の関連情報を選択する選択手段と、
    前記選択手段により選択された前記音節の関連情報に対応づけられた前記ビブラート情報に基づいて、前記処理対象特定手段が特定した音節に対してビブラートをかける処理を順次行って前記歌唱情報に対応する音声信号を生成する音声処理手段と、
    前記音声処理手段により生成された前記音声信号を出力する出力手段とを備えることを特徴とする音声処理装置。
  2. 請求項1に記載の音声処理装置において、前記選択手段は、前記記憶手段に記憶された前記音節の関連情報と、前記処理対象特定手段が特定した音節の関連情報との類似度を計算し、前記記憶手段に記憶された前記音節の関連情報の中から前記類似度がもっとも高い音節の関連情報を前記同一または類似の音節の関連情報として選択することを特徴とする音声処理装置。
  3. 請求項1または2に記載の音声処理装置において、
    人の歌唱音の情報からビブラートがかかっている音節のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、
    前記ビブラートがかかっている音節の関連情報を前記人の歌唱音の情報から取得し、前記抽出したビブラート情報と対応づけて前記記憶手段に記憶させるビブラート情報作成手段とをさらに有することを特徴とする音声処理装置。
  4. 請求項1ないし3のいずれかに記載の音声処理装置において、前記音節の関連情報は、当該音節と、前記人の歌唱音における少なくとも当該音節の前または後ろの音節、当該音節に対応する音階、当該音節の前または後ろの音節に対応する音階、当該音節の長さ、歌唱曲のジャンル、歌唱者の情報のうち1以上を含む情報であることを特徴とする音声処理装置。
  5. 請求項1ないし4のいずれかに記載の音声処理装置において、前記歌唱情報は、MIDIデータであることを特徴とする音声処理装置。
  6. 請求項1ないし5のいずれかに記載の音声処理装置において、
    前記記憶手段には、さらに人の歌唱音の歌い出しや歌い終わり、音韻間におけるピッチ変化の情報である他の変化情報がその音節の関連情報と対応づけて記憶され、
    前記処理対象特定手段は、さらに、前記歌唱情報に対し歌い出しや歌い終わりの音節、及び音韻を変化させる音節を特定し、
    前記音声処理手段は、前記選択手段により選択された前記音節の関連情報に対応づけられた前記他の変化情報に基づいて、前記処理対象特定手段が特定した音節に対してピッチ変化と振幅変化をかける処理を行って前記歌唱情報に対応する音声信号を生成する
    ことを特徴とする音声処理装置。
  7. 人の歌唱音の情報からビブラートがかかっている音節のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、
    当該音節の前または後ろの音節、
    当該音節に対応する音階、
    当該音節の前または後ろの音節に対応する音階、
    当該音節の長さ、
    歌唱曲のジャンル、
    および歌唱者の情報のうちの1以上と、
    前記人の歌唱音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報に、
    前記抽出したビブラート情報を対応づけてビブラートデータベースを作成するビブラート情報作成手段と
    を備えることを特徴とする音声処理装置。
  8. 前記抽出手段は、前記人の歌唱音の歌い出しや歌い終わり、音韻間におけるピッチ変化の情報である他の変化情報をさらに抽出し、
    前記抽出手段が前記他の変化情報を抽出した音節の関連情報を少なくとも前記人の歌唱音の情報から取得し、前記音節の他の変化情報と対応づける他の変化情報作成手段と
    を備えることを特徴とする請求項7に記載の音声処理装置。
  9. ビブラートがかかっている、人の演奏した楽音における音階のピッチ変化と振幅変化の情報であるビブラート情報をその音階の関連情報と対応づけて記憶する記憶手段と、
    入力される演奏音に対応する演奏情報に対し音の長さが所定値以上の音階を特定することによりビブラートをかける音階を順次特定する処理対象特定手段と、
    前記記憶手段に記憶された前記音階の関連情報を順次検索し、前記処理対象特定手段が特定した音階の関連情報と同一または類似の音階の関連情報を選択する選択手段と、前記選択手段により選択された前記音階の関連情報に対応づけられた前記ビブラート情報に基づいて、前記処理対象特定手段が特定した音階に対してビブラートをかける処理を順次行って前記演奏情報に対応する音声信号を生成する音声処理手段と、
    前記音声処理手段により生成された前記音声信号を出力する出力手段とを備えることを特徴とする音声処理装置。
  10. 請求項9に記載の音声処理装置において、前記選択手段は、前記記憶手段に記憶された前記音階の関連情報と、前記処理対象特定手段が特定した音階の関連情報との類似度を計算し、前記記憶手段に記憶された前記音階の関連情報の中から前記類似度がもっとも高い音階の関連情報を前記同一または類似の音階の関連情報として選択することを特徴とする音声処理装置。
  11. 請求項9または10に記載の音声処理装置において、人の演奏音の情報からビブラートがかかっている音階のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、前記ビブラートがかかっている音階の関連情報を前記人の演奏音の情報から取得し、前記抽出したビブラート情報と対応づけて前記記憶手段に記憶させるビブラート情報作成手段とをさらに有することを特徴とする音声処理装置。
  12. 請求項9ないし11のいずれかに記載の音声処理装置において、前記音階の関連情報は、当該音階と、前記人の演奏音における少なくとも当該音階の前または後ろの音階、当該音階の長さ、演奏曲のジャンル、演奏者の情報、楽器の情報のうち1以上を含む情報であることを特徴とする音声処理装置。
  13. 請求項9ないし12のいずれかに記載の音声処理装置において、前記演奏情報は、MIDIデータであることを特徴とする音声処理装置。
  14. 請求項9ないし13のいずれかに記載の音声処理装置において、
    前記記憶手段には、さらに、人の演奏音の弾き始めや弾き終わり、音階間におけるピッチ変化の情報である他の変化情報がその音階の関連情報と対応づけて記憶され、
    前記処理対象特定手段は、さらに、前記演奏情報に対し弾き始めや弾き終わりの音階を特定し、
    前記音声処理手段は、前記選択手段により選択された前記音節の関連情報に対応づけられた前記他の変化情報に基づいて、前記処理対象特定手段が特定した音に対してピッチ変化と振幅変化をかける処理を行って前記歌唱情報に対応する音声信号を生成する
    ことを特徴とする音声処理装置。
  15. 人の演奏音の情報からビブラートがかかっている音階のピッチ変化と振幅変化の情報であるビブラート情報を抽出する抽出手段と、
    当該音階の前または後ろの音階、
    当該音階の長さ、
    演奏曲のジャンル、
    および演奏者の情報、
    楽器の情報のうちの1以上と、
    前記人の演奏音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報に、
    前記抽出したビブラート情報を対応づけてビブラートデータベースを作成するビブラート情報作成手段と
    を備えることを特徴とする音声処理装置。
  16. 前記抽出手段は、前記人の演奏音の弾き始めや弾き終わり、音間におけるピッチ変化の情報である他の変化情報をさらに抽出し、
    前記抽出手段が前記他の変化情報を抽出した音階の関連情報を少なくとも前記人の演奏音の情報から取得し、前記音階の他の変化情報と対応づける他の変化情報作成手段と
    を備えることを特徴とする請求項15に記載の音声処理装置。
  17. 請求項1ないし16のいずれかに記載の音声処理装置において、前記ビブラート情報は、ベクトル量子化されて記憶されたことを特徴とする音声処理装置。
  18. 入力される歌唱音に対応する歌唱情報に対し音の長さが所定値以上の音節または、音階が変化する音節をビブラートをかける音節として順次特定する処理対象特定ステップと、
    ビブラートがかかっている、人の歌唱音における音節のピッチ変化と振幅変化の情報であるビブラート情報をその音節の関連情報と対応づけて記憶する記憶部の前記音節の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音節の関連情報と同一または類似の音節の関連情報を選択する選択ステップと、
    前記選択ステップにおいて選択された前記音節の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音に対してビブラートをかける処理を順次行って前記歌唱情報に対応する音声信号を生成する音声処理ステップと、
    前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップとを備えることを特徴とする音声処理方法。
  19. 請求項18に記載の音声処理方法において、
    前記歌唱情報に対し歌い出しや歌い終わりの音節、及び音韻間が変化する音節を順次特定する第2の処理対象特定ステップと、
    人の歌唱音の歌い出しや歌い終わり、音節間におけるピッチ変化である他の変化情報をその音節の関連情報と対応づけて記憶する記憶部の前記音節の関連情報の中から前記第2の処理対象ステップにおいて特定された音節の関連情報と同一または類似の音節の関連情報を順次検索し、その中からいずれか一つを選択する第2の選択ステップと、
    前記第2の選択ステップにおいて選択された前記音節の関連情報に対応づけられた前記他の変化情報に基づいて、前記特定した音節に対してピッチ変化をかける処理を行って前記歌唱情報に対応する音声信号を生成する第2の音声処理ステップとを有し、
    前記出力ステップは、前記音声処理ステップと前記第2の音声処理ステップにおいて処理された前記音声信号を出力することを特徴とする音声処理方法。
  20. 入力される演奏音に対応する演奏情報に対し音の長さが所定値以上の音階を順次特定する処理対象特定ステップと、
    ビブラートがかかっている、人の演奏音における音階のピッチ変化と振幅変化の情報であるビブラート情報をその音階の関連情報と対応づけて記憶する記憶部の前記音階の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音階の関連情報と同一または類似の音階の関連情報を選択する選択ステップと、
    前記選択ステップにおいて選択された前記音階の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音階に対してビブラートをかける処理を順次行って前記演奏情報に対応する音声信号を生成する音声処理ステップと、
    前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップとを備えることを特徴とする音声処理方法。
  21. 請求項20に記載の音声処理方法において、
    前記演奏情報に対し弾き始めや弾き終わり音階を順次特定する第2の処理対象ステップと、
    人の演奏音の弾き始めや弾き終わり、音階間におけるピッチ変化と振幅変化の情報である他の変化情報をその音階の関連情報と対応づけて記憶する記憶部の前記音階の関連情報の中から前記第2の処理対象ステップにおいて特定された音階の関連情報と同一または類似の音階の関連情報を順次検索し、その中からいずれか一つを選択する第2の選択ステップと、
    前記第2の選択ステップにおいて選択された前記音階の関連情報に対応づけられた前記他の変化情報に基づいて、前記特定した音階に対してピッチ変化と振幅変化をかける処理を行って前記演奏情報に対応する音声信号を生成する第2の音声処理ステップとを有し、
    前記出力ステップは、前記音声処理ステップと前記第2の音声処理ステップにおいて処理された前記音声信号を出力することを特徴とする音声処理方法。
  22. 入力される歌唱音に対応する歌唱情報に対し音の長さが所定値以上の音節または、音階が変化する音節をビブラートをかける音節として順次特定する処理対象特定ステップと、
    ビブラートがかかっている、人の歌唱音における音節のピッチ変化と振幅変化の情報であるビブラート情報をその音節の関連情報と対応づけて記憶する記憶部の前記音節の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音節の関連情報と同一または類似の音節の関連情報を選択する選択ステップと、
    前記選択ステップにおいて選択された前記音節の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音節に対してビブラートをかける処理を順次行って前記歌唱情報に対応する音声信号を生成する音声処理ステップと、
    前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップと
    を備える音声処理プログラムが記録されたことを特徴とする情報記録媒体。
  23. 入力される演奏音に対応する演奏情報に対し音の長さが所定値以上の音階をビブラートをかける音階として順次特定する処理対象特定ステップと、
    ビブラートがかかっている、人の演奏音における音階のピッチ変化と振幅変化の情報であるビブラート情報をその音階の関連情報と対応づけて記憶する記憶部の前記音階の関連情報を順次検索し、前記処理対象特定ステップにおいて特定された音階の関連情報と同一または類似の音階の関連情報を選択する選択ステップと、
    前記選択ステップにおいて選択された前記音階の関連情報に対応づけられた前記ビブラート情報に基づいて、前記特定した音に対してビブラートをかける処理を順次行って前記演奏情報に対応する音声信号を生成する音声処理ステップと、
    前記音声処理ステップにおいて処理された前記音声信号を出力する出力ステップとを備える音声処理プログラムが記録されたことを特徴とする情報記録媒体。
  24. 音節のビブラート情報と音節の関連情報を記録した情報記録媒体であって、 前記音節のビブラート情報には、
    当該音節の前または後ろの音節、
    当該音節に対応する音階、
    当該音節の前または後ろの音節に対応する音階、
    当該音節の長さ、
    歌唱曲のジャンル、
    および歌唱者の情報のうちの1以上と、
    前記人の歌唱音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報が対応づけられて記憶されていることを特徴とする情報記録媒体。
  25. 音階のビブラート情報と音階の関連情報を記録した情報記録媒体であって、前記音階のビブラート情報には、
    当該音階の前または後ろの音階、
    当該音階の長さ、
    演奏曲のジャンル、
    および演奏者の情報、
    楽器の情報のうちの1以上と、
    前記人の演奏音の情報から取得した前記ビブラートがかかっている音とを含む情報である関連情報が対応づけられて記憶されていることを特徴とする情報記録媒体。
  26. 請求項22または24に記載の情報記録媒体において、前記ビブラート情報には、人の歌唱音の歌い出しや歌い終わり、音韻間におけるピッチ変化の情報がその音節の関連情報と対応づけて記憶されていることを特徴とする情報記録媒体。
  27. 請求項23または25に記載の情報記録媒体において、前記ビブラート情報には、人の演奏音の弾き始めや弾き終わり、音階間におけるピッチ変化と振幅変化の情報が含まれることを特徴とする情報記録媒体。
JP2000258034A 2000-08-28 2000-08-28 音声処理装置、音声処理方法および情報記録媒体 Expired - Fee Related JP3716725B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000258034A JP3716725B2 (ja) 2000-08-28 2000-08-28 音声処理装置、音声処理方法および情報記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000258034A JP3716725B2 (ja) 2000-08-28 2000-08-28 音声処理装置、音声処理方法および情報記録媒体

Publications (2)

Publication Number Publication Date
JP2002073064A JP2002073064A (ja) 2002-03-12
JP3716725B2 true JP3716725B2 (ja) 2005-11-16

Family

ID=18746402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000258034A Expired - Fee Related JP3716725B2 (ja) 2000-08-28 2000-08-28 音声処理装置、音声処理方法および情報記録媒体

Country Status (1)

Country Link
JP (1) JP3716725B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3709817B2 (ja) 2001-09-03 2005-10-26 ヤマハ株式会社 音声合成装置、方法、及びプログラム
JP2005004106A (ja) * 2003-06-13 2005-01-06 Sony Corp 信号合成方法及び装置、歌声合成方法及び装置、プログラム及び記録媒体並びにロボット装置
JP4622356B2 (ja) * 2004-07-16 2011-02-02 ヤマハ株式会社 音声合成用スクリプト生成装置及び音声合成用スクリプト生成プログラム
JP4929604B2 (ja) * 2005-03-11 2012-05-09 ヤマハ株式会社 歌データ入力プログラム
US8898062B2 (en) 2007-02-19 2014-11-25 Panasonic Intellectual Property Corporation Of America Strained-rough-voice conversion device, voice conversion device, voice synthesis device, voice conversion method, voice synthesis method, and program
JP5651945B2 (ja) 2009-12-04 2015-01-14 ヤマハ株式会社 音響処理装置
JP5605066B2 (ja) 2010-08-06 2014-10-15 ヤマハ株式会社 音合成用データ生成装置およびプログラム
JP2013195699A (ja) * 2012-03-19 2013-09-30 Yamaha Corp 歌唱合成装置および歌唱合成プログラム
JP2013164609A (ja) * 2013-04-15 2013-08-22 Yamaha Corp 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
CN111105799B (zh) * 2019-12-09 2023-07-07 国网浙江省电力有限公司杭州供电公司 基于发音量化和电力专用词库的离线语音识别装置及方法

Also Published As

Publication number Publication date
JP2002073064A (ja) 2002-03-12

Similar Documents

Publication Publication Date Title
US7960638B2 (en) Apparatus and method of creating content
JP4207902B2 (ja) 音声合成装置およびプログラム
KR101136974B1 (ko) 재생장치 및 재생방법
US5939654A (en) Harmony generating apparatus and method of use for karaoke
US5986199A (en) Device for acoustic entry of musical data
Cano et al. Voice Morphing System for Impersonating in Karaoke Applications.
JP2012103603A (ja) 情報処理装置、楽曲区間抽出方法、及びプログラム
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
US11521585B2 (en) Method of combining audio signals
Lindemann Music synthesis with reconstructive phrase modeling
US6362409B1 (en) Customizable software-based digital wavetable synthesizer
CN112331222A (zh) 一种转换歌曲音色的方法、系统、设备及存储介质
JP3716725B2 (ja) 音声処理装置、音声処理方法および情報記録媒体
Huang et al. A Research of Automatic Composition and Singing Voice Synthesis System for Taiwanese Popular Songs
JPH07295560A (ja) Midiデータ編集装置
JP3239897B1 (ja) 作詞作曲装置及びプログラム
JP3646680B2 (ja) 作詞作曲装置及びプログラム
JPH10207460A (ja) 演奏設定データ選択装置、演奏設定データ選択方法及びプログラムを記録した媒体
Simon et al. Audio analogies: Creating new music from an existing performance by concatenative synthesis
JP3623557B2 (ja) 自動作曲システムおよび自動作曲方法
JP3879524B2 (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JPH01288900A (ja) 歌声伴奏装置
JP4268328B2 (ja) 音響信号の符号化方法
CN112420003B (en) Accompaniment generation method and device, electronic equipment and computer readable storage medium
JP3752859B2 (ja) 自動作曲装置と記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090909

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100909

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100909

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110909

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120909

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130909

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees