JP2001117568A - 歌唱評価装置およびカラオケ装置 - Google Patents

歌唱評価装置およびカラオケ装置

Info

Publication number
JP2001117568A
JP2001117568A JP30027499A JP30027499A JP2001117568A JP 2001117568 A JP2001117568 A JP 2001117568A JP 30027499 A JP30027499 A JP 30027499A JP 30027499 A JP30027499 A JP 30027499A JP 2001117568 A JP2001117568 A JP 2001117568A
Authority
JP
Japan
Prior art keywords
singing
voice
frame
unit
phoneme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30027499A
Other languages
English (en)
Other versions
JP4205824B2 (ja
Inventor
保夫 ▲蔭▼山
Yasuo Kageyama
Keino Pedro
ケイノ ペドロ
Rosukosu Alex
ロスコス アレックス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitat Pompeu Fabra UPF
Yamaha Corp
Original Assignee
Universitat Pompeu Fabra UPF
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitat Pompeu Fabra UPF, Yamaha Corp filed Critical Universitat Pompeu Fabra UPF
Priority to JP30027499A priority Critical patent/JP4205824B2/ja
Publication of JP2001117568A publication Critical patent/JP2001117568A/ja
Application granted granted Critical
Publication of JP4205824B2 publication Critical patent/JP4205824B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

(57)【要約】 【課題】 歌唱の巧拙を的確に評価することができる歌
唱評価装置およびこれを用いたカラオケ装置を提供す
る。 【解決手段】 本発明に係る歌唱評価装置は、歌唱者の
歌唱位置を検出するとともに、歌唱音声の各音楽要素
と、当該歌唱位置に対応した基準音声の基準フレームの
各音楽要素とを比較し、この比較結果に基づいて歌唱を
評価するようになっている。従って、歌唱音声の音程、
音量および声質等の評価を、歌唱タイミングのずれの影
響を受けることなく評価することができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、歌唱の巧拙を評価
可能な歌唱評価装置およびこれを用いたカラオケ装置に
関する。
【0002】
【従来の技術】従来より、歌唱者の歌唱の巧拙を評価す
る歌唱評価機能を備えた各種のカラオケ装置が提供され
ている。この種のカラオケ装置として、例えば、歌唱者
が歌うべきメロディの音程や音量等を指定する情報を含
む基準歌唱情報(例えばMIDIデータ)等が記憶され
たメモリと、マイクから入力された歌唱音声の音程およ
び音量等を抽出する抽出部と、上記メモリに記憶された
音程および音量と上記抽出部によって抽出された歌唱音
声の音程および音量とを比較し、この比較結果に基づい
て歌唱を評価する評価部とを具備したカラオケ装置が知
られている。
【0003】図12は、上記従来のカラオケ装置におけ
る音程の評価方法を示す概念図である。同図において、
横軸は時間、縦軸は周波数(音程)をそれぞれ表してい
る。また、図中の太線は基準歌唱情報によって指定され
る音程の時間的変化を表しており、細線は歌唱音声から
抽出された音程の時間的変化を表している。同図に示す
ように、このカラオケ装置においては、音程情報によっ
て指定される音程と歌唱音声の音程とが、一定時間(例
えば50ms)毎に到来する評価タイミングにおいて比
較され、この比較結果に基づいて歌唱の巧拙が評価され
るようになっている。例えば、図中の評価タイミングT
k1においては、音程情報によって指定される音程と、
歌唱音声の音程とが概ね一致しているため、音程につい
ては高い評価が得られることとなる。
【0004】
【発明が解決しようとする課題】しかしながら、上述し
た評価方法においては以下に示す問題点がある。例え
ば、図12中の評価タイミングTk2の近傍において
は、歌唱音声の音程および基準音声の音程がともに変化
している。ここで、歌唱音声の変化前の音程は、基準歌
唱音声の変化前の音程と概ね一致しており、歌唱音声の
変化後の音程は、基準歌唱音声の変化後の音程と概ね一
致している。それにもかかわらず、歌唱音声の音程の変
化のタイミングが、音程情報が示す音程の変化のタイミ
ングとずれているため、図中の評価タイミングTk2に
おける評価では、音程が大きくずれているものと判断さ
れ、評価が低くなってしまうという問題がある。
【0005】ここで、一般に、感情を込めて歌った場合
には、歌唱のタイミングが実際のメロディとずれてしま
う場合がある。また、歌唱のタイミングを意図的にずら
した方が上手く聞こえる場合があるものである。しかし
ながら、上述したように、上記評価方法では、このよう
な意図的なタイミングのずれを正当に評価できない。す
なわち、音程情報が示す音程と正確に一致するように、
感情を込めることなく機械的に歌唱した方が高い評価が
得られるのである。このように、従来のカラオケ装置に
おいては、実際の歌唱の巧拙が評価結果に的確に反映さ
れているとはいえなかった。
【0006】本発明は、以上説明した事情に鑑みてなさ
れたものであり、歌唱の巧拙を的確に評価することがで
きる歌唱評価装置およびこれを用いたカラオケ装置を提
供することを目的としている。
【0007】
【課題を解決するための手段】上述した課題を解決する
ために、請求項1に記載の歌唱評価装置は、基準音声を
時間軸上で分割した複数の基準フレーム毎に当該基準音
声の音楽要素を記憶する記憶手段と、歌唱者の歌唱音声
を歌唱フレームに順次分割し、分割により得られた歌唱
フレームに対応した基準フレームを探索するアライメン
ト手段と、前記分割により得られた歌唱フレームの音楽
要素を抽出する分析手段と、前記分析手段によって抽出
された歌唱フレームの音楽要素と、前記アライメント手
段によって探索された基準フレームの音楽要素とを比較
する比較手段と、前記比較手段による比較結果に基づい
て歌唱を評価する評価手段とを具備することを特徴とし
ている。また、請求項2に記載の歌唱評価装置は、請求
項1に記載の構成において、前記記憶手段に記憶された
各基準フレームの音楽要素の時間的変化と、前記分析手
段によって抽出された歌唱フレームの音楽要素の時間的
変化とを比較することにより、歌唱タイミングの一致度
を検出するタイミング比較手段を具備し、前記評価手段
は、前記比較手段およびタイミング比較手段による比較
結果に基づいて歌唱を評価することを特徴としている。
また、請求項3に記載の歌唱評価装置は、請求項1に記
載の構成において、前記アライメント手段は、前記歌唱
フレームに対応した基準フレームを探索するとともに、
探索された基準フレームと、本来歌唱すべき基準フレー
ムとの時間的な差に基づいて歌唱音声と基準音声の歌唱
タイミングの一致度を検出し、前記評価手段は、前記比
較手段による比較結果、および前記アライメント手段に
よって検出された歌唱タイミングの一致度に基づいて歌
唱を評価することを特徴としている。請求項4に記載の
歌唱評価装置は、請求項1〜3のいずれか1の請求項に
記載の構成において、前記音楽要素として音程を含むこ
とを特徴としている。請求項5に記載の歌唱評価装置
は、請求項1〜4のいずれか1の請求項に記載の構成に
おいて、前記音楽要素として音量を含むことを特徴とし
ている。請求項6に記載の歌唱評価装置は、請求項1〜
5のいずれか1の請求項に記載の構成において、前記音
楽要素として声質を含むことを特徴としている。また、
請求項7に記載の歌唱評価装置は、請求項6に記載の構
成において、前記比較手段は、スペクトルマッチング尺
度を用いて前記基準音声の声質と歌唱音声の声質とを比
較することを特徴としている。請求項8に記載の歌唱評
価装置は、請求項6に記載の構成において、前記比較手
段は、前記基準音声の1以上のフォルマント周波数と歌
唱音声の1以上のフォルマント周波数とを比較すること
を特徴としている。また、請求項9に記載の歌唱評価装
置は、請求項1〜8のいずれか1の請求項に記載の構成
において、前記アライメント手段は、歌唱音声の音素と
基準音声の音素とを対比することにより各歌唱フレーム
に対応した基準フレームを探索することを特徴としてい
る。請求項10に記載の歌唱評価装置は、請求項1〜9
のいずれか1の請求項に記載の構成において、前記アラ
イメント手段は、楽曲の音素列を記憶する音素列記憶手
段と、歌唱音声の代表的なパラメータを特徴ベクトルと
して所定数のシンボルにクラスタ化した符号帳と、各音
素毎の状態遷移確率および前記各シンボルの観測確率と
を記憶する音素情報記憶手段と、前記分割により得られ
た歌唱フレームを特徴パラメータ分析し、前記音素情報
記憶手段に記憶された符号帳に基づいて当該歌唱フレー
ムの特徴パラメータをシンボル量子化して当該歌唱フレ
ームの観測シンボルとする量子化手段と、前記音素情報
記憶手段に記憶された状態遷移確率および観測確率に基
づいて、前記音素列記憶手段に記憶された音素列の各状
態を有限状態ネットワーク上で隠れマルコフモデルによ
って形成する状態形成手段と、前記量子化手段によって
量子化された観測シンボルと、前記状態形成手段によっ
て形成された前記隠れマルコフモデルに従って、1パス
ビタビアルゴリズムによって状態遷移を決定する状態遷
移決定手段と、決定した前記歌唱音声の状態遷移に基づ
いて、各歌唱フレームに対応した基準フレームを探索す
る探索手段とを具備すること特徴としている。
【0008】また、本発明は、請求項1〜10のいずれ
か1の請求項に記載の歌唱評価装置と、前記歌唱音声を
入力するための音声入力手段と、楽曲データに従って楽
音信号を生成して出力する音源と、前記歌唱音声および
楽音信号を音として出力する出力手段とを具備すること
を特徴とするカラオケ装置を提供するものである。
【0009】
【発明の実施の形態】以下、図面を参照して、本発明の
実施形態について説明する。なお、以下に示す実施形態
においては、本発明に係る歌唱評価装置をカラオケ装置
に適用した場合を例に説明する。かかる実施の形態は、
本発明の一態様を示すものであり、この発明を限定する
ものではなく、本発明の範囲内で任意に変更可能であ
る。
【0010】A:第1実施形態 A−1:第1実施形態の構成 図1は、本発明の第1実施形態であるカラオケ装置1の
全体構成を示すブロック図である。同図に示すように、
このカラオケ装置1は、歌唱者が発する歌唱音声を電気
信号(以下、「歌唱音声信号」という)に変換して出力
するマイク2と、楽曲の伴奏の演奏等を行うカラオケ処
理部3と、歌唱者による歌唱の巧拙を評価して評価結果
を歌唱者に報知する歌唱評価部4とにより構成されてい
る。
【0011】カラオケ処理部3は、MIDIデータや時
間データおよび歌詞データなどを含む複数の楽曲データ
を記憶した楽曲データ記憶部31と、歌唱者によって指
定された楽曲データ中のMIDIデータを時間データに
従って再生するシーケンサ32と、シーケンサ32の出
力信号に従って伴奏音等の楽音信号を生成する音源33
と、この楽音信号とマイク2から供給される歌唱音声信
号とをミキシングして出力するミキサ34と、ミキサ3
4の出力信号を音として出力するスピーカ35とを具備
している。
【0012】歌唱評価部4は、音声信号切出部41、分
析窓生成部42、FFT(高速フーリエ変換)部43、
分析部44、タイミング比較部45、音程・音量・声質
比較部46、基準歌唱データベース47、アライメント
処理部48、音素辞書記憶部49、採点結果演算部50
および採点結果表示部51を備えている。
【0013】基準歌唱データベース47には、基準音声
に関する各種情報、すなわち、基準歌唱情報、音韻テー
ブルおよび音素記述列が記憶されている。基準歌唱情報
および音素記述列は、上記楽曲データ記憶部31に記憶
された複数の楽曲の各々に対応して記憶されている。一
方、音韻テーブルは、各楽曲の歌手の各々に対応して記
憶されている。
【0014】ここで、図2(a)を参照して、基準歌唱
データベース47に記憶された基準歌唱情報について説
明する。この基準歌唱情報は、ある楽曲の歌手による歌
唱音声(以下、「基準音声」という)を楽曲の開始時点
から一定時間間隔(以下、「基準フレーム」という)毎
に区切り、各基準フレーム毎に基準音声の音程、音量お
よび音韻を求めて得られたものである。具体的には、こ
の基準歌唱情報は、図2(a)に示すように、いずれか
の基準フレームを特定するための基準フレーム番号(F
t1、Ft2、…)と、各基準フレーム単位で区切られ
た基準音声の基本周波数を表す基準音程情報(P4、P
5等)と、各基準フレーム単位で区切られた基準音声の
平均アンプリチュードを表す基準音量情報(A3、A4
等)と、音韻番号とにより構成されている。また、音韻
番号は、「0」〜「256」のいずれかの数値である。
なお、基準音程情報が「0」である基準フレームは、歌
手による歌唱がない基準フレームまたは無声子音(息継
ぎの音などの周期性のない音)のみの基準フレームであ
る。
【0015】また、基準歌唱データベース47に記憶さ
れた音韻テーブルは、図2(b)に示すように、上述し
た基準歌唱情報中の音韻番号(0〜256)と、各音韻
番号に対応付けられたメルケプストラム係数とにより構
成されている。このメルケプストラム係数は、基準音声
のスペクトル形状、すなわち声質を少ないパラメータで
表すことのできる係数である。このように、上述した基
準歌唱情報中の音韻番号は、音韻テーブル中のメルケプ
ストラム係数のうちのいずれかを指定するための番号と
なっている。
【0016】基準歌唱データベース47に記憶された音
素記述列は、図2(c)に示すように、演奏対象となる
楽曲の歌詞に対応して音素を並べた音素列と、音素列を
構成する各音素に対応する基準フレーム(通常、1の音
素に対して複数の基準フレームが対応している)の基準
フレーム番号とにより構成されている。例えば、図2
(c)に示す例においては、基準フレームFt1〜Ft
3が音素/Silence/に対応しており、基準フレー
ムFt4〜Ft9が音素/n/に対応しており、基準フレ
ームFt10〜が音素/a/に対応している。
【0017】再び図1において、分析窓生成部42は、
上述した基準音声の基準フレームと同じ時間的長さを有
する分析窓(例えばハミング窓)を生成して音声信号切
出部41に出力する。音声信号切出部41は、この分析
窓生成部42から供給される分析窓と、マイク2から入
力される歌唱音声信号とを掛け合わせて出力する。すな
わち、音声信号切出部41は、歌唱音声信号をフレーム
単位で切り出して、FFT部43に出力する。以下で
は、歌唱音声の各フレームを歌唱フレーム(Fm1、F
m2、…)と呼ぶ。FFT部43は、音声信号切出部4
1から出力される各歌唱フレーム単位の歌唱音声信号に
対してFFTを施し、分析部44およびアライメント処
理部48に出力する。
【0018】アライメント処理部48は、歌唱者が楽曲
中のどの部分を歌っているのかを求めるための手段であ
る。具体的には、アライメント処理部48は、歌唱者の
歌唱位置と基準音声信号の基準フレームとの時間的位置
関係を判別し、歌唱者が歌っている部分が、基準音声の
うちのどの基準フレームに該当するのかを表す歌唱位置
情報を生成するための処理を行う。すなわち、歌唱者に
よる歌唱のタイミングが、本来の歌唱のタイミング(す
なわち、基準音声の歌唱タイミング)とずれている場合
であっても、歌唱者が歌っている部分(歌唱フレーム)
が、基準音声の基準フレームのうちのいずれの基準フレ
ームに該当するのかを判別できるようになっている。
【0019】ここで、図3を参照して、アライメント処
理部48の詳細な構成について説明する。同図に示すよ
うに、アライメント処理部48は、特徴パラメータ分析
部481、シンボル量子化部482、音素列状態形成部
483、状態遷移決定部484およびアライメント部4
85により構成されている。
【0020】特徴パラメータ分析部481は、FFT部
43の出力信号から歌唱音声のスペクトル特性を特徴づ
ける特徴パラメータを抽出し、シンボル量子化部482
に出力する。本実施形態においては、特徴パラメータと
して、メルケプストラム係数、差分メルケプストラム係
数、エネルギ係数、差分エネルギ係数、ボイスネス(有
声音尤度)係数の5種類のパラメータを用いる。なお、
差分メルケプストラム係数とは、直前の歌唱フレームと
現在の歌唱フレームとのメルケプストラム係数の差分値
を示す。また、差分エネルギ係数とは、直前の歌唱フレ
ームと現在の歌唱フレームとのエネルギの差分値を示
す。ボイスネス係数とは、ゼロ交差数およびピッチ検出
を行うときに求まる検出誤差値等から総合的に求められ
る値、あるいは、総合的に重み付けして求められる値で
あり、有声音らしさを表す数値である。
【0021】シンボル量子化部482は、音素辞書記憶
部49に記憶された符号帳(詳細は後述する)を参照し
て、特徴パラメータ分析部481から供給される歌唱フ
レーム毎の特徴パラメータに対し、最大尤度をもつ特徴
シンボルを選び出し、状態遷移決定部484に出力す
る。
【0022】音素列状態形成部483は、基準歌唱デー
タベース47に記憶された音素記述列に基づいて隠れマ
ルコフモデルによる音素列の形成を行う。状態遷移決定
部484は、シンボル量子化部482から供給される歌
唱フレーム単位の特徴シンボルを用いて、後述する1パ
スビタビ(Viterbi)アルゴリズムに従って歌唱音声の
状態遷移を決定する。アライメント部485は、状態遷
移決定部484によって決定された状態遷移に基づい
て、歌唱音声の音素と基準音声の音素とをフレーム単位
で対応付け、歌唱音声の歌唱フレームに対応する基準音
声の基準フレームを探索し、当該基準フレームの基準フ
レーム番号を歌唱位置情報として出力する。
【0023】音素辞書記憶部49には、符号帳および確
率データが記憶されている。符号帳は、図4に示すよう
に、音声信号の代表的な特徴パラメータを特徴ベクトル
として所定数のシンボルにクラスタ化したものである。
すなわち、この符号帳は、歌唱音声信号を各種特徴ベク
トル(メルケプストラム係数、差分メルケプストラム係
数、エネルギ係数、差分エネルギ係数、ボイスネス(有
声音尤度)係数)にベクトル量子化するために用いられ
る。
【0024】ここで、図4を参照しつつ、本実施形態に
おいて用いる特徴ベクトルについて説明する。 メルケプストラム係数(bMEL) メルケプストラム係数は、音声のスペクトル特性を少な
い次数で表す係数であり、本実施形態では12次元ベク
トルとして128シンボルにクラスタ化されている。 差分メルケプストラム係数(bdeltaMEL) 差分メルケプストラム係数は、直前の歌唱フレームと現
在の歌唱フレームとのメルケプストラム係数の差分値を
表す係数であり、本実施形態では12次元ベクトルとし
て128シンボルにクラスタ化されている。 エネルギ係数(bENERGY) エネルギ係数は、音声の強さを表す係数であり、本実施
形態では1次元ベクトルとして32シンボルにクラスタ
化されている。 差分エネルギ係数(bdeltaENERGY) 差分エネルギ係数は、直前の歌唱フレームと現在の歌唱
フレームとのエネルギ係数の差分値を表す係数であり、
1次元ベクトルとして32シンボルにクラスタ化されて
いる。 ボイスネス(bVOICENESS) ボイスネス係数は、有声音らしさを表す特徴ベクトルで
あり、ゼロクロス率およびピッチエラーで特徴づける2
次元ベクトルとして32シンボルにクラスタ化されてい
る。 以上が本実施形態において用いる特徴ベクトルである。
【0025】次に、音素辞書記憶部49に記憶された確
率データについて説明する。本実施形態では、音声をモ
デル化するためのサブワード単位としてPLU(疑似音
素単位)を用いる。具体的には、図5に示すように、日
本語を27の音素単位で扱うものとし、各音素には状態
数が対応付けられている。状態数とは、サブワード単位
の持続する最も短い基準フレーム数をいう。例えば音素
/a/の状態数は「3」であるので、音素/a/は少なくと
も3つの基準フレームにわたって続くことを意味する。
【0026】3状態の各々は、発音の立ち上がり・定常
状態・リリース状態を擬似的に表したものである。音素
/b/や/g/などの破裂音は、本来持つ音韻が短いので2
状態に設定されており、息継ぎ(ASPIRATION)も2状態
に設定されている。そして、無音(SILENCE)は、時間
的変動がないので1状態に設定されている。確率データ
には、図6に示すように、サブワード単位で表される2
7の音素に対して、各状態の遷移確率と、各特徴ベクト
ルのシンボルに対する観測シンボル発生確率とが記述さ
れている。
【0027】再び図1において、分析部44は、FFT
部43から供給される歌唱フレーム毎の歌唱音声信号を
分析し、歌唱音声の音程を表す歌唱音程情報と、歌唱音
声の音量を表す歌唱音程情報と、当該歌唱音声のメルケ
プストラム係数とを算出する。分析部44によって生成
された歌唱音程情報および歌唱音量情報はタイミング比
較部45に出力される一方、歌唱音程情報、歌唱音量情
報およびメルケプストラム係数は音程・音量・声質比較
部46に出力される。
【0028】タイミング比較部45は、分析部44から
順次供給される歌唱音程情報および歌唱音量情報と、上
記基準歌唱データベース47中の基準音程情報および基
準音量情報とを比較することにより、歌唱音声の歌唱タ
イミングと基準音声の歌唱タイミングとの一致度を検出
し、この一致度を表すタイミング比較結果を採点結果演
算部50に出力する。音程・音量・声質比較部46は、
歌唱音声の各歌唱フレーム毎の音楽要素(音程、音量お
よび声質)と、当該歌唱フレームに対応する基準音声の
基準フレームの音楽要素とを比較し、比較結果を採点結
果演算部50に出力する。
【0029】採点結果演算部50は、タイミング比較部
45から供給されるタイミング比較結果と、音程・音量
・声質比較部46から供給される比較結果と、アライメ
ント処理部48から供給されるアライメント安定度情報
とに基づいて、当該歌唱の採点を行い、採点結果を採点
結果表示部51に出力する。なお、本実施形態において
は、タイミング、音程、音量、声質およびアライメント
の各々について、個別に採点を行うものとする。採点結
果表示部51は、例えばCRTまたは液晶ディスプレイ
装置等の表示装置を備えており、採点結果演算部50か
ら供給される各採点結果を表示する。ここで、採点結果
演算部50には、歌唱フレーム毎にタイミング比較結果
等が供給されて各音楽要素毎の採点結果が出力されるた
め、採点結果表示部51に表示される点数は、歌唱フレ
ーム毎にリアルタイムに変化することとなる。
【0030】A−2:第1実施形態の動作 次に、本実施形態の動作について説明する。まず、ユー
ザが図示しない操作部に対して所定の操作を行うことに
より、いずれかの楽曲を選択するとともに楽曲の開始を
指示すると、シーケンサ32は当該楽曲に対応した楽曲
データ中のMIDIデータを時間データに従って音源3
3に出力する。
【0031】マイク2から入力された歌唱音声信号は、
ミキサ34と、歌唱評価部4内の歌唱音声切出部41と
に出力される。ミキサ34は、音源33から出力される
楽音信号と、マイク2から入力された歌唱音声信号とを
ミキシングして出力する。この出力信号はスピーカ35
から音として出力される。
【0032】一方、音声信号切出部41は、マイク2か
ら供給される歌唱音声信号と、分析窓生成部42から供
給される分析窓とを掛け合わせることにより、歌唱音声
信号を歌唱フレーム単位で切り出して出力する。FFT
部43は、この音声信号切出部41からの出力信号に対
してFFTを施し、分析部44およびアライメント処理
部48に出力する。
【0033】次に、前掲図3に示したアライメント処理
部48内の各部の動作について説明する。まず、特徴パ
ラメータ分析部481は、FFT部43から供給される
各歌唱フレーム毎の周波数スペクトルに対して特徴パラ
メータ解析を行い、各特徴パラメータを出力する。シン
ボル量子化部482は、音素辞書記憶部49に記憶され
た符号帳に含まれる特徴シンボルのうち、特徴パラメー
タ分析部481から供給される各特徴パラメータに対し
て最大尤度を持つ特徴シンボルを各特徴ベクトル毎に選
び出し、選び出した特徴シンボルを状態遷移決定部48
4に出力する。
【0034】一方、音素列状態形成部483は、音素辞
書記憶部49に記憶された確率データに含まれる状態遷
移確率と基準歌唱データベース47に記憶された音素記
述列に基づいて、隠れマルコフモデルによる音素の状態
形成を行う(図8(a)参照)。
【0035】ここで、図7を参照して、隠れマルコフモ
デル(HMM)について説明する。なお、音声の状態は
一方向へ遷移するので、left to right型のモデルを用
いている。時刻tにおいて、状態がiからjへ遷移する
確率(状態遷移離散確率)をaijと表す。すなわち、図
7に示す例では、状態にとどまる確率をa11と表し、
状態から状態へ遷移する確率をa12と表している。
【0036】各状態の中には特徴ベクトルがそれぞれ存
在し、各々に異なる観測シンボルがある。これをX=
{x1、x2、…、xT}と表す。そして、時刻tにおいて
状態がjであるときに特徴ベクトルのシンボルxtを発
生させる確率(観測シンボル離散確率)をbj(xt)と
表す。モデルλにおいて、時刻Tまでの状態系列をQ=
{q1、q2、…、qT}とすると、観測シンボル系列Xと
状態系列Qとの同時発生確率は、次式で表せる。
【数1】 観測シンボル系列は判っているが、状態系列は観測し得
ないという理由で、このようなモデルが隠れマルコフモ
デル(HMM)と呼ばれている。本実施形態では、基準
歌唱データベース47に記憶された音素記述列に基づい
て、図7に示すようなFNS(有限状態ネットワーク)
を音素単位で形成する。
【0037】さて、状態遷移決定部484は、音素列状
態形成部483によって形成された隠れマルコフモデル
と、シンボル量子化部482から供給される歌唱フレー
ム単位の各特徴シンボルを用い、1パスビタビアルゴリ
ズムによって歌唱音声の状態遷移を決定する。すなわ
ち、歌唱音声の各歌唱フレームが、いずれの音素に対応
するのかを特定する。
【0038】ここで、1パスビタビアルゴリズムについ
て説明する。下記式におけるΨt(j)は、時刻tに対
応する歌唱フレームまでの観測を踏まえて算出した、1
つのパスを経由して得られる時刻tの歌唱フレームにお
けるベスト確率δt(i)を最大とする状態を選択す
る。すなわち、Ψt(j)に従って音素状態が遷移して
いく。初期演算としてδ1(i)=1とし、繰り返し演
算として
【数2】 を実行する。ここで、aijは状態iから状態jへの状態
遷移確率であり、bj(Ot)は特徴ベクトルの時刻tに
おけるシンボル発生確率である。各観測シンボルは、歌
唱音声から抽出された特徴ベクトルであるから、歌唱者
の発生態様によって観測シンボルが異なり、遷移の態様
も異なるようになる。
【0039】図8(b)に示す例では、上記式によって
計算された確率を○あるいは△で示している。ここで、
○>△である。例えば、時刻tm1から時刻tm3まで
の観測を踏まえ、状態“Silence”から状態“n
1”へのパスが形成される確率は、状態“Silenc
e”から状態“Silence”へのパスが形成される
確率よりも高く、時刻tm3におけるベスト確率とな
り、図中太矢印で示すように状態遷移を決定する。
【0040】このような演算を歌唱音声の各歌唱フレー
ム(Fm1、Fm2、…)に対応する時刻(tm1、t
m2、…)毎に行う。この結果、図8(c)に例示する
ように、時刻tm3において状態“Silence”か
ら状態“n1”に遷移し、時刻tm5において状態“n
1”から状態“n2”に遷移し、時刻tm9において状
態“n2”から状態“n3”に遷移し、時刻tm11に
おいて状態“n3”から状態“a1”に遷移する、とい
った具合に歌唱音声の状態遷移が決定される。これによ
り、歌唱音声の各歌唱フレームが、いずれの音素に対応
するのかを特定することができる。
【0041】こうして、歌唱音声の各歌唱フレームが、
いずれの音素に対応するのかが特定されると、アライメ
ント部485は、特定された音素に対応する基準音声の
基準フレームを特定する。
【0042】上述したように、隠れマルコフモデルの各
状態は音素記述列に基づいて形成されているので、各状
態に対応する基準音声の音素毎の基準フレームを特定す
ることができるようになっている。本実施形態では、ア
ライメントとして、基準音声および歌唱音声の対応する
音素が同じフレーム同士を、各フレーム毎に時系列で一
致させる処理を行う。具体的には、以下の通りである。
【0043】図8(e)に示す音素記述列は、前掲図2
(c)に示した音素記述列である。すなわち、基準音声
の基準フレームFt1〜Ft3が音素/Silence/
に対応し、基準フレームFt4〜Ft9が音素/n/に対
応し、基準フレームFt10〜の基準フレームが音素/
a/に対応している。
【0044】一方、1パスビタビアルゴリズムによって
歌唱音声の状態遷移が決定され、この結果、図8(c)
に示すように、歌唱音声の歌唱フレームFm1およびF
m2が音素/Silence/に対応し、歌唱フレームF
m3〜Fm10が音素/n/に対応し、歌唱フレームFm
11〜が音素/a/に対応していることが判明したものと
する。
【0045】この結果、図8(d)に示すように、歌唱
音声の各歌唱フレームと、基準音声の各基準フレームと
を対応付ける(アライメントする)ことができる。具体
的には、以下の通りである。
【0046】まず、音素/Silence/に対応するフ
レームとして、歌唱音声の歌唱フレームFm1と基準音
声の基準フレームFt1とを対応付け、歌唱音声の歌唱
フレームFm2と基準音声の基準フレームFt2とを対
応付ける。
【0047】また、図8(c)に示すように、歌唱音声
が歌唱フレームFm2からFm3に切換わる際に、状態
“Silence”から状態“n1”に遷移しているの
で、音素/n/に対応する歌唱フレームとしては、歌唱フ
レームFm3が最初のフレームとなる。一方、基準音声
については、音素/n/に対応する基準フレームは、図8
(e)に示す音素記述列によれば基準フレームFt4か
らであるので、歌唱音声の歌唱フレームFm3と、基準
音声の基準フレームFm4とを対応付ける。
【0048】次に、歌唱音声の歌唱フレームFm4にお
いては、新たな音素(図8(c)に示す例においては音
素/a/)に移行していないので、歌唱音声の歌唱フレー
ムFm4と、基準音声の基準フレームFt5とを対応付
ける。以後同様の処理を繰り返し、歌唱音声の歌唱フレ
ームFm5〜Fm7の各々と、基準音声の基準フレーム
Ft6〜Ft8の各々とを順次対応付けていく。
【0049】ところで、図8(c)〜(e)に示す例で
は、歌唱音声の歌唱フレームFm3〜Fm10の8フレ
ームが音素/n/に対応しているのに対して、基準音声の
音素/n/に対応しているフレームは基準フレームFt4
〜Ft9である。このように、歌唱者が対象者よりも同
じ音素を長い時間発声してしまう場合が生じるので、本
実施形態では、予め用意したループフレームを用いて基
準音声が歌唱音声よりも短い場合の補間を行う。
【0050】ループフレームは、図8(f)に示すよう
に、音を伸ばして発音する場合のピッチの変化やアンプ
リチュードの変化を擬似的に再現するためのデータを数
フレーム分記憶しており、例えば、基本周波数の差分
(ΔPitch)やアンプリチュードの差分(ΔAm
p)などから構成される。そして、基準歌唱情報中に
は、音素列における各音素の最終フレームにループフレ
ームの呼出しを指示するデータを記述しておく。これに
より、歌唱者が基準音声よりも同じ音素を長い時間発声
してしまった場合でも、良好にアライメントを行うこと
ができる。
【0051】一方、上述した各フレーム毎の対応付けに
並行して、歌唱音声の各歌唱フレームに対応付けれらた
基準音声の基準フレームの基準フレーム番号を検出し、
この基準フレーム番号を歌唱位置情報として音程・音量
・声質比較部46に出力する。
【0052】また、アライメント処理部48は、アライ
メント安定度情報を採点結果演算部50に出力する。以
下、アライメント安定度情報について説明する。歌唱者
は、演奏される楽曲の本来の歌詞の言葉とは異なる言葉
で歌唱する場合もあり得る。例えば、本来の歌詞が「な
きながら」であるにも関わらず、歌唱者が「なきなら
が」と誤って歌ってしまうような場合である。この場
合、本来は「ながら」を表す音素列については、音素/
n//a/の後、音素/g/に遷移するはずであるが、「な
らが」と歌ってしまった場合には音素/n//a/の後に音
素/r/に遷移することとなる。すなわち、歌唱者が歌詞
を誤って歌ってしまった場合には、本来の遷移すべき音
素とは異なる音素に遷移してしまう。すなわち、音素の
飛び越しまたは後退が生じることがある。このように、
アライメント処理部48内のアライメント部485は、
このような音素の飛び越しおよび後退の発生回数を単位
時間毎にカウントし、このカウント値をアライメント安
定度情報として出力するのである。すなわち、アライメ
ント安定度情報は、歌唱者の歌唱している歌詞と、本来
の歌詞との違いの程度を表す情報ということができる。
【0053】一方、分析部44は、FFT部43から供
給される歌唱フレーム毎の歌唱音声信号について、歌唱
音程情報、歌唱音量情報およびメルケプストラム係数を
算出する。すなわち、例えば、各歌唱フレーム単位の歌
唱音声信号の基本周波数を歌唱音程情報とし、各歌唱フ
レーム単位の歌唱音声信号の平均アンプリチュードを歌
唱音量情報とする、といった具合である。そして分析部
44は、歌唱音程情報および歌唱音量情報をタイミング
比較部45に、歌唱音程情報、歌唱音量情報およびメル
ケプストラム係数を音程・音量・声質比較部46に、そ
れぞれ出力する。
【0054】ここで、歌唱音声信号のメルケプストラム
係数の算出手順の一例について説明する。まず、分析部
44は、FFT部43から供給される歌唱フレーム単位
の歌唱音声信号の周波数スペクトルに対し、メルスケー
ル帯域フィルタ群を用いてメルスケールに従った重み付
けを施す。ここで、メルスケール帯域フィルタ群は、N
個の帯域フィルタから構成され、図9に示すように、各
々の帯域フィルタの通過帯域がメルスケール上(または
対数周波数軸上)に等間隔に配置されるようになってい
る。これは、人間の聴覚特性(すなわち、低い周波数に
おいては細かい周波数分解能を有し、高い周波数におい
ては粗い周波数分解能を有する)を考慮して、歌唱音声
信号の周波数スペクトルに対してメルスケールに応じた
重み付けがなされるようにするためである。この結果得
られたメルスケール帯域フィルタ群からのN個の出力信
号を用いてケプストラム演算を行うことにより、歌唱音
声信号のメルケプストラム係数を求めることができる。
このケプストラム演算は、上記メルスケール帯域フィル
タ群のうちのk番目の帯域フィルタからの出力信号のエ
ネルギ合計値を|Sk|とすると、
【数3】 によって表される。
【0055】タイミング処理部45は、分析部44から
歌唱音程情報および歌唱音量情報が供給されると、基準
歌唱データベース47に記憶された基準音程情報および
基準音量情報のうち、演奏が開始された時点からの経過
時刻に対応する基準フレームに対応付けられた基準音程
情報および基準音量情報を読み出す。そして、各歌唱フ
レーム単位で順次供給される歌唱音程情報および歌唱音
量情報から歌唱音声の立ち上がりタイミング(すなわ
ち、歌唱音声の音程または音量が変化するタイミング)
を検出する一方、基準音声の立ち上がりタイミング(す
なわち、基準音声の音程または音量が変化するタイミン
グ)を検出する。そして、歌唱音声の立ち上がりタイミ
ングと基準音声の立ち上がりタイミングとを比較し、各
タイミングの一致度を表すタイミング比較結果を採点結
果演算部50に出力する。
【0056】一方、音程・音量・声質比較部46は、ま
ず、アライメント処理部48から供給される歌唱位置情
報によって指定される基準フレーム番号に対応付けられ
た基準音程情報、基準音量情報を基準歌唱データベース
47から読み出すとともに、当該基準フレームにおける
音韻番号に対応付けられたメルケプストラム係数を音韻
テーブルから読み出す。つまり、基準音声の各音楽要素
のうち、歌唱者による歌唱位置に対応した各音楽要素を
読み出すのである。そして、読み出した基準音程情報、
基準音量情報およびメルケプストラム係数の各々を、分
析部44から供給される歌唱音程情報、歌唱音量情報お
よびメルケプストラム係数と比較し、各々の比較結果で
ある音程比較結果、音量比較結果および声質比較結果を
採点結果演算部50に出力する。具体的には、歌唱音程
情報と基準音程情報との差分値を音程比較結果とし、歌
唱音量情報と基準音量情報との差分値を音量比較結果と
する。また、歌唱音声のメルケプストラム係数CMと基
準音声のメルケプストラム係数CTとを用い、
【数4】 なる演算を行うことにより係数DISTspecの値を求
め、この値を声質比較結果として出力する。すなわち、
このDISTspecの値が大きい程、歌唱音声信号のメル
ケプストラム係数と基準音声信号のメルケプストラム係
数との差が大きい、すなわち、歌唱音声の声質と基準音
声の声質とが異なることを意味しており、DISTspec
の値が0である場合には、歌唱音声の声質と基準音声の
声質とがほぼ一致していることを意味している。
【0057】採点結果演算部50は、タイミング比較部
45から供給されるタイミング比較結果と、音程・音量
・声質比較部46から出力される音程比較結果、音量比
較結果および声質比較結果と、アライメント処理部48
から出力されるアライメント安定度情報とに基づいて歌
唱を採点し、各要素毎に採点結果を出力する。具体的に
は、例えば、数値「100」からタイミング比較結果に
応じた数値を減算して歌唱タイミングに関する点数と
し、数値「100」から音程比較結果に応じた数値を減
算して音程に関する点数とし、数値「100」から音量
比較結果に応じた数値を減算して音量に関する点数とす
る、といった具合である。採点結果表示部51は、採点
結果演算部50から供給される採点結果を表示する。
【0058】このように、本実施形態においては、歌唱
者の歌唱位置に対応した基準フレームにおける基準歌唱
音声の各音楽要素を、歌唱音声の各音楽要素と比較する
ようになっているため、例えば歌唱者による歌唱位置が
本来の歌唱位置とずれている場合、すなわち、歌唱タイ
ミングがずれている場合であっても、かかる歌唱タイミ
ングのずれの影響を考慮することなく、音程、音量およ
び声質の各音楽要素についてのみの評価を行うことがで
きる。
【0059】また、本実施形態においては、音程、音量
および歌唱タイミングだけでなく、声質も評価の対象と
しているので、歌唱者の声質と楽曲の歌手の声質との似
具合を評価することができる。
【0060】B:第2実施形態 B−1:第2実施形態の構成 次に、本発明の第2実施形態に係るカラオケ装置の構成
を説明する。上記第1実施形態においては、タイミング
比較部45において、歌唱音声の音程および音量とによ
って導出される歌唱タイミングと、基準音声の音程およ
び音量とによって導出される歌唱タイミングとを比較す
ることにより、歌唱タイミングの評価を行うようにし
た。これに対し、本実施形態においては、上述したアラ
イメント処理部48に歌唱タイミングを比較する機能を
持たせている。
【0061】図10は、本実施形態に係るカラオケ装置
1’の構成を示すブロック図である。なお、図10に示
す各部のうち、前掲図1に示したカラオケ装置1の各部
と共通する部分については同一の符号を付して、その説
明を省略する。図10に示すように、本実施形態に係る
カラオケ装置1’は、前掲図1に示したタイミング比較
部45を備えておらず、その代わりにアライメント処理
部48内のアライメント部485が歌唱タイミングの評
価を行う機能を有している。
【0062】B−2:第2実施形態の動作 続いて、本実施形態の動作について説明する。なお、本
実施形態においては、上述した第1実施形態の動作と比
較してアライメント処理部48内のアライメント部48
5の動作のみが異なるので、アライメント部485の動
作についてのみ説明し、その他の各部の説明は省略す
る。
【0063】アライメント部485は、上記第1実施形
態と同様の手順で歌唱位置情報を生成し、音程・音量・
声質比較部46に出力するとともに、アライメント安定
度情報を生成して採点結果演算部50に出力する。一
方、アライメント部485は、歌唱位置情報によって指
定される基準音声の基準フレームと、楽曲の演奏開始時
点からの経過時刻に対応する基準歌唱の基準フレームと
の時間的な差を算出し、この算出結果をタイミング比較
結果として採点結果演算部50に出力する。すなわち、
このタイミング比較結果には、本来歌唱すべき楽曲中の
位置と、実際に歌唱者が歌唱している楽曲中の位置との
時間的な差、すなわち、歌唱タイミングの一致度が反映
されることとなる。
【0064】採点結果演算部50は、上記第1実施形態
と同様の処理によって音程・音量・声質比較部46から
供給される音程比較情報、音量比較情報および声質比較
情報と、アライメント処理部48から供給されるタイミ
ング比較結果およびアライメント安定度情報とによって
各音楽要素毎の点数を演算する。この演算結果は、採点
結果表示部51によって表示される。
【0065】このように、本実施形態によれば、アライ
メント処理部48によるアライメント結果に基づいて、
歌唱タイミングの評価を行うようになっているので、上
述した第1実施形態に係るカラオケ装置1と比較して処
理が簡易になる。
【0066】C:変形例 以上この発明の一実施形態について説明したが、上記実
施形態はあくまでも例示であり、上記実施形態に対して
は、本発明の趣旨から逸脱しない範囲で様々な変形を加
えることができる。変形例としては、例えば以下のよう
なものが考えられる。
【0067】<変形例1>上記各実施形態においては、
音程・音量・声質比較部46によって音程の比較結果、
音量の比較結果および声質の比較結果を出力するように
したが、これに加えて、例えば歌唱中のビブラートの評
価を行うようにしてもよい。本変形例は、例えば以下の
構成とすることにより実現することができる。
【0068】まず、楽曲データ記憶部31に記憶された
各楽曲データ中の、楽曲中のビブラートをかけるべき区
間(以下、「ビブラート区間」という)の最初および最
後に対応する部分にビブラート区間であることを示すフ
ラグを挿入しておく。
【0069】一方、音程・音量・声質比較部46は、分
析部44から順次供給される歌唱音程情報を複数の歌唱
フレームにわたって記憶するメモリを具備している。以
下、このようにしてメモリに記憶された複数の音程から
なる列を音程列という。また、基準歌唱データベース4
7に記憶された基準歌唱情報中の各基準フレームのう
ち、上記ビブラート区間に対応する基準フレーム(通
常、ビブラート区間は複数フレームわたる)には、当該
基準フレームにおける基準音声のビブラートの強度(基
準ビブラート強度)およびビブラートの周波数(基準ビ
ブラート周波数)とが対応付けられている。
【0070】シーケンサ32は、楽曲データの再生中に
ビブラート区間の開始を示すフラグを読み出すと、歌唱
評価部4内の音程・音量・声質比較部46に対して、ビ
ブラート区間が開始したことを通知する。音程・音量・
声質比較部46は、この通知を受けると、それ以後に分
析部44から供給される歌唱音程情報を順次メモリに書
込む。一方、シーケンサ32は、楽曲データ中のビブラ
ート区間の終了を示すフラグを読み出すと、音程・音量
・声質比較部46に対し、ビブラート区間が終了したこ
とを通知する。音程・音量・声質比較部46は、この通
知を受けると、その時点までにメモリに記憶された歌唱
音程情報を読み出すとともに、各歌唱音程情報が示す音
程を時系列的に並べた波形を形成する。そして、音程・
音量・声質比較部46は、形成した波形に対してFFT
を施す。図11はこの結果得られた周波数スペクトルの
一例を示す図である。このような周波数スペクトルが得
られると、音程・音量・声質比較部46は、当該周波数
スペクトルのピークを検出し、当該ピークにおける強度
(歌唱ビブラート強度)とそのピークにおける周波数
(歌唱ビブラート周波数)とを検出する。
【0071】一方、音程・音量・声質比較部43は、基
準歌唱データベース47から、上記ビブラート区間に該
当する複数フレームに対応した基準ビブラート強度およ
び基準ビブラート周波数を読み出す。そして、上記歌唱
ビブラート強度と基準ビブラート強度、および歌唱ビブ
ラート周波数と基準ビブラート周波数とを比較し、この
比較結果をビブラート比較結果として採点結果演算部5
0に出力する。すなわち、この比較結果は、歌唱音声の
ビブラートと、基準音声のビブラートとの一致度を表し
ている。
【0072】このビブラート比較結果を受け取った採点
結果演算部50は、上述した各音楽要素(歌唱タイミン
グ、音程等)と同様の処理により、ビブラートの一致度
に関する採点を行い、採点結果を採点結果表示部51に
出力する。この結果、表示結果表示部51には、上述し
た歌唱タイミング等の採点結果とともに、ビブラートの
採点結果が表示される。本変形例によれば、歌唱者によ
る歌唱についてより詳細な採点を行うことができる。
【0073】<変形例2>上記各実施形態においては、
歌唱音声の声質と基準音声の声質との比較、すなわち各
スペクトル形状の比較を、スペクトルマッチング尺度の
一種であるメルケプストラム係数を用いて実施するよう
にしたが、この手法に代えて以下の手法を用いてもよ
い。
【0074】すなわち、例えば、歌唱音声のフォルマン
ト周波数と、基準音声のフォルマント周波数とを比較す
ることにより声質の一致度を検出するようにしてもよ
い。具体的には、歌唱評価部4内の分析部44は、FF
T部43から供給される歌唱音声の周波数スペクトルか
ら、1以上のフォルマントにおけるフォルマント周波数
を検出して音程・音量・声質比較部46に出力する。一
方、基準歌唱データベース47には、基準音声の周波数
スペクトルにおける1以上のフォルマントにおけるフォ
ルマント周波数を、各基準フレーム単位で記憶してお
く。そして、音程・音量・声質比較部46は、分析部4
4から出力されるフォルマント周波数と、基準歌唱デー
タベース47に記憶されたフォルマント周波数とを比較
して、この比較結果を採点結果演算部50に出力する。
これにより、この比較結果に、歌唱音声の声質と基準音
声の声質との一致度を反映させることができる。
【0075】なお、声質の比較方法は、以上示した方法
に限られるものではない。例えば、FFT、SMS、ケ
プストラム分析または線形予測分析等を用いて歌唱音声
のスペクトル包絡と基準音声のスペクトル包絡と比較
し、声質比較結果としてもよい。
【0076】<変形例3>上記各実施形態においては、
リアルタイムで採点結果の表示を行うようにしたが、以
下のようにしてもよい。すなわち、採点結果演算部50
は、各部から供給される各音楽要素毎の比較結果、タイ
ミング比較結果、音程比較結果等を順次メモリに記憶
し、楽曲の演奏が終了した際に、当該メモリに記憶され
た各音楽要素毎の比較結果の平均値を求め、この平均値
に基づいて各音楽要素毎の採点を行うようにしてもよ
い。
【0077】また、上記実施形態においては、採点結果
を文字として表示するようにしたが、採点結果を歌唱者
に報知する方法はこれに限られるものではない。例え
ば、採点結果を音声によって歌唱者に報知するようにし
てもよい。
【0078】<変形例4>上記各実施形態においては、
歌唱位置に対応した基準音声の基準フレームを楽曲の進
行に伴って逐次検出し、リアルタイムで採点を行うた
め、隠れマルコフモデルを用い、1パスビタビアルゴリ
ズムによって歌唱音声の状態遷移を決定するようにし
た。しかしながら、リアルタイムの採点を行う必要がな
い場合、例えば、楽曲の演奏終了後に採点結果を表示す
るような場合等には、歌唱音声と基準音声との時間的位
置関係を検出するための手法は、上記手法でなくてもよ
い。例えば、歌唱音声の歌唱位置と、基準音声のフレー
ムとを対応付けるために、DPマッチング手法(DT
W;Dynamic Time Warping)等を用いてもよい。
【0079】
【発明の効果】以上説明したように、本発明によれば、
歌唱者の歌唱位置に対応した基準フレームにおける基準
歌唱音声の各音楽要素を、歌唱音声の各音楽要素と比較
するようになっているため、歌唱タイミングがずれてい
る場合であっても、かかる歌唱タイミングのずれの影響
を考慮することなく、音程、音量および声質の各音楽要
素についてのみの評価を行うことができる。
【図面の簡単な説明】
【図1】 本発明の第1実施形態であるカラオケ装置の
全体構成を示すブロック図である。
【図2】 (a)は同カラオケ装置における基準歌唱情
報の内容を例示する図であり、(b)は音韻テーブルの
内容を例示する図であり、(c)は音素記述列の内容を
例示する図である。
【図3】 同カラオケ装置におけるアライメント処理部
の構成を示すブロック図である。
【図4】 同カラオケ装置における符号帳の内容を説明
するための図である。
【図5】 同カラオケ装置において用いられる音素につ
いて説明するための図である。
【図6】 同カラオケ装置における確率データの内容を
説明するための図である。
【図7】 隠れマルコフモデルについて説明するための
図である。
【図8】 同カラオケ装置におけるアライメントの具体
例を示す図である。
【図9】 メルスケール帯域フィルタ群の通過帯域を例
示する図である。
【図10】 本発明の第2実施形態であるカラオケ装置
の全体構成を示すブロック図である。
【図11】 第1および第2実施形態に係るカラオケ装
置のビブラート評価について説明するための図である。
【図12】 従来のカラオケ装置における歌唱評価方法
を説明するための図である。
【符号の説明】
1,1’……カラオケ装置、2……マイク(音声入力手
段)、3……カラオケ処理部、31……楽曲データ記憶
部、32……シーケンサ、33……音源、34……ミキ
サ、35……スピーカ(出力手段)、4……歌唱評価
部、41……音声信号切出部、42……分析窓生成部、
43……FFT部、44……分析部(分析手段)、45
……タイミング比較部(タイミング比較手段)、46…
…音程・音量・声質比較部(比較手段)、47……基準
歌唱データベース(記憶手段)、48……アライメント
処理部(アライメント手段)、481……特徴パラメー
タ分析部、482……ベクトル量子化部、483……音
素状態形成部、484……状態遷移決定部、485……
アライメント部、50……採点結果演算部(評価手
段)、51……採点結果表示部。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成12年2月8日(2000.2.8)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0038
【補正方法】変更
【補正内容】
【0038】ここで、1パスビタビアルゴリズムについ
て説明する。下記式におけるΨt(j)は、時刻tに対
応する歌唱フレームまでの観測を踏まえて算出した、1
つのパスを経由して得られる時刻tの歌唱フレームにお
けるベスト確率δt)を最大とする状態を選択す
る。すなわち、Ψt(j)に従って音素状態が遷移して
いく。初期演算としてδ1(i)=1とし、繰り返し演
算として
【数2】 を実行する。ここで、aijは状態iから状態jへの状態
遷移確率であり、Nは歌唱する曲の音韻数によって決ま
る状態i、jのとりうる最大の状態数である。また、
j(Ot)は特徴ベクトルの時刻tにおけるシンボル発生
確率である。各観測シンボルは、歌唱音声から抽出され
た特徴ベクトルであるから、歌唱者の発声態様によって
観測シンボルが異なり、遷移の態様も異なるようにな
る。
フロントページの続き (72)発明者 ペドロ ケイノ スペイン バルセロナ 08002 メルセ 12 (72)発明者 アレックス ロスコス スペイン バルセロナ 08002 メルセ 12 Fターム(参考) 2C001 AA00 AA17 BA07 BB00 BB04 BB05 BC00 BC09 CA00 CA07 CB01 CC02 5D108 BB06 BF05 BF16 BG06

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 基準音声を時間軸上で分割した複数の基
    準フレーム毎に当該基準音声の音楽要素を記憶する記憶
    手段と、 歌唱者の歌唱音声を歌唱フレームに順次分割し、分割に
    より得られた歌唱フレームに対応した基準フレームを探
    索するアライメント手段と、 前記分割により得られた歌唱フレームの音楽要素を抽出
    する分析手段と、 前記分析手段によって抽出された歌唱フレームの音楽要
    素と、前記アライメント手段によって探索された基準フ
    レームの音楽要素とを比較する比較手段と、 前記比較手段による比較結果に基づいて歌唱を評価する
    評価手段とを具備することを特徴とする歌唱評価装置。
  2. 【請求項2】 前記記憶手段に記憶された各基準フレー
    ムの音楽要素の時間的変化と、前記分析手段によって抽
    出された歌唱フレームの音楽要素の時間的変化とを比較
    することにより、歌唱タイミングの一致度を検出するタ
    イミング比較手段を具備し、 前記評価手段は、前記比較手段およびタイミング比較手
    段による比較結果に基づいて歌唱を評価することを特徴
    とする請求項1に記載の歌唱評価装置。
  3. 【請求項3】 前記アライメント手段は、 前記歌唱フレームに対応した基準フレームを探索すると
    ともに、探索された基準フレームと、本来歌唱すべき基
    準フレームとの時間的な差に基づいて歌唱音声と基準音
    声の歌唱タイミングの一致度を検出し、 前記評価手段は、前記比較手段による比較結果、および
    前記アライメント手段によって検出された歌唱タイミン
    グの一致度に基づいて歌唱を評価することを特徴とする
    請求項1に記載の歌唱評価装置。
  4. 【請求項4】 前記音楽要素として音程を含むことを特
    徴とする請求項1〜3のいずれか1の請求項に記載の歌
    唱評価装置。
  5. 【請求項5】 前記音楽要素として音量を含むことを特
    徴とする請求項1〜4のいずれか1の請求項に記載の歌
    唱評価装置。
  6. 【請求項6】 前記音楽要素として声質を含むことを特
    徴とする請求項1〜5のいずれか1の請求項に記載の歌
    唱評価装置。
  7. 【請求項7】 前記比較手段は、スペクトルマッチング
    尺度を用いて前記基準音声の声質と歌唱音声の声質とを
    比較することを特徴とする請求項6に記載の歌唱評価装
    置。
  8. 【請求項8】 前記比較手段は、前記基準音声の1以上
    のフォルマント周波数と歌唱音声の1以上のフォルマン
    ト周波数とを比較することを特徴とする請求項6に記載
    の歌唱評価装置。
  9. 【請求項9】 前記アライメント手段は、歌唱音声の音
    素と基準音声の音素とを対比することにより各歌唱フレ
    ームに対応した基準フレームを探索することを特徴とす
    る請求項1〜8のいずれか1の請求項に記載の歌唱評価
    装置。
  10. 【請求項10】 前記アライメント手段は、 楽曲の音素列を記憶する音素列記憶手段と、 歌唱音声の代表的なパラメータを特徴ベクトルとして所
    定数のシンボルにクラスタ化した符号帳と、各音素毎の
    状態遷移確率および前記各シンボルの観測確率とを記憶
    する音素情報記憶手段と、 前記分割により得られた歌唱フレームを特徴パラメータ
    分析し、前記音素情報記憶手段に記憶された符号帳に基
    づいて当該歌唱フレームの特徴パラメータをシンボル量
    子化して当該歌唱フレームの観測シンボルとする量子化
    手段と、 前記音素情報記憶手段に記憶された状態遷移確率および
    観測確率に基づいて、前記音素列記憶手段に記憶された
    音素列の各状態を有限状態ネットワーク上で隠れマルコ
    フモデルによって形成する状態形成手段と、 前記量子化手段によって量子化された観測シンボルと、
    前記状態形成手段によって形成された前記隠れマルコフ
    モデルに従って、1パスビタビアルゴリズムによって状
    態遷移を決定する状態遷移決定手段と、 決定した前記歌唱音声の状態遷移に基づいて、各歌唱フ
    レームに対応した基準フレームを探索する探索手段とを
    具備することを特徴とする請求項1〜9のいずれか1の
    請求項に記載の歌唱評価装置。
  11. 【請求項11】 請求項1〜10のいずれか1の請求項
    に記載の歌唱評価装置と、 前記歌唱音声を入力するための音声入力手段と、 楽曲データに従って楽音信号を生成して出力する音源
    と、 前記歌唱音声および楽音信号を音として出力する出力手
    段とを具備することを特徴とするカラオケ装置。
JP30027499A 1999-10-21 1999-10-21 歌唱評価装置およびカラオケ装置 Expired - Fee Related JP4205824B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30027499A JP4205824B2 (ja) 1999-10-21 1999-10-21 歌唱評価装置およびカラオケ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30027499A JP4205824B2 (ja) 1999-10-21 1999-10-21 歌唱評価装置およびカラオケ装置

Publications (2)

Publication Number Publication Date
JP2001117568A true JP2001117568A (ja) 2001-04-27
JP4205824B2 JP4205824B2 (ja) 2009-01-07

Family

ID=42169511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30027499A Expired - Fee Related JP4205824B2 (ja) 1999-10-21 1999-10-21 歌唱評価装置およびカラオケ装置

Country Status (1)

Country Link
JP (1) JP4205824B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316077A (ja) * 2004-04-28 2005-11-10 Techno Face:Kk 情報処理装置およびプログラム
JP2006243230A (ja) * 2005-03-02 2006-09-14 Advanced Telecommunication Research Institute International 歌声評定装置およびプログラム
WO2007088820A1 (ja) * 2006-01-31 2007-08-09 Yamaha Corporation カラオケ装置及び音声処理方法
JP2007527022A (ja) * 2003-07-09 2007-09-20 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド タイミング・オフセット許容型カラオケゲーム
WO2008004641A1 (fr) * 2006-07-05 2008-01-10 Yamaha Corporation Dispositif d'entraînement au chant
JP2008020677A (ja) * 2006-07-13 2008-01-31 Casio Comput Co Ltd 歌唱採点装置および歌唱採点プログラム
JP2008139426A (ja) * 2006-11-30 2008-06-19 Yamaha Corp 評価用データのデータ構造、カラオケ装置及び記録媒体
JP2008225116A (ja) * 2007-03-13 2008-09-25 Yamaha Corp 評価装置及びカラオケ装置
WO2008117628A1 (ja) * 2007-03-27 2008-10-02 Konami Digital Entertainment Co., Ltd. ゲーム装置、ゲーム処理方法、情報記録媒体、ならびに、プログラム
JP2008268369A (ja) * 2007-04-17 2008-11-06 Yamaha Corp ビブラート検出装置、ビブラート評価装置、ビブラート検出方法、ビブラート評価方法およびプログラム
JP2010191463A (ja) * 2010-04-27 2010-09-02 Casio Computer Co Ltd 歌唱採点装置および歌唱採点プログラム
US8013231B2 (en) 2005-05-26 2011-09-06 Yamaha Corporation Sound signal expression mode determining apparatus method and program
CN101022007B (zh) * 2006-02-14 2011-09-14 精工电子有限公司 音乐练习支持用具
JP2011203761A (ja) * 2011-07-12 2011-10-13 Yamaha Corp 音声合成装置および音声合成プログラム
JP2012098749A (ja) * 2012-01-18 2012-05-24 Casio Comput Co Ltd 歌唱採点装置および歌唱採点プログラム
JP2015184448A (ja) * 2014-03-24 2015-10-22 ブラザー工業株式会社 プログラム,情報処理装置,及び評価方法
CN113782059A (zh) * 2021-09-24 2021-12-10 苏州声通信息科技有限公司 乐器音频评测方法及装置、非瞬时性存储介质
CN114093386A (zh) * 2021-11-10 2022-02-25 厦门大学 一种面向教育的多维度歌唱评价方法
CN114678039A (zh) * 2022-04-13 2022-06-28 厦门大学 一种基于深度学习的歌唱评价方法

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011098205A (ja) * 2003-07-09 2011-05-19 Sony Computer Entertainment Europe Ltd タイミング・オフセット許容型カラオケゲーム
JP2007527022A (ja) * 2003-07-09 2007-09-20 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド タイミング・オフセット許容型カラオケゲーム
JP4673303B2 (ja) * 2003-07-09 2011-04-20 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド タイミング・オフセット許容型カラオケゲーム
JP2005316077A (ja) * 2004-04-28 2005-11-10 Techno Face:Kk 情報処理装置およびプログラム
JP4612329B2 (ja) * 2004-04-28 2011-01-12 株式会社テクノフェイス 情報処理装置およびプログラム
JP4524634B2 (ja) * 2005-03-02 2010-08-18 株式会社国際電気通信基礎技術研究所 歌声評定装置およびプログラム
JP2006243230A (ja) * 2005-03-02 2006-09-14 Advanced Telecommunication Research Institute International 歌声評定装置およびプログラム
US8013231B2 (en) 2005-05-26 2011-09-06 Yamaha Corporation Sound signal expression mode determining apparatus method and program
JP2007206183A (ja) * 2006-01-31 2007-08-16 Yamaha Corp カラオケ装置
WO2007088820A1 (ja) * 2006-01-31 2007-08-09 Yamaha Corporation カラオケ装置及び音声処理方法
CN101022007B (zh) * 2006-02-14 2011-09-14 精工电子有限公司 音乐练习支持用具
US8027631B2 (en) 2006-07-05 2011-09-27 Yamaha Corporation Song practice support device
WO2008004641A1 (fr) * 2006-07-05 2008-01-10 Yamaha Corporation Dispositif d'entraînement au chant
KR100949872B1 (ko) 2006-07-05 2010-03-25 야마하 가부시키가이샤 악곡 연습 지원 장치, 악곡 연습 지원 장치의 제어 방법, 악곡 연습 지원 장치를 제어하는 제어 방법을 컴퓨터로 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
JP2008020677A (ja) * 2006-07-13 2008-01-31 Casio Comput Co Ltd 歌唱採点装置および歌唱採点プログラム
JP2008139426A (ja) * 2006-11-30 2008-06-19 Yamaha Corp 評価用データのデータ構造、カラオケ装置及び記録媒体
JP2008225116A (ja) * 2007-03-13 2008-09-25 Yamaha Corp 評価装置及びカラオケ装置
CN101641139B (zh) * 2007-03-27 2011-08-31 科乐美数码娱乐株式会社 游戏装置、游戏处理方法、信息记录介质、以及程序
KR101056406B1 (ko) * 2007-03-27 2011-08-11 가부시키가이샤 코나미 데지타루 엔타테인멘토 게임장치, 게임처리방법 및 정보기록매체
JP2008237495A (ja) * 2007-03-27 2008-10-09 Konami Digital Entertainment:Kk ゲーム装置、ゲーム処理方法、ならびに、プログラム
WO2008117628A1 (ja) * 2007-03-27 2008-10-02 Konami Digital Entertainment Co., Ltd. ゲーム装置、ゲーム処理方法、情報記録媒体、ならびに、プログラム
JP4493678B2 (ja) * 2007-03-27 2010-06-30 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2008268369A (ja) * 2007-04-17 2008-11-06 Yamaha Corp ビブラート検出装置、ビブラート評価装置、ビブラート検出方法、ビブラート評価方法およびプログラム
JP2010191463A (ja) * 2010-04-27 2010-09-02 Casio Computer Co Ltd 歌唱採点装置および歌唱採点プログラム
JP2011203761A (ja) * 2011-07-12 2011-10-13 Yamaha Corp 音声合成装置および音声合成プログラム
JP2012098749A (ja) * 2012-01-18 2012-05-24 Casio Comput Co Ltd 歌唱採点装置および歌唱採点プログラム
JP2015184448A (ja) * 2014-03-24 2015-10-22 ブラザー工業株式会社 プログラム,情報処理装置,及び評価方法
CN113782059A (zh) * 2021-09-24 2021-12-10 苏州声通信息科技有限公司 乐器音频评测方法及装置、非瞬时性存储介质
CN113782059B (zh) * 2021-09-24 2024-03-22 苏州声通信息科技有限公司 乐器音频评测方法及装置、非瞬时性存储介质
CN114093386A (zh) * 2021-11-10 2022-02-25 厦门大学 一种面向教育的多维度歌唱评价方法
CN114678039A (zh) * 2022-04-13 2022-06-28 厦门大学 一种基于深度学习的歌唱评价方法

Also Published As

Publication number Publication date
JP4205824B2 (ja) 2009-01-07

Similar Documents

Publication Publication Date Title
Mesaros et al. Automatic recognition of lyrics in singing
JP4205824B2 (ja) 歌唱評価装置およびカラオケ装置
Muller et al. Signal processing for music analysis
Durrieu et al. A musically motivated mid-level representation for pitch estimation and musical audio source separation
Eronen Automatic musical instrument recognition
Soulez et al. Improving polyphonic and poly-instrumental music to score alignment
Loscos et al. Low-delay singing voice alignment to text
CN112331222A (zh) 一种转换歌曲音色的方法、系统、设备及存储介质
Dzhambazov et al. Modeling of phoneme durations for alignment between polyphonic audio and lyrics
Mesaros Singing voice identification and lyrics transcription for music information retrieval invited paper
Nakano et al. A drum pattern retrieval method by voice percussion
JP2001117582A (ja) 音声処理装置およびカラオケ装置
Wada et al. Sequential generation of singing f0 contours from musical note sequences based on wavenet
JP6056394B2 (ja) 音声処理装置
JP3050832B2 (ja) 自然発話音声波形信号接続型音声合成装置
JP6098422B2 (ja) 情報処理装置、及びプログラム
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
JP5131904B2 (ja) 音楽音響信号と歌詞の時間的対応付けを自動で行うシステム及び方法
JP4364977B2 (ja) 音声変換装置及び方法
Ikemiya et al. Transcribing vocal expression from polyphonic music
Shenoy et al. Singing voice detection for karaoke application
Mesaros Singing voice recognition for music information retrieval
Kirkov et al. Formant analysis of traditional bulgarian singing from rhodope region
Saeed et al. A novel multi-speakers Urdu singing voices synthesizer using Wasserstein Generative Adversarial Network
Mesaros et al. Adaptation of a speech recognizer for singing voice

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081014

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081017

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees