JP5958041B2 - 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置 - Google Patents

表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置 Download PDF

Info

Publication number
JP5958041B2
JP5958041B2 JP2012094853A JP2012094853A JP5958041B2 JP 5958041 B2 JP5958041 B2 JP 5958041B2 JP 2012094853 A JP2012094853 A JP 2012094853A JP 2012094853 A JP2012094853 A JP 2012094853A JP 5958041 B2 JP5958041 B2 JP 5958041B2
Authority
JP
Japan
Prior art keywords
performance
facial expression
data
pitch
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012094853A
Other languages
English (en)
Other versions
JP2013222140A5 (ja
JP2013222140A (ja
Inventor
松本 秀一
秀一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2012094853A priority Critical patent/JP5958041B2/ja
Priority to PCT/JP2013/061488 priority patent/WO2013157602A1/ja
Priority to KR1020147025532A priority patent/KR101666535B1/ko
Priority to TW102113839A priority patent/TWI497484B/zh
Priority to CN201380015347.7A priority patent/CN104170006B/zh
Publication of JP2013222140A publication Critical patent/JP2013222140A/ja
Publication of JP2013222140A5 publication Critical patent/JP2013222140A5/ja
Application granted granted Critical
Publication of JP5958041B2 publication Critical patent/JP5958041B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Auxiliary Devices For Music (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

この発明は、楽曲演奏の巧拙を評価する技術に関する。
例えば、歌唱者の歌唱演奏の巧拙を採点する採点機能を備えた歌唱用のカラオケ装置(以下、特に断らない限り、単に「カラオケ装置」という)に関わる技術が各種提案されている。この種の技術を開示した文献として、特許文献1がある。同文献に開示されたカラオケ装置は、利用者の歌唱音から抽出したピッチとガイドメロディとしてあらかじめ準備されたデータから抽出したピッチとの差分を歌唱曲のノート毎に算出し、この差分に基づいて基本得点を算出する。また、このカラオケ装置は、ビブラートやしゃくりなどの技法を駆使した歌唱が行われた場合にはその歌唱が行われた回数に応じたボーナスポイントを算出する。このカラオケ装置は、基本得点とボーナスポイントの合計点を最終的な評価結果として利用者に提示する。この技術によると、ビブラートやしゃくりなどといった難度の高い技法を駆使した歌唱を評価結果に反映させることができる。
また、歌唱音を示す波形から、ビブラートやしゃくりなどの技法を用いた歌唱が行われたことを検出する技術を開示した文献として、例えば特許文献2乃至6がある。
特開2005−107334号公報 特開2005−107330号公報 特開2005−107087号公報 特開2008−268370号公報 特開2005−107336号公報 特開2008−225115号公報
しかしながら、特許文献1の技術の場合、本来であればビブラートやしゃくりなどの技法を駆使した歌唱を行うことが好ましくない歌唱箇所についてそのような歌唱が行われた場合であっても、ボーナスポイントが加算されてしまう。このため、評価結果として提示される得点が人間の感性によるものと乖離してしまうという問題があった。
本発明は、このような課題に鑑みてなされたものであり、カラオケ歌唱等の楽曲演奏の評価において、人間の感性によるものにより近い評価結果を提示できるようにすることを目的とする。
上記課題を解決するため、本発明は、任意数の任意の演奏者による楽曲の演奏音の各々に関し、当該演奏音のピッチまたは音量を示すピッチ音量データを取得するピッチ音量データ取得手段と、前記ピッチ音量データ取得手段により取得されたピッチ音量データにより示されるピッチまたは音量の少なくとも一方の特性が、前記楽曲における任意のタイミングにおいて予め定められた1以上の表情演奏の特性のうちの一の特性を示す場合、当該表情演奏と、前記楽曲に含まれるノートまたはノート群の発音開始時刻を基準とする当該タイミングとの対を示す表情演奏出現データを生成する表情演奏出現データ生成手段と、前記表情演奏出現データ生成手段により生成された任意数の表情演奏出現データに基づき、前記楽曲に含まれるノートまたはノート群の各々に関し、当該ノートまたはノート群の発音開始時刻を基準とする時間軸上のいずれのタイミングでいずれの表情演奏がいずれの頻度で出現しているかを特定し、当該特定した情報を用いて前記発音開始時刻を基準とする前記時間軸上の各時刻と当該時刻においてそれぞれ当該楽曲の演奏中に行われるべき表情演奏が行なわれた場合の評価点との各対で示す表情演奏リファレンスデータを生成する表情演奏リファレンスデータ生成手段と、を備える表情演奏リファレンスデータ生成装置を提供する。
また、本発明は、楽曲に含まれるノートまたはノート群の発音開始時刻を基準とする時間軸上において当該発音開始時刻から当該楽曲の演奏中に行われるべき表情演奏が実際に行なわれる時刻までの時間差と当該時間差に応じて動的に変化する評価点との関係を当該表情演奏ごとに示す表情演奏リファレンスデータを取得する表情演奏リファレンスデータ取得手段と、演奏者による前記楽曲の演奏音から当該演奏音のピッチまたは音量を示すピッチ音量データを生成するピッチ音量データ生成手段と、前記ピッチ音量データ生成手段により生成された前記ピッチ音量データにより示されるピッチまたは音量の少なくとも一方の特性が、前記楽曲における前記表情演奏リファレンスデータにより示される所定時間範囲内において前記表情演奏リファレンスデータにより行われるべきであるとされる表情演奏の特性を示す場合、当該表情演奏の出現時刻に応じた前記評価点を用いて評価を行う演奏評価手段とを備える演奏評価装置を提供する。
また、本発明は、上記の演奏評価装置と、楽曲の伴奏を指示する伴奏データを取得する伴奏データ取得手段と、前記伴奏データの指示に従い伴奏の楽音を示す音信号を出力する音信号出力手段とを備えるカラオケ装置を提供する。
また、本発明は、任意数の任意の演奏者による楽曲の演奏音の各々に関し、前記楽曲に含まれるノートまたはノート群の発音開始時刻を基準とする一のタイミングにおいて一の表情演奏が出現したことを示す表情演奏出現データを取得する表情演奏出現データ取得手段と、前記表情演奏出現データ取得手段により取得された任意数の表情演奏出現データに基づき、前記楽曲に含まれるノートまたはノート群の各々に関し、当該ノートまたはノート群の発音開始時刻を基準とする時間軸上のいずれのタイミングでいずれの表情演奏がいずれの頻度で出現しているかを特定し、当該特定した情報を用いて前記発音開始時刻を基準とする前記時間軸上の各時刻と当該時刻においてそれぞれ当該楽曲の演奏中に行われるべき表情演奏が行なわれた場合の評価点との各対で示す表情演奏リファレンスデータを生成する表情演奏リファレンスデータ生成手段と、前記表情演奏リファレンスデータ生成手段により生成された表情演奏リファレンスデータを演奏評価装置に送信する送信手段とを備える装置を提供する。
本発明によれば、個々の楽曲の演奏において、望ましいタイミングで望ましい表情演奏が行われると、演奏者に対し高い評価を与える演奏評価装置が実現される。その結果、演奏者により表情演奏が行われた場合、人間の感性との乖離の少ない評価がなされる。
この発明の一実施形態である歌唱評価システムの構成を示す図である。 タメの歌唱音の波形を示す図である。 ビブラートの歌唱音の波形を示す図である。 コブシの歌唱音の波形を示す図である。 シャクリの歌唱音の波形を示す図である。 フォールの歌唱音の波形を示す図である。 この発明の一実施形態である歌唱評価システムの動作を示すフローチャートである。 タメについて生成した統計データの一例である。 ビブラートについて生成した統計データの一例である。 コブシについて生成した統計データの一例である。 シャクリについて生成した統計データの一例である。 フォールについて生成した統計データの一例である。
以下、図面を参照し、この発明の実施の形態を説明する。
図1は、本発明の一実施形態である歌唱評価システム1の構成を示す図である。この歌唱評価システム1は、カラオケ装置10−m(m=1、2…M:Mはカラオケ装置の総数)とサーバ装置30とを有する。カラオケ装置10−mは、各カラオケ店に一台または複数台ずつ設置される。サーバ装置30は、システム運営センタ内に設置される。カラオケ装置10−mとサーバ装置30はネットワーク90に接続され、互いに各種データの送受
信が可能である。
カラオケ装置10−mは、利用者の歌唱を支える伴奏曲の放音と歌詞の表示とを通じた歌唱演出と、利用者の歌唱の巧拙の評価とを行う装置である。ここで、カラオケ装置10−mは、歌唱の巧拙の評価では、利用者の歌唱音のピッチ及び音量の良否を評価対象とする評価と、以下に示す5種類の表情歌唱の良否を評価対象とする評価とを行い、2つの評価の評価結果である得点をコメントメッセージとともに利用者に提示する。
a1.タメ
これは、歌唱曲内の特定の音の歌いだしを故意に遅らせる表情歌唱である。図2に示すように、この歌唱が行われた場合、歌唱音の前の音のものから当該音のものへと音のピッチが変化する時刻が楽譜(模範的な歌唱)における両音に対応する2つのノート(音符)の遷移時刻よりも僅かな時間だけ遅れる。
b2.ビブラート
これは、歌唱曲内の特定の音を見かけのピッチを保ちつつ細かく震わせる表情歌唱である。図3に示すように、この歌唱が行われた場合、歌唱音のピッチは楽譜におけるその音に対応するノートの高さを跨いで周期的に変化する。
c1.コブシ
これは、歌唱曲内の特定の音の声色を発音の途中でうなるように変化させる表情歌唱である。図4に示すように、この歌唱が行われた場合、歌唱音のピッチは楽譜におけるその音に対応するノートの途中で一過的に上昇する。
d1.シャクリ
これは、歌唱曲内の特定の音を本来の高さよりも低い声で発音してから本来の高さに近づけていく歌唱手法である。図5に示すように、この歌唱が行われた場合、歌唱音の発音開始時刻におけるピッチは楽譜におけるその音に対応するノートの高さよりも低くなる。そして、この歌唱音のピッチは発音開始後に緩やかに上昇してノートの高さとほぼ同じ高さに達する。
e1.フォール
これは、歌唱曲内の特定の音を本来の高さよりも高い声で発音してから本来の高さに近づけていく歌唱手法である。図6に示すように、この歌唱が行われた場合、歌唱音の発音始時刻におけるピッチは楽譜におけるその音に対応するノートの高さよりも高くなる。そして、この歌唱音のピッチは発音開始後に緩やかに下降してノートの高さとほぼ同じ高さに達する。
図1に戻り、歌唱評価システム1全体の説明を続ける。カラオケ装置10−mは、音源11、スピーカ12、マイクロホン13、表示部14、通信インターフェース15、ボーカルアダプタ16、CPU17、RAM18、ROM19、ハードディスク20、シーケンサ21を有する。音源11は、MIDI(Musical Instrument Digital Interface)の各種メッセージに従った音信号SAを出力する。スピーカ12は、与えられた信号を音として放音する。マイクロホン13は、音を収音して収音信号SMを出力する。表示部14は、画像信号SIに応じた画像を表示する。通信インターフェース15は、ネットワーク90に接続された装置との間でデータを送受信する。
ボーカルアダプタ16は、音信号SMのピッチ及び音量を測定し、それらの時間的な変化を示すピッチ音量データを生成するピッチ音量データ生成手段としての役割を果たす。具体的には、ボーカルアダプタ16は、マイクロホン13から与えられた音信号SMのピッチを時間TS(例えば、TS=30ミリ秒とする)毎に検出し、この検出結果を信号SPとして出力する。また、ボーカルアダプタ16は、マイクロホン13から与えられた音信号SMの音量を時間TS毎に検出し、この検出結果を信号SLとして出力する。
CPU17は、RAM18をワークエリアとして利用しつつROM19やハードディス
ク20に記憶されたプログラムを実行する。このCPU17の動作の詳細は後述する。ROM19には、IPL(Initial Program Loader)などが記憶されている。ハードディスク20には、各種歌唱曲の曲データMD−n(n=1〜N)(Nは、歌唱曲の種類の総数)、リファレンスデータベースDBRK、及び歌唱評価プログラムVPGが記憶されている。各歌唱曲の曲データMD−nは、歌唱曲の伴奏内容、歌唱曲の歌詞、及び歌唱曲の模範的な歌唱内容をSMF(Standard MIDI File)形式で記録したデータである。
具体的に説明すると、図1の枠内に示すように、曲データMD−nは、ヘッダHD、伴奏トラックTRAC、歌詞トラックTRLY、模範歌唱リファレンストラックTRNRを有している。ヘッダHDには、曲番号、曲名、ジャンル、演奏時間、タイムベース(4分音符1つ分の時間に相当するティック数)などの情報が記述されている。
伴奏トラックTRACには、歌唱曲の楽譜の伴奏パートにおける各ノートNT(i)(iは、楽譜の該当パートの先頭のノートNT(1)から数えた順番を示す)の音の発音を指示するイベントEV(i)ONとその消音を指示するイベントEV(i)OFF、及び相前後するイベントの実行時間差(ティック数)を示すデルタタイムDTが時系列順に記述されている。
歌詞トラックTRLYには、歌唱曲の歌詞を示す各データDLYと、各歌詞の表示時刻(より具体的には、各歌詞の表示時刻と各々の前の歌詞の表示時刻との間の時間差(ティック数))を示すデルタタイムDTが時系列順に記述されている。
模範歌唱リファレンストラックTRNRには、歌唱曲の楽譜の歌唱パートにおける各ノートNT(i)の音の発音を指示するイベントEV(i)ONとその消音を指示するイベントEV(i)OFF、及び相前後するイベントの実行時間差(ティック数)を示すデルタタイムDTが時系列順に記述されている。
リファレンスデータベースDBRKには、5種類の表情歌唱リファレンスデータDDa1、DDa2、DDa3、DDa4、DDa5が記憶されている。表情歌唱リファレンスデータDDa1は、歌唱曲に含まれるノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおいてタメによる歌唱が行われた場合の評価点VSR(t)の各対を示すデータである。表情歌唱リファレンスデータDDa2は、歌唱曲に含まれるノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおいてビブラートによる歌唱が行われた場合の評価点VSR(t)の各対を示すデータである。表情歌唱リファレンスデータDDa3は、歌唱曲に含まれるノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおいてコブシによる歌唱が行われた場合の評価点VSR(t)の各対を示すデータである。表情歌唱リファレンスデータDDa4は、歌唱曲に含まれるノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおいてシャクリによる歌唱が行われた場合の評価点VSR(t)の各対を示すデータである。表情歌唱リファレンスデータDDa5は、歌唱曲に含まれるノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおいてフォールによる歌唱が行われた場合の評価点VSR(t)の各対を示すデータである。以下では、5種類の表情歌唱リファレンスデータDDa1、DDa2、DDa3、DDa4、DDa5を区別しない場合は表情歌唱リファレンスデータDDと記す。
歌唱評価プログラムVPGは、次の4つの機能を有する。
a2.標準評価機能
これは、ボーカルアダプタ16の出力信号SL及びSPが示すピッチ及び音量と模範歌唱リファレンストラックTRNR内の各イベントEV(i)ON及びEV(i)OFFにより決ま
る各ノートNT(i)の模範ピッチPCHREF及び模範音量LVREFとを比較し、この比較の結果に基づいて歌唱の巧拙を評価する機能である。
b2.表情歌唱評価機能
これは、ボーカルアダプタ16の出力信号SPが示すピッチ波形に表情歌唱の特徴波形が出現する度に、表情歌唱の対象となったノートNT(i)の発音開始時刻を基準点tBSとする時間軸上における表情歌唱の特徴波形の出現時刻を求め、この出現時刻と対応する評価点VSR(t)をリファレンスデータベースDBRK内における該当の表情歌唱リファレンスデータDDの各評価点VSR(t)の中から選択し、この評価点VSR(t)に基づいて歌唱の巧拙を評価する機能である。
c2.評価結果提示機能
これは、a2による評価の評価結果及びb2による評価の評価結果から得点を算出し、この得点をコメントメッセージとともに表示部14に表示させる機能である。
シーケンサ21は、リモートコントローラ(不図示)による歌唱曲の歌唱開始操作を契機として該当曲の曲データMD−nがハードディスク20からRAM18に転送された場合に、その曲データMD−n内のイベントEV(i)ON、EV(i)OFF、およびデータDLYを装置各部に供給する。具体的には、シーケンサ21は、RAM18に曲データMD−nが記憶されると、この曲データMD−nのヘッダHDに記述されたタイムベースとリモートコントローラ(不図示)により指定されたテンポとに基づいて1ティックの時間長を決定し、この時間長の経過に合わせてティックをカウントしつつ次の3つの処理を行う。
第1の処理では、シーケンサ21は、ティックのカウント数が伴奏トラックTRAC内のデルタタイムDTと一致する度にそれに後続するイベントEV(i)ON(またはEV(i)OFF)を読み出して音源11に供給する。音源11は、シーケンサ21からイベントEV(i)ONが供給されるとそのイベントEV(i)ONが指定する音信号SAをスピーカ12に供給し、シーケンサ21からイベントEV(i)OFFが供給されるとスピーカ12への音信号SAの供給を止める。
第2の処理では、シーケンサ21は、ティックのカウント数が歌詞トラックTRLY内のデルタタイムDTと一致する度にそれに後続するデータDLYを読み出して表示部14に供給する。表示部14は、シーケンサ21からデータDLYが供給されるとそのデータDLYを歌詞テロップの画像に変換し、この画像をディスプレイ(不図示)に表示させる。
シーケンサ21がこの第1および第2の処理を行うことにより、スピーカ12からの伴奏音の放音とディスプレイへの歌詞の表示とが進行する。利用者は、スピーカ12から放音される伴奏音を聴きつつディスプレイに表示された歌詞をマイクロホン13に向かって歌唱する。利用者がマイクロホン13に向かって歌唱している間、マイクロホン13は利用者の歌唱音の収音信号SMを出力し、ボーカルアダプタ16はこの信号SMのピッチ及び音量を示す信号SP及びSLを出力する。
第3の処理では、シーケンサ21は、ティックのカウント数が模範歌唱リファレンストラックTRNR内のデルタタイムDTと一致する度にそれに後続するイベントEV(i)ON(またはEV(i)OFF)を読み出してCPU17に供給する。CPU17は、シーケンサ21から供給されるイベントEV(i)ON及びEV(i)OFFとボーカルアダプタ16の出力信号SP及びSLとを用いて利用者の歌唱の巧拙を評価する。詳しくは、後述する。
サーバ装置30は、カラオケ店舗におけるサービスの提供を支援する役割を果たす装置である。サーバ装置30は、通信インターフェース35、CPU37、RAM38、ROM39、ハードディスク40を有する。通信インターフェース35は、ネットワーク90
に接続された装置との間でデータを送受信する。CPU37は、RAM38をワークエリアとして利用しつつ、ROM39やハードディスク40に記憶された各種プログラムを実行する。このCPU37の動作の詳細は後述する。ROM39にはIPLなどが記憶されている。
ハードディスク40には、歌唱サンプルデータベースDBS、リファレンスデータベースDBRS、および歌唱分析プログラムAPGが記憶されている。歌唱サンプルデータベースDBSには、各々が1つの歌唱曲と対応する歌唱サンプルデータDS群が個別に記憶される。歌唱サンプルデータDSは、一定水準以上の歌唱力を有する者が歌唱曲を歌唱したときの歌唱音のピッチ波形及び音量波形を記録したデータである。リファレンスデータベースDBRSには、各カラオケ装置10−mのリファレンスデータベースDBRK内に格納されるべき最新の表情歌唱リファレンスデータDDが記憶される。
歌唱分析プログラムAPGは、次の3つの機能を有する。
a3.蓄積機能
これは、カラオケ装置10−mから各歌唱曲の歌唱サンプルデータDSを1曲分ずつ取得し、取得した歌唱サンプルデータDSを歌唱サンプルデータベースDBSに蓄積する機能である。
b3.書き換え機能
これは、歌唱サンプルデータベースDBSに蓄積された歌唱サンプルデータDSの各々について、当該歌唱サンプルデータDSが示す波形内から表情歌唱の特徴波形を探索し、この探索結果から表情歌唱の対象となったノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおける表情歌唱の出現数Numとの関係を示す統計データを生成し、リファレンスデータベースDBR内の表情歌唱リファレンスデータDDにおける各時刻tと対応する評価点VSR(t)を統計データの内容に基づいて書き換える機能である。
c3.送信機能
これは、書き換え機能により書き換えた表情歌唱リファレンスデータDDをカラオケ装置10−mからの要求に応じてカラオケ装置10−mに送信する機能である。
次に、本実施形態の動作を説明する。図7は、本実施形態の動作を示すフローチャートである。図7において、カラオケ装置10−mのCPU17は、歌唱曲の歌唱開始操作が行われた場合(S100:Yes)、シーケンサ21に制御信号SOを供給してシーケンサ21に処理(上述した第1〜第3の処理)を開始させる(S120)。CPU17は、シーケンサ21による処理が始まると、標準歌唱評価処理(S130)と表情歌唱評価処理(S140)の2つの処理を行う。この2つの処理の詳細は次の通りである。
a4.標準歌唱評価処理(S130)
この処理では、CPU17は、シーケンサ21からイベントEV(i)ONが供給されてから次のイベントEV(i)OFFが供給されるまでの時間をi番目のノートNT(i)に相当する音の発音時間TNT(i)とする。CPU17は、発音時間TNT(i)の間のボーカルアダプタ16の出力信号SPが示すピッチとイベントEV(i)ONのノートナンバを変換した模範ピッチPCHREFとの差PCHDEF、及びその間の信号SPが示す音量とイベントEV(i)ONのベロシティを変換した模範音量LVREFとの差LVDEFを求め、この差PCHDEF及び差LVDEFが所定範囲に収まる場合にノートNT(i)の歌唱が合格であると判定する。CPU17は、利用者による歌唱の開始から終了までの間に亘ってこのノート判定を行い、歌唱の終了時点における全ノートTN(i)の数を合格と判定したノートNT(i)の数で除算した値に100を乗じた値を基本得点SRBASEとする。
また、この処理では、CPU17は、ボーカルアダプタ16の出力信号SPが示すピッ
チ波形内に、タメ、ビブラート、コブシ、シャクリ、フォールのいずれかの表情歌唱の特徴波形が出現した否かを判定する。ここで、タメの特徴波形の判定手法の詳細は特許文献2を、ビブラートの特徴波形の判定手法の詳細は特許文献3を、コブシの特徴波形の判定手法の詳細は特許文献4を、シャクリの特徴波形の判定手法の詳細は特許文献5を、フォールの特徴波形の判定手法の詳細は特許文献6を参照されたい。CPU17は、利用者による歌唱の開始から終了までの間に亘ってこの特徴波形判定を行い、歌唱の終了時点における表情歌唱の出現数に所定の係数を乗じた値を加算点SRADDとする。そして、この処理では、基本得点SRBASEと加算点SRADDの合計を標準得点SRNORとする。
b4.表情歌唱評価処理(S140)
この処理では、CPU17は、音源イベントEV(i)ONの出力から次のイベントEV(i)OFFの出力までの時間をi番目のノートNT(i)に相当する音の発音時間TNT(i)とする。そして、CPU17は、発音時間TNT(i)の間のボーカルアダプタ16の出力信号SPが示すピッチ波形内に表情歌唱の特徴波形が出現した場合には、発音時間TNT(i)内における表情歌唱の出現時刻と出現した表情歌唱の種類を求める。CPU17は、そのように特定した表情歌唱の種類と出現時刻とを示す表情歌唱出現データを生成する。
そして、CPU17は、生成した表情歌唱出現データに示される表情歌唱およびその出現時刻に応じた評価点VSR(t)を、表情歌唱リファレンスデータDDが示す一連の評価点VSR(t)の中から選択する。CPUは、利用者による歌唱の開始から終了までの間に亘ってこのような評価点VSR(t)の選択を行い、歌唱の終了時点における評価点VSR(t)の平均値を表情得点SREXとする。
CPU17は、利用者による歌唱曲の歌唱が終了すると、評価結果提示処理を行う(S150)。評価結果提示処理では、CPU17は、標準歌唱評価処理により採点した標準得点SRNORと表情歌唱評価処理により採点した表情得点SREXのうち高い方の得点を選択する。そして、CPU17は、標準得点SRNORを選択した場合、この得点SRNORと、例えば「クールで精緻な歌ですね」といった得点SRNORに応じたコメントメッセージを表示部14に表示させる。また、CPU17は、表情得点SREXを選択した場合、この得点SREXと、例えば「人情味あふれていますね」といった表情得点SREXに応じたコメントメッセージを表示部14に表示させる。
次に、CPU17は、サンプル送信処理を行う(S160)。サンプル送信処理では、CPU17は、歌唱曲の歌唱の開始から終了までの間にボーカルアダプタ16が出力した信号SP及びSLを当該歌唱曲の歌唱サンプルデータDSとし、この歌唱サンプルデータDSとステップS130で求めた基本得点SRBASE(歌唱評価データ)とを含むメッセージMS1をサーバ装置30に送信する。
サーバ装置30のCPU37は、カラオケ装置10−mからメッセージMS1を取得すると(S200:Yes)、このメッセージMS1から歌唱サンプルデータDSと基本得点SRBASEとを取り出し、この基本得点SRBASEを上級者とそうでない者とを分ける基準得点SRTH(たとえば、80点とする)と比較する(S220)。CPU37は、基本得点SRBASEが基準得点SRTHよりも高い場合(S220:Yes)、メッセージMS1から取り出した歌唱サンプルデータDSを歌唱サンプルデータベースDBSに蓄積する(S230)。
続いて、CPU37は書き換え処理を行う(S240)。書き換え処理では、CPU37は、次の5つの処理を行う。第1の処理では、CPU37は、歌唱サンプルデータベースDBSに蓄積された各歌唱サンプルデータDSが示すピッチ波形内からタメの特徴波形
を探索し、この探索結果を示す表情歌唱出現データ(タメが出現したノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tを示すデータ)を生成する。続いて、CPU37はタメに関し生成した表情歌唱出現データに基づき、ノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおける表情歌唱「タメ」の出現数Numとの関係を示す統計データを生成し、表情歌唱リファレンスデータDDa1における各時刻tと対応する評価点VSR(t)をこの統計データの内容に基づいて書き換える。
図8は、タメについての統計データの一例を示す図である。この例の統計データでは、基準点tBSより時間T1a1だけ前の時刻t1a1と基準点tBSより時間T4a1だけ後の時刻t4a1との間に表情歌唱の出現数Numが分布している。そして、この例の統計データでは、基準点tBSの直後の時刻t2a1に出現数Numの最大ピークが表れており、時刻t2a1よりも遅れた時刻t3a1に出現数Numの2番目のピークが表れている。よって、この例の統計データによる書き換え後の表情歌唱リファレンスデータDDa1では、時刻t2a1の評価点VSR(t2a1)が最も高くなり、時刻t3a1の評価点VSR(t3a1)が2番目に高くなる。
第2の処理では、CPU37は、歌唱サンプルデータベースDBSに蓄積された各歌唱サンプルデータDSが示すピッチ波形内からビブラートの特徴波形を探索し、この探索結果を示す表情歌唱出現データ(ビブラートが出現したノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tを示すデータ)を生成する。続いて、CPU37はビブラートに関し生成した表情歌唱出現データに基づき、ノートNT(i)の発音開始時刻を基準点tBSする時間軸上の各時刻tとそれらの時刻tにおける表情歌唱の出現数Numとの関係を示す統計データを生成し、表情歌唱リファレンスデータDDa2における各時刻tと対応する評価点VSR(t)をこの統計データの内容に基づいて書き換える。
図9は、ビブラートについての統計データの一例を示す図である。この例の統計データでは、基準点tBSと基準点tBSより時間T2a2だけ後の時刻t2a2との間に表情歌唱の出現数Numが分布している。そして、この例の統計データでは、基準点tBSよりも時間T1a2だけ後の時刻t1a2に出現数Numの最大ピークが表れている。よって、この例の統計データによる書き換え後の表情歌唱リファレンスデータDDa2では、時刻t1a2の評価点VSR(t1a2)が最も高くなる。
第3の処理では、CPU37は、歌唱サンプルデータベースDBSに蓄積された各歌唱サンプルデータDSが示すピッチ波形内からコブシの特徴波形を探索し、この探索結果を示す表情歌唱出現データ(コブシが出現したノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tを示すデータ)を生成する。続いて、CPU37はコブシに関し生成した表情歌唱出現データに基づき、ノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおける表情歌唱の出現数Numとの関係を示す統計データを生成し、表情歌唱リファレンスデータDDa3における各時刻tと対応する評価点VSR(t)をこの統計データの内容に基づいて書き換える。
図10は、コブシについての統計データの一例を示す図である。この例の統計データでは、基準点tBSと基準点tBSより時間T2a3だけ後の時刻t2a3との間に表情歌唱の出現数Numが分布している。そして、この例の統計データでは、基準点tBSよりも時間T1a3だけ後の時刻t1a3に出現数Numの最大ピークが表れている。よって、この例の統計データによる書き換え後の表情歌唱リファレンスデータDDa3では、時刻t1a3の評価点VSR(t1a3)が最も高くなる。
第4の処理では、CPU37は、歌唱サンプルデータベースDBSに蓄積された各歌唱
サンプルデータDSが示すピッチ波形内からシャクリの特徴波形を探索し、この探索結果を示す表情歌唱出現データ(シャクリが出現したノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tを示すデータ)を生成する。続いて、CPU37はシャクリに関し生成した表情歌唱出現データに基づき、ノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおける表情歌唱の出現数Numとの関係を示す統計データを生成し、表情歌唱リファレンスデータDDa4における各時刻tと対応する評価点VSR(t)をこの統計データの内容に基づいて書き換える。
図11は、シャクリについての統計データの一例を示す図である。この例の統計データでは、基準点tBSと基準点tBSより時間T2a4だけ後の時刻t2a4との間に表情歌唱の出現数Numが分布している。そして、この例の統計データでは、基準点tBSに出現数Numの最大ピークが表れており、基準点tBSよりも時間T1a4だけ遅れた時刻t1a4に出現数Numの2番目のピークが表れている。よって、この例の統計データによる書き換え後の表情歌唱リファレンスデータDDa4では、時刻tBSの評価点VSR(tBS)が最も高くなり、時刻t1a4の評価点VSR(t1a4)が2番目に高くなる。
第5の処理では、CPU37は、歌唱サンプルデータベースDBSに蓄積された各歌唱サンプルデータDSが示すピッチ波形内からフォールの特徴波形を探索し、この探索結果を示す表情歌唱出現データ(フォールが出現したノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tを示すデータ)を生成する。続いて、CPU37はフォールに関し生成した表情歌唱出現データに基づき、ノートNT(i)の発音開始時刻を基準点tBSとする時間軸上の各時刻tとそれらの時刻tにおける表情歌唱の出現数Numとの関係を示す統計データを生成し、表情歌唱リファレンスデータDDa5における各時刻と対応する評価点VSR(t)をこの統計データの内容に基づいて書き換える。
図12は、フォールについての統計データの一例を示す図である。この例の統計データでは、基準点tBSより時間T1a5だけ後の時刻t1a5と時刻tBSから時間T2a5だけ後の時刻t2a5との間に表情歌唱の出現数Numが分布している。そして、この例の統計データでは、時刻t2a5に出現数Numの最大ピークが表れている。よって、この例の統計データによる書き換え後の表情歌唱リファレンスデータDDa5では、時刻t2a5の評価点VSR(t2a5)が最も高くなる。
図7において、カラオケ装置10−mのCPU17は、予め決められた問合せ時刻が到来する度に(S110:Yes)、問合せ処理を行う(S170)。この問合せ処理では、CPU17は、最新データの送信を求めるメッセージMS2をサーバ装置30に送信する(S170)。サーバ装置30のCPU37は、カラオケ装置10−mからメッセージMS2を受信すると(S210:Yes)、前回のメッセージMS2の受信時刻から今回のメッセージMS2の受信時刻までの間に内容を書き換えた表情歌唱リファレンスデータDDをメッセージM2の送信元のカラオケ装置10−mに送信する(S250)。カラオケ装置10−mのCPU17は、サーバ装置30から表情歌唱リファレンスデータDDを受信すると、この表情歌唱リファレンスデータDDをリファレンスデータベースDBRKに上書きしてその内容を更新する(S180)。
以上が、本実施形態の構成の詳細である。本実施形態によると、次の効果が得られる。
第1に、本実施形態の表情付け歌唱評価処理では、ボーカルアダプタ16の出力信号の波形に表情歌唱の特徴波形が出現する度に、表情歌唱の対象となったノートNT(i)の発音開始時刻を基準点とする時間軸上における表情歌唱の特徴波形の出現時刻を求め、この出現時刻と対応する評価点VSR(t)を歌唱リファレンスデータDD内の各評価点VSR(t)の中から選択し、この選択した評価点VSR(t)に基づいて歌唱の巧拙を評価する。よって、本実施形態によると、利用者が表情歌唱を行ったとしても、そのタイミ
ングが適切でなければ良好な評価が得られないことになる。従って、本実施形態によると、人の感性によるものにより近い評価結果を提示することができる。
第2に、本実施形態では、歌唱サンプルデータベースDBS内に蓄積された表情歌唱リファレンスデータDDの各々について、当該データDDが示す波形内から表情歌唱の特徴波形を探索し、この探索結果から表情歌唱の対象となったノートNT(i)の発音開始時刻を基準点とする時間軸上の各時刻とそれらの時刻における表情歌唱の出現数との関係を示す統計データを生成し、歌唱リファレンスデータDDにおける各時刻と対応する評価点VSR(t)を統計データの内容に基づいて書き換える。よって、本実施形態によると、歌唱曲を歌い込んでいる上級者らの歌い方の傾向の変化を評価結果に反映させることができる。
以上、この発明の一実施形態について説明したが、この発明には他にも実施形態があり得る。例えば、以下の通りである。
(1)上記実施形態では、CPU17は、タメ、ビブラート、コブシ、シャクリ、フォールの5種類の表情歌唱をボーカルアダプタ16の出力信号SPから検出した。しかし、この5種類以外の表情歌唱を検出してもよい。たとえば、抑揚をつけた歌唱を検出してもよい。
(2)上記実施形態では、CPU17は、ボーカルアダプタ16の出力信号SP及びSLの両方を用いて標準歌唱評価処理を行い、ボーカルアダプタ16の出力信号SP及びSLのうちピッチを示す信号SPのみを用いて表情歌唱評価処理を行った。しかし、CPU17は、信号SP及びSLの一方のみを用いて標準歌唱評価処理を行ってもよい。また、CPU17は、信号SP及びSLの両方を用いて表情歌唱評価処理を行ってもよい。
(3)上記実施形態の表情歌唱評価処理では、表情歌唱の特徴波形の出現時刻に基づいて歌唱の巧拙を評価した。しかし、表情歌唱の特徴波形の出現時刻以外の要素(たとえば、タメ、ビブラート、コブシ、シャクリ、フォールの各々の長さや深さなど)を加味した評価を行ってもよい。
(4)上記実施形態の表情歌唱評価処理では、歌唱曲に含まれるノートの各々に応じた歌唱音において出現する表情歌唱を検出する構成が採用されているが、歌唱曲に含まれる一連の複数のノート(ノート群)に応じた歌唱音において出現する表情歌唱を検出する構成が採用されてもよい。例えば、クレッシェンド・デクレッシェンドのような表情歌唱は、一連の複数のノートの歌唱において行われる表情歌唱であるため、それらの表情歌唱の検出および評価はノート群を単位として行われる方が望ましい。従って、そのような表情歌唱に関する表情歌唱リファレンスデータDDもまたノート群単位で構成されることが望ましい。
(5)上記実施形態では、カラオケ装置10からサーバ装置30に対し、歌唱曲の歌唱の開始から終了までの間にボーカルアダプタ16が出力した信号SP及びSLを含む歌唱サンプルデータDS(ピッチ音量データ)を送信し、サーバ装置30においては歌唱サンプルデータDSから各表情歌唱の検出およびその出現のタイミングの特定処理が行われる構成が採用されている。これに代えて、カラオケ装置10からサーバ装置30に対し、マイクロホン13により収音された音を示す音信号SM(歌唱音を示す音声波形データ)を送信し、サーバ装置30において音信号SMから信号Spおよび信号SLを生成する処理(上記実施形態におけるボーカルアダプタ16が行う処理)が行われる構成が採用されてもよい。また、カラオケ装置10からサーバ装置30に対し、歌唱評価プログラムVPGに従い行われる表情歌唱評価処理(S140)に際し特定した表情歌唱の種別およびその出現のタイミングを示すデータ(表情歌唱出現データ)を送信し、サーバ装置30においては表
情歌唱の検出処理は行わずカラオケ装置10から送信されてくる表情歌唱出現データに基づき表情歌唱リファレンスデータDDの更新処理が行われる構成が採用されてもよい。
(6)上記実施形態では、サーバ装置30が統計データの生成とこれに基づく表情歌唱リファレンスデータDDの書き換えを行った。しかし、各カラオケ装置10−mが過去に自機により生成、もしくは他のカラオケ装置10−mから直接またはサーバ装置30を介して取得した歌唱音を示す音信号SMや、それらの音信号SMから生成した信号Spおよび信号SL、もしくはそれらの信号を用いて特定した表情歌唱の種別およびその出現のタイミングを示すデータ(表情歌唱出現データ)をハードディスク20に記憶しておき、CPU17がそれらを読み出して用いて、サーバ装置30がS240で行う処理と同様の処理、すなわち統計データの生成とこれに基づく表情歌唱リファレンスデータDDの書き換えを行うようにしてもよい。
(7)上記実施形態における歌唱の評価の方法および評価結果の歌唱者への提示の態様は様々に変更可能である。例えば、上記実施形態においては、標準歌唱評価処理(S130)にて表情歌唱の出現回数に基づき算出される加算点SRADDを基本得点SRBASEと合計することで標準得点SRNORを算出する構成が採用されているが、標準歌唱評価処理においては表情歌唱の出現は考慮せず、基本得点SRBASEのみを算出する構成が採用されてもよい。また、上記実施形態においては、歌唱者に対し、標準歌唱評価処理により採点した標準得点SRNORと表情歌唱評価処理により採点した表情得点SREXのうち高い方の得点が表示されるが、それらの両方を表示する、それらの合計点数を表示するなど、他の態様で歌唱者に対する評価結果の提示が行われてもよい。
(8)上記実施形態では、表情歌唱リファレンスデータDDの更新に際し、基本得点SRBASEが基準得点SRTHよりも高い歌唱者を上級者とし、上級者に関する歌唱サンプルデータDSのみを用いて表情歌唱リファレンスデータDDの更新を行う構成が採用されている。表情歌唱リファレンスデータDDの更新に用いる歌唱サンプルデータDSの選択方法はこれに限られない。例えば、基本得点SRBASEに代えて、基本得点SRBASEに加算点SRADDを合計した標準得点SRNORを上級者の推定の基準として用いてもよい。また、全く表情歌唱を行わないために基本得点SRBASEが高得点となっている上級者を除外するために、下側の閾値(基準得点SRTH)に加え上側の閾値を設け、上側の閾値より高い基本得点SRBASE(またはその他の得点)の歌唱者の歌唱サンプルデータDSは表情歌唱リファレンスデータDDの更新には用いない、という構成が採用されてもよい。また、上記のように歌唱者を上級者とそれ以外の者に2分する代わりに、例えば基本得点SRBASEが高い歌唱者の歌唱サンプルデータDSに大きい重み付けを付けて表情歌唱リファレンスデータDDの更新に用いるようにしてもよい。
(9)上記実施形態では、楽曲演奏を評価する演奏評価装置の一例として、歌唱用のカラオケ装置に設けられ、歌唱演奏を評価する演奏評価装置を示したが、本発明にかかる演奏評価装置は歌唱演奏の評価に限定されず、各種楽器を用いた楽曲演奏の評価にも適用可能である。すなわち、上記実施形態において用いた「歌唱」という言葉は、より一般的な「演奏」という言葉で置き換えられる。なお、器楽演奏を評価する演奏評価装置においては、例えばギターにおけるチョーキングなど、個々の楽器に応じた表情演奏に関する評価が行われることになる。また、楽曲が歌唱曲でなく楽器用の楽曲である場合、楽器演奏用のカラオケ装置は、曲データMDは歌詞トラックTRLYに代えて、例えば楽譜を示すデータと、楽譜の各区間(例えば、2小節もしくは4小節のブロックなど)の表示時刻を示すデルタタイムが時系列順に記述されたデータである楽譜トラックを含むように構成され、シーケンサ21および表示部14は楽譜トラックに従い、楽曲の進行に伴い伴奏箇所に応じた楽譜を示す画像信号をディスプレイに出力するように構成されることになる。なお、歌唱用のカラオケ装置および楽器演奏用のカラオケ装置において、歌詞もしくは楽譜の表示
が不要な場合は、シーケンサ21および表示部14による画像信号の出力処理は行われなくてもよい。
(10)上記実施形態では、いわゆる専用機としてのカラオケ装置に本発明にかかる演奏評価装置が設けられている例を示したが、本発明にかかる演奏評価装置は専用機に限られない。例えば、パーソナルコンピュータや携帯情報端末(例えば携帯電話機やスマートホン)やゲーム装置等の各種装置にプログラムに従った処理を行わせることによって本発明にかかる演奏評価装置を実現する構成が採用されてもよい。
1…歌唱評価システム、10…カラオケ装置、11…音源、12…スピーカ、13…マイクロホン、14…表示部、15…通信インターフェース、16…ボーカルアダプタ、17…CPU、18…RAM、19…ROM、20…ハードディスク、21…シーケンサ、30…サーバ装置、35…通信インターフェース、37…CPU、38…RAM、39…ROM、40…ハードディスク、90…ネットワーク

Claims (10)

  1. 意数の任意の演奏者による楽曲の演奏音の各々に関し、当該演奏音のピッチまたは音量を示すピッチ音量データを取得するピッチ音量データ取得手段と、
    前記ピッチ音量データ取得手段により取得されたピッチ音量データにより示されるピッチまたは音量の少なくとも一方の特性が、前記楽曲における任意のタイミングにおいて予め定められた1以上の表情演奏の特性のうちの一の特性を示す場合、当該表情演奏と、前記楽曲に含まれるノートまたはノート群の発音開始時刻を基準とする当該タイミングとの対を示す表情演奏出現データを生成する表情演奏出現データ生成手段と、
    前記表情演奏出現データ生成手段により生成された任意数の表情演奏出現データに基づき、前記楽曲に含まれるノートまたはノート群の各々に関し、当該ノートまたはノート群の発音開始時刻を基準とする時間軸上のいずれのタイミングでいずれの表情演奏がいずれの頻度で出現しているかを特定し、当該特定した情報を用いて前記発音開始時刻を基準とする前記時間軸上の各時刻と当該時刻においてそれぞれ当該楽曲の演奏中に行われるべき表情演奏が行なわれた場合の評価点との各対で示す表情演奏リファレンスデータを生成する表情演奏リファレンスデータ生成手段と
    を備える表情演奏リファレンスデータ生成装置。
  2. 楽曲に含まれるノートまたはノート群の発音開始時刻を基準とする時間軸上において当該発音開始時刻から当該楽曲の演奏中に行われるべき表情演奏が実際に行なわれる時刻までの時間差と当該時間差に応じて動的に変化する評価点との関係を当該表情演奏ごとに示す表情演奏リファレンスデータを取得する表情演奏リファレンスデータ取得手段と、
    演奏者による前記楽曲の演奏音から当該演奏音のピッチまたは音量を示すピッチ音量データを生成するピッチ音量データ生成手段と、
    前記ピッチ音量データ生成手段により生成された前記ピッチ音量データにより示されるピッチまたは音量の少なくとも一方の特性が、前記楽曲における前記表情演奏リファレンスデータにより示される所定時間範囲内において前記表情演奏リファレンスデータにより行われるべきであるとされる表情演奏の特性を示す場合、当該表情演奏の出現時刻に応じた前記評価点を用いて評価を行う演奏評価手段と、
    を備える演奏評価装置。
  3. 任意数の任意の演奏者による楽曲の演奏音の各々に関し、当該演奏音のピッチまたは音量を示すピッチ音量データを取得するピッチ音量データ取得手段と、
    前記ピッチ音量データ取得手段により取得されたピッチ音量データにより示されるピッチまたは音量の少なくとも一方の特性が、前記楽曲における任意のタイミングにおいて予め定められた1以上の表情演奏の特性のうちの一の特性を示す場合、当該表情演奏と、前記楽曲に含まれるノートまたはノート群の発音開始時刻を基準とする当該タイミングとの対を示す表情演奏出現データを生成する表情演奏出現データ生成手段と、
    前記表情演奏出現データ生成手段により生成された任意数の表情演奏出現データに基づき、前記楽曲に含まれるノートまたはノート群の各々に関し、当該ノートまたはノート群の発音開始時刻を基準とする時間軸上のいずれのタイミングでいずれの表情演奏がいずれの頻度で出現しているかを特定し、当該特定した情報を用いて前記発音開始時刻を基準とする前記時間軸上の各時刻と当該時刻においてそれぞれ当該楽曲の演奏中に行われるべき表情演奏が行なわれた場合の評価点との各対で示す前記表情演奏リファレンスデータを生成する表情演奏リファレンスデータ生成手段と、
    を備え、
    前記表情演奏リファレンスデータ取得手段は、前記表情演奏リファレンスデータ生成手段によって生成された前記表情演奏リファレンスデータを取得する
    請求項2に記載の演奏評価装置。
  4. 前記楽曲の模範となるピッチまたは音量を示す模範演奏リファレンスデータを取得する模範演奏リファレンスデータ取得手段
    を備え、
    前記演奏評価手段は、前記ピッチ音量データ生成手段により生成されたピッチ音量データにより示されるピッチと、前記模範演奏リファレンスデータにより示されるピッチとの比較の結果に基づき前記演奏者による前記楽曲の演奏に対する評価を行う
    請求項2または3に記載の演奏評価装置。
  5. 前記演奏評価手段は、
    前記ピッチ音量データ生成手段により生成されたピッチ音量データにより示されるピッチまたは音量と、前記模範演奏リファレンスデータにより示されるピッチまたは音量との比較の結果に基づき、前記演奏者による前記楽曲の演奏に関する第1の得点を求めると共に、
    前記ピッチ音量データ生成手段により生成されたピッチ音量データにより示されるピッチまたは音量と、前記表情演奏リファレンスデータにより示されるピッチまたは音量との比較の結果に基づき、前記演奏者による前記楽曲の演奏に対する第2の得点を求め、
    前記第1の得点および前記第2の得点に基づき、前記楽曲の演奏に対する演奏評価を行うことを特徴とする
    請求項4に記載の演奏評価装置。
  6. 前記楽曲の模範となるピッチを示す模範演奏リファレンスデータを取得する模範演奏リファレンスデータ取得手段
    を備え、
    前記演奏評価手段は、前記ピッチ音量データ生成手段により生成されたピッチ音量データにより示されるピッチと、前記模範演奏リファレンスデータにより示されるピッチとの比較の結果に基づき前記演奏者による前記楽曲の演奏に対する評価を行い、
    前記ピッチ音量データ取得手段により取得されるピッチ音量データは、前記演奏評価手段により前記模範演奏リファレンスデータを用いて行われた評価の結果、または前記演奏評価手段と同様の手段を備える他機により前記模範演奏リファレンスデータと同様のデータを用いて行われた評価の結果を示す演奏評価データを伴い、
    前記表情演奏リファレンスデータ生成手段は、前記ピッチ音量データ取得手段により取得されるピッチ音量データのうち所定の条件を満たす演奏評価データを伴うピッチ音量データを用いて前記表情演奏出現データ生成手段により生成された表情演奏出現データに基づき、前記表情演奏リファレンスデータを生成する
    請求項に記載の演奏評価装置。
  7. 請求項乃至6のいずれか1項に記載の演奏評価装置と、
    楽曲の伴奏を指示する伴奏データを取得する伴奏データ取得手段と、
    前記伴奏データの指示に従い伴奏の楽音を示す音信号を出力する音信号出力手段と
    を備える
    カラオケ装置。
  8. 前記楽曲は歌唱曲であり、
    前記歌唱曲の歌詞を示す歌詞データを取得する歌詞データ取得手段と、
    前記歌詞データにより示される歌詞であって、前記音信号出力手段により現在出力されている音信号が示す伴奏とともに歌唱されるべき歌詞を示す画像信号を出力する画像信号出力手段と
    を備える請求項7に記載のカラオケ装置。
  9. 前記楽曲は楽器により演奏される楽曲であり、
    前記楽曲の楽譜を示す楽譜データを取得する楽譜データ取得手段と、
    前記楽譜データにより示される楽譜であって、前記音信号出力手段により現在出力されている音信号が示す伴奏とともに行われるべき演奏を指示する楽譜を示す画像信号を出力する画像信号出力手段と
    を備える請求項7に記載のカラオケ装置。
  10. 任意数の任意の演奏者による楽曲の演奏音の各々に関し、前記楽曲に含まれるノートまたはノート群の発音開始時刻を基準とする一のタイミングにおいて一の表情演奏が出現したことを示す表情演奏出現データを取得する表情演奏出現データ取得手段と、
    前記表情演奏出現データ取得手段により取得された任意数の表情演奏出現データに基づき、前記楽曲に含まれるノートまたはノート群の各々に関し、当該ノートまたはノート群の発音開始時刻を基準とする時間軸上のいずれのタイミングでいずれの表情演奏がいずれの頻度で出現しているかを特定し、当該特定した情報を用いて前記発音開始時刻を基準とする前記時間軸上の各時刻と当該時刻においてそれぞれ当該楽曲の演奏中に行われるべき表情演奏が行なわれた場合の評価点との各対で示す表情演奏リファレンスデータを生成する表情演奏リファレンスデータ生成手段と、
    前記表情演奏リファレンスデータ生成手段により生成された表情演奏リファレンスデータを演奏評価装置に送信する送信手段と
    を備える装置。
JP2012094853A 2012-04-18 2012-04-18 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置 Expired - Fee Related JP5958041B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012094853A JP5958041B2 (ja) 2012-04-18 2012-04-18 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置
PCT/JP2013/061488 WO2013157602A1 (ja) 2012-04-18 2013-04-18 演奏評価装置、カラオケ装置及びサーバ装置
KR1020147025532A KR101666535B1 (ko) 2012-04-18 2013-04-18 연주 평가 장치, 노래방 장치 및 서버 장치
TW102113839A TWI497484B (zh) 2012-04-18 2013-04-18 Performance evaluation device, karaoke device, server device, performance evaluation system, performance evaluation method and program
CN201380015347.7A CN104170006B (zh) 2012-04-18 2013-04-18 演奏评价装置、卡拉ok装置及服务器装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012094853A JP5958041B2 (ja) 2012-04-18 2012-04-18 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置

Publications (3)

Publication Number Publication Date
JP2013222140A JP2013222140A (ja) 2013-10-28
JP2013222140A5 JP2013222140A5 (ja) 2015-06-18
JP5958041B2 true JP5958041B2 (ja) 2016-07-27

Family

ID=49383554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012094853A Expired - Fee Related JP5958041B2 (ja) 2012-04-18 2012-04-18 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置

Country Status (5)

Country Link
JP (1) JP5958041B2 (ja)
KR (1) KR101666535B1 (ja)
CN (1) CN104170006B (ja)
TW (1) TWI497484B (ja)
WO (1) WO2013157602A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459324B1 (ko) * 2013-08-28 2014-11-07 이성호 음원 평가방법 및 이를 이용한 음원의 평가장치
JP6428066B2 (ja) * 2014-09-05 2018-11-28 オムロン株式会社 採点装置及び採点方法
JP6352164B2 (ja) * 2014-11-28 2018-07-04 株式会社第一興商 聴取者評価を考慮したカラオケ採点システム
CN104392731A (zh) * 2014-11-30 2015-03-04 陆俊 一种练习唱歌的方法和系统
CN104485090B (zh) * 2014-12-12 2020-01-17 上海斐讯数据通信技术有限公司 乐谱生成方法及装置、移动终端
JP5715296B1 (ja) * 2014-12-16 2015-05-07 行秘 大田 替え歌通信カラオケサーバ及び替え歌通信カラオケシステム
US10380657B2 (en) * 2015-03-04 2019-08-13 International Business Machines Corporation Rapid cognitive mobile application review
JP6113231B2 (ja) * 2015-07-15 2017-04-12 株式会社バンダイ 歌唱力評価装置及び記憶装置
JP6701864B2 (ja) * 2016-03-25 2020-05-27 ヤマハ株式会社 音評価装置および音評価方法
JP6614356B2 (ja) * 2016-07-22 2019-12-04 ヤマハ株式会社 演奏解析方法、自動演奏方法および自動演奏システム
JP6776788B2 (ja) * 2016-10-11 2020-10-28 ヤマハ株式会社 演奏制御方法、演奏制御装置およびプログラム
CN108665747A (zh) * 2017-04-01 2018-10-16 上海伍韵钢琴有限公司 一种在线钢琴陪练系统及使用方法
JP6867900B2 (ja) * 2017-07-03 2021-05-12 株式会社第一興商 カラオケ装置
JP6708180B2 (ja) * 2017-07-25 2020-06-10 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
CN108694384A (zh) * 2018-05-14 2018-10-23 芜湖岭上信息科技有限公司 一种基于图像和声音的观众满意度调查装置和方法
CN109903778B (zh) * 2019-01-08 2020-09-25 北京雷石天地电子技术有限公司 实时演唱评分的方法与系统
CN109887524A (zh) * 2019-01-17 2019-06-14 深圳壹账通智能科技有限公司 一种演唱评分方法、装置、计算机设备及存储介质
JP7232654B2 (ja) * 2019-01-31 2023-03-03 株式会社第一興商 カラオケ装置
JP7232653B2 (ja) * 2019-01-31 2023-03-03 株式会社第一興商 カラオケ装置
JP7169243B2 (ja) * 2019-03-29 2022-11-10 株式会社第一興商 カラオケ装置
CN110120216B (zh) * 2019-04-29 2021-11-12 北京小唱科技有限公司 用于演唱评价的音频数据处理方法及装置
CN110083772A (zh) * 2019-04-29 2019-08-02 北京小唱科技有限公司 基于演唱技巧的歌手推荐方法及装置
JP7533568B2 (ja) * 2020-03-04 2024-08-14 ヤマハ株式会社 演奏データに対する観衆の評価を推論する方法、情報処理システム、及びプログラム
CN112037609B (zh) * 2020-08-26 2022-10-11 怀化学院 一种基于物联网的音乐教学装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2915773B2 (ja) * 1993-12-25 1999-07-05 日本コロムビア株式会社 カラオケ装置
JP3299890B2 (ja) * 1996-08-06 2002-07-08 ヤマハ株式会社 カラオケ採点装置
JP3293745B2 (ja) * 1996-08-30 2002-06-17 ヤマハ株式会社 カラオケ装置
JP3690224B2 (ja) * 2000-01-13 2005-08-31 ヤマハ株式会社 携帯電話機および携帯電話システム
CN1380642A (zh) * 2001-04-11 2002-11-20 华邦电子股份有限公司 跟唱学习评分装置及方法
JP2003058155A (ja) * 2001-08-13 2003-02-28 Casio Comput Co Ltd 演奏教習装置及び演奏教習処理のプログラム
JP4222915B2 (ja) * 2003-09-30 2009-02-12 ヤマハ株式会社 歌唱音声評価装置、カラオケ採点装置及びこれらのプログラム
JP4163584B2 (ja) 2003-09-30 2008-10-08 ヤマハ株式会社 カラオケ装置
JP4209751B2 (ja) * 2003-09-30 2009-01-14 ヤマハ株式会社 カラオケ装置
JP4204941B2 (ja) 2003-09-30 2009-01-07 ヤマハ株式会社 カラオケ装置
JP2005241848A (ja) * 2004-02-25 2005-09-08 Daiichikosho Co Ltd 通信カラオケシステムにおける投稿作品編集式の模範ボーカル提供装置
TWI232430B (en) * 2004-03-19 2005-05-11 Sunplus Technology Co Ltd Automatic grading method and device for audio source
JP2007256617A (ja) * 2006-03-23 2007-10-04 Yamaha Corp 楽曲練習装置および楽曲練習システム
JP2007271977A (ja) * 2006-03-31 2007-10-18 Yamaha Corp 評価基準判定装置、制御方法及びプログラム
JP2008015388A (ja) * 2006-07-10 2008-01-24 Dds:Kk 歌唱力評価方法及びカラオケ装置
JP2008026622A (ja) * 2006-07-21 2008-02-07 Yamaha Corp 評価装置
JP2008139426A (ja) * 2006-11-30 2008-06-19 Yamaha Corp 評価用データのデータ構造、カラオケ装置及び記録媒体
JP4865607B2 (ja) 2007-03-13 2012-02-01 ヤマハ株式会社 カラオケ装置、歌唱評価方法およびプログラム
JP4910854B2 (ja) 2007-04-17 2012-04-04 ヤマハ株式会社 こぶし検出装置、こぶし検出方法及びプログラム
JP2007334364A (ja) * 2007-08-06 2007-12-27 Yamaha Corp カラオケ装置
TWI394141B (zh) * 2009-03-04 2013-04-21 Wen Hsin Lin Karaoke song accompaniment automatic scoring method
JP5244738B2 (ja) * 2009-08-24 2013-07-24 株式会社エクシング 歌唱評価装置、歌唱評価方法及びコンピュータプログラム

Also Published As

Publication number Publication date
CN104170006B (zh) 2017-05-17
JP2013222140A (ja) 2013-10-28
WO2013157602A1 (ja) 2013-10-24
CN104170006A (zh) 2014-11-26
TWI497484B (zh) 2015-08-21
KR20140124843A (ko) 2014-10-27
TW201407602A (zh) 2014-02-16
KR101666535B1 (ko) 2016-10-14

Similar Documents

Publication Publication Date Title
JP5958041B2 (ja) 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置
JP2009104097A (ja) 採点装置及びプログラム
JP4163584B2 (ja) カラオケ装置
JP6288197B2 (ja) 評価装置及びプログラム
JP5428459B2 (ja) 歌唱評価装置
JP6102076B2 (ja) 評価装置
JP6944357B2 (ja) 通信カラオケシステム
JP4491743B2 (ja) カラオケ装置
JP5994343B2 (ja) 演奏評価装置及びカラオケ装置
JP3879524B2 (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JP6219750B2 (ja) 歌唱対戦カラオケシステム
JP6073618B2 (ja) カラオケ装置
JP6365483B2 (ja) カラオケ装置,カラオケシステム,及びプログラム
JP4182782B2 (ja) カラオケ装置
JP2015060203A (ja) 演奏データとオーディオデータの同期装置、方法、およびプログラム
JP2007140163A (ja) カラオケ装置およびカラオケ装置用プログラム
JP6011506B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP2004184506A (ja) カラオケ装置及びプログラム
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP6514868B2 (ja) カラオケ装置及びカラオケ採点システム
JP5551983B2 (ja) カラオケ演奏制御システム
JP2015106061A (ja) カラオケ装置
JP2014071137A (ja) 楽器音出力装置
KR20110005653A (ko) 데이터 집배 시스템, 통신 노래방 시스템
JP2012013920A (ja) カラオケ演奏制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160606

R151 Written notification of patent or utility model registration

Ref document number: 5958041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees