JP6365561B2 - カラオケシステム、カラオケ装置、及びプログラム - Google Patents

カラオケシステム、カラオケ装置、及びプログラム Download PDF

Info

Publication number
JP6365561B2
JP6365561B2 JP2016016181A JP2016016181A JP6365561B2 JP 6365561 B2 JP6365561 B2 JP 6365561B2 JP 2016016181 A JP2016016181 A JP 2016016181A JP 2016016181 A JP2016016181 A JP 2016016181A JP 6365561 B2 JP6365561 B2 JP 6365561B2
Authority
JP
Japan
Prior art keywords
singer
music
identification information
singing
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016016181A
Other languages
English (en)
Other versions
JP2017134346A (ja
Inventor
典昭 阿瀬見
典昭 阿瀬見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2016016181A priority Critical patent/JP6365561B2/ja
Publication of JP2017134346A publication Critical patent/JP2017134346A/ja
Application granted granted Critical
Publication of JP6365561B2 publication Critical patent/JP6365561B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、歌唱音声を評価する技術に関する。
楽曲を再生し、楽曲の再生に併せてマイクへ入力された歌唱音声を評価するカラオケ装置が知られている(特許文献1参照)。そして、特許文献1に記載されたカラオケ装置では、歌唱音声の評価を以下の手順で実施している。
特許文献1に記載されたカラオケ装置では、歌手などの模範歌唱の模範歌唱信号と、マイクへ入力された歌唱信号とに対する二つの音声の特徴点を抽出して得られた音質、発生単語の長さを比較し、離れ状態の距離値から採点した結果を、模範歌唱に対するマイク入力された歌唱の類似度(ものまねの度合い)として出力する。
特開平11−259081号公報
このようなカラオケ装置では、模範歌唱となる歌手として、楽曲の実演家であるオリジナル歌手の歌唱が用いられる。しかしながら、カラオケ装置の利用者の歌唱の歌い回しや声質が、オリジナルの歌手の歌い回しや声質に類似していない場合がある。このような利用者の歌唱は、歌い回しや声質がオリジナルの歌手と類似している歌唱に比べて、オリジナルの歌手の歌唱とのかい離が大きく検出されて低い評価がされてしまい、当該利用者のモチベーションが低下する可能性があるという課題がある。
そこで、本発明は、カラオケにおいて、利用者のモチベーションが低下することを抑制する技術を提供することを目的とする。
上記目的を達成するためになされた本発明の一態様は、再生手段と、取得手段と、特徴特定手段と、歌手特定手段と、記憶手段と、判断手段と、生成手段と、評価手段とを備える、カラオケシステムに関する。
再生手段は、歌詞が割り当てられた楽曲のうち指定された楽曲である指定楽曲を再生する。取得手段は、再生手段による指定楽曲の再生中にマイクを介して入力された音声である歌唱データを取得する。特徴特定手段は、取得手段で取得された歌唱データから、利用者が指定楽曲を歌唱した歌い方の特徴を表す歌声特徴量を特定する。
歌手特定手段は、歌手特徴データ群から、特徴特定手段で特定した歌声特徴量と類似度が最も高い歌手特徴量が対応付けられた歌手属性である類似歌手属性を特定する。歌手特徴データ群とは、複数の既定の歌手の各々における歌い方の特徴を表す歌手特徴量と、当該既定の歌手の各々の属性を表す歌手属性とが対応付けられたデータ群である。
記憶手段は、利用者を識別する利用者識別情報及び指定楽曲を識別する楽曲識別情報と、歌手特定手段で特定された類似歌手属性とを対応付けて記憶部に記憶する。判断手段は
、再生手段により再生される指定楽曲の楽曲識別情報と、利用者を識別する利用者識別情報とが、記憶部に対応付けて記憶されているか否かを判断する。
そして、生成手段は、判断手段により前記記憶部に記憶されていると判断されたとき、歌手特徴データ群に含まれる歌手特徴量の中で、判断手段により記憶されていると判断された当該利用者識別情報及び当該楽曲識別情報と対応付けられた類似歌手属性に対応する歌手特徴量を、当該指定楽曲における歌唱旋律の楽譜を表す楽譜データに反映した評価基準データを生成する。
さらに、評価手段は、生成手段で生成した評価基準データに基づいて、取得手段で取得された歌唱データを評価する。
このようなカラオケシステムでは、当該カラオケシステムの利用者が歌唱した音声に基づいて、その利用者の歌い方の特徴に類似する歌手(以下、類似歌手)を特定する。そして、カラオケシステムでは、同一の楽曲を同一の利用者が改めて歌唱する場合、類似歌手の歌い方の特徴を反映した評価基準データを生成する。すなわち、評価基準データは、類似歌手の歌手特徴量を当該指定楽曲の楽譜データに反映したデータであり、類似歌手が指定楽曲を歌唱した場合の歌い方の特徴が現れたデータである。
したがって、カラオケシステムによれば、類似歌手が指定楽曲を歌唱した場合、どのような歌い方をするのかという点を基準として、利用者の歌い方を評価できる。このため、カラオケシステムによれば、カラオケシステムの利用者の歌い方の特徴が、指定楽曲を歌唱するオリジナル歌手の歌い方の特徴に類似していない場合であっても、評価が低くなることを抑制できる。
換言すると、カラオケシステムによれば、評価が低く利用者のモチベーションが上がらなくなることを抑制できる。
カラオケシステムにおいて、歌手属性は、複数の既定の歌手の各々を識別する歌手識別情報であってもよい。
このようなカラオケシステムによれば、歌手識別情報を歌手属性とすることができる。これにより、カラオケシステムによれば、類似歌手属性として、歌手を識別する情報を特定できる。
また、カラオケシステムにおいて、歌手属性は、複数の楽曲の歌声データを、利用者識別情報ごとに、その利用者の歌声特徴量または楽曲ジャンルの種別に従って分類した情報であってもよい。
このようなカラオケシステムによれば、複数の楽曲の歌声データを、利用者識別情報ごとに、その利用者の歌声特徴量または楽曲ジャンルの種別に従って分類した情報を歌手属性とすることができる。
カラオケシステムは、再生楽曲識別情報を取得する楽曲ID取得手段と、歌唱利用者識別情報を取得する利用者ID取得手段とを、更に備えていてもよい。再生楽曲識別情報とは、再生手段によって再生される指定楽曲の楽曲識別情報である。歌唱利用者識別情報とは、再生楽曲識別情報によって識別される指定楽曲を歌唱する利用者の利用者識別情報である。
そして、カラオケシステムにおける生成手段は、判断手段により、再生手段により再生される指定楽曲の楽曲識別情報と、利用者を識別する利用者識別情報とが、記憶部に対応付けて記憶されていないと判断されたとき、利用者ID取得手段で取得した歌唱利用者識
別情報、及び楽曲ID取得手段で取得した再生楽曲識別情報と同一の利用者識別情報及び楽曲識別情報が記憶部に記憶されていなければ、利用者が指定楽曲を歌唱して歌手特徴手段により特定された類似歌手属性が示す歌手特徴量を、再生楽曲識別情報が示す指定楽曲の楽譜データに反映した評価基準データを生成してもよい。
なお、ここで言う楽曲識別情報に基づく評価基準データの生成とは、以下の方法を実行することでもよい。
楽曲識別情報によって識別される楽曲の属性と同一の属性の楽曲を、利用者が過去に歌唱しているか否かを検索する。その結果、利用者が同一属性の楽曲を過去に歌唱していれば、その属性における類似歌手の歌い方の特徴を反映した評価基準データを生成する。
なお、楽曲識別情報に基づく評価基準データの生成は、上述した内容に限るものではない。
本発明の一態様は、指定楽曲を再生する再生手段と、歌唱データを取得する取得手段と、歌声特徴量を特定する特徴特定手段と、類似歌手属性を特定する歌手特定手段と、記憶制御手段と、判断手段と、評価基準データを生成する生成手段と、歌唱データを評価する評価手段とを備える、カラオケ装置であってもよい。
このようなカラオケ装置によれば、上述したカラオケシステムと同様の効果を得ることができる。
さらに、本発明の一態様は、コンピュータに実行させるプログラムであってもよい。
このプログラムは、指定楽曲を再生する再生手順と、歌唱データを取得する取得手順と、歌声特徴量を特定する特徴特定手順と、類似歌手属性を特定する歌手特定手順と、記憶制御手順と、判断手順と、評価基準データを生成する生成手順と、歌唱データを評価する評価手順とを、コンピュータに実行させることが好ましい。
このように、本発明がプログラムとしてなされていれば、記録媒体から必要に応じてコンピュータにロードさせて起動することや、必要に応じて通信回線を介してコンピュータに取得させて起動することにより用いることができる。
そして、コンピュータに各手順を実行させることで、類似歌手を特定することができる。さらに、類似歌手が指定楽曲を歌唱した場合、どのような歌い方をするのかという点を基準として、利用者の歌い方を評価できる。このため、カラオケシステムの利用者の歌い方の特徴が、指定楽曲を歌唱するオリジナル歌手の歌い方の特徴に類似していない場合であっても、評価が低くなることを抑制できる。
なお、ここで言う記録媒体には、例えば、DVD−ROM、CD−ROM、ハードディスク等のコンピュータ読み取り可能な電子媒体を含む。
カラオケシステムの概略構成を示すブロック図である。 歌手特徴データの一例を示す説明図である。 再生処理の処理手順を示すフローチャートである。 第1実施形態における類似歌手特定処理の処理手順を示すフローチャートである。 (A)特徴量の1つである「タメ時間」を説明する説明図であり、(B)特徴量の1つである「音高特徴」を説明する説明図である。 特徴量の1つである「ビブラート特徴」を説明する説明図である。 評価処理の処理手順を示すフローチャートである。 第2実施形態における類似歌手特定処理の処理手順を示すフローチャートである。 再生処理の変形例の処理手順を示すフローチャートである。
以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
<カラオケシステム>
図1に示すカラオケシステム1は、情報処理サーバ10と、少なくとも1つのカラオケ装置30とを備えている。カラオケシステム1は、カラオケ装置30の利用者によって指定された楽曲を再生し、利用者の歌声を評価するシステムである。
楽曲とは、時間軸に沿って配置された複数の音符のうちの少なくとも一部に歌詞が割り当てられた音楽の曲である。以下では、カラオケ装置30の利用者によって指定された楽曲を指定楽曲と称す。
<情報処理サーバ>
情報処理サーバ10は、通信部12と、記憶部14と、制御部16とを備えている。
通信部12は、通信網を介してカラオケ装置30と接続され、カラオケ装置30との間で通信を行う。
記憶部14は、記憶内容を読み書き可能に構成された周知の記憶装置である。この記憶部14には、詳しくは後述する少なくとも1つのMIDI楽曲MDと、少なくとも1つの歌手特徴データCDと、少なくとも1つの歌唱データSDとが記憶される。
なお、図1に示す符号「n」は、情報処理サーバ10の記憶部14に記憶されているMIDI楽曲MDを識別する識別子である。符号「n」は、1以上の自然数である。符号「m」は、情報処理サーバ10の記憶部14に記憶されている歌手特徴データCDを識別する識別子である。符号「m」は、1以上の自然数である。また、符号「l」は、情報処理サーバ10の記憶部14に記憶されている歌唱データSDを識別する識別子である。符号「l」は、1以上の自然数である。
制御部16は、ROM18,RAM20,CPU22を備えたマイクロコンピュータを中心に構成された制御装置である。ROM18は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを記憶する。RAM20は、処理プログラムやデータを一時的に記憶する。CPU22は、ROM18やRAM20に記憶された処理プログラムに従って各処理を実行する。
また、ROM52には、利用者の歌い方に類似する歌手を特定する類似歌手特定処理を制御部50が実行するための処理プログラムが記憶されている。
<MIDI楽曲>
MIDI楽曲MDは、楽曲ごとに予め用意されたデータであり、楽譜データと、歌詞データと、楽曲情報とを備えている。
楽譜データは、MIDI(Musical Instrument Digital Interface)規格によって、一つの楽曲における歌唱旋律の楽譜を表したデータである。この楽譜データには、MIDI音源にて再生される個々の音符について、少なくとも、音高(いわゆるノートナンバー)と、音符長とが規定されている。楽譜データにおける音符長は、当該音符のノートオンタイミングと、当該音符のノートオフタイミングとによって規定されている。
歌唱旋律とは、利用者が歌唱するべき旋律であり、複数の音符が時間軸に沿って配置されることで構成される。
歌詞データは、楽曲の歌詞に関するデータであり、楽曲の歌詞のテキストを表す歌詞テキストデータと、歌詞のテキストの出力タイミングを楽譜データに基づく再生と対応付けた歌詞出力データとを備えている。歌詞テキストデータには、歌詞を構成する文字における母音を識別する情報を含む。
楽曲情報は、楽曲に関する情報である。楽曲情報には、楽曲を識別する識別情報(即ち、楽曲ID)と、楽曲の属性を表す楽曲属性と、当該楽曲の歌手に関する情報である歌手情報とを含む。
歌手とは、楽曲を歌唱した実演家としての歌い手であり、例えば、楽曲情報で対応付けられる楽曲を持ち歌として歌う歌い手である。ここで言う歌手には、楽曲を持ち歌として歌うプロの歌手であるオリジナル歌手と、楽曲をカバーして歌唱する歌手であるカバー歌手とが含まれる。すなわち、オリジナル歌手及びカバー歌手が、特許請求の範囲の記載における複数の既定の歌手の一例である。
そして、歌手情報には、歌手の氏名や、歌手を識別する歌手IDを含む。
楽曲の属性とは、楽曲の性質を表す指標である。楽曲の属性には、例えば、楽曲のジャンルや、当該楽曲を持ち歌とする歌手のジャンルなどを含む。
<歌手特徴データ>
歌手特徴データ群は、歌手特徴データCDを複数蓄積したデータ群である。
歌手特徴データCDは、図2に示すように、実演家である歌手の特徴量を発声情報ごとに表したデータである。歌手特徴データCDは、歌手ごとに予め用意されている。
歌手特徴データCDは、歌手属性と、発声情報と、歌手特徴量とを備えている。
発声情報は、単位音符と、発声母音とを備え、単位音符と発声母音との組み合わせによって規定される情報である。
ここで言う単位音符とは、時間軸に沿って連続する少なくとも2つの音符の組み合わせである。具体的に本実施形態における単位音符は、時間軸に沿って連続する3つの音符の組み合わせである。単位音符は、単位音符を構成する音符それぞれの音高と音符長との組み合わせによって規定される。
すなわち、本実施形態においては、単位音符として、対象音符と、その対象音符に時間軸に沿って前に位置する前音符と、対象音符に時間軸に沿って後ろに位置する後音符とを備えている。なお、本実施形態においては、対象音符の音符長として、対象音符の音価が規定されている。また、前音符の時間長として、前音符の再生開始タイミングから対象音符の再生開始タイミングまでの時間差が規定されている。後音符の時間長として、対象音符の再生開始タイミングから後音符の再生開始タイミングまでの時間差が規定されている。
発声母音は、単位音符において歌唱される歌詞の母音である。発声母音は、対象音符において歌唱される歌詞の母音だけであってもよいし、対象音符と前音符と後音符とのそれぞれにおいて歌唱される歌詞の母音の組み合わせであってもよい。
歌手特徴量は、複数の既定の歌手の各々における歌い方の特徴を表す特徴量であり、対象音符を歌手それぞれが歌唱した場合の特徴量である。
ここで言う特徴量とは、歌声における音声の特徴を表す特徴量である。この特徴量として、詳しくは後述する「時間特徴」、「音高特徴」、「ビブラート特徴」、「音量特徴」
、「スペクトル特徴」,「声質特徴量」などを含む。
時間特徴には、タメ時間を含む。音高特徴には、音高変化微分(開始)、音高変化微分(終了)を含む。ビブラート特徴には、ビブラート周波数、ビブラート深さ、ビブラート開始時刻を含む。音量特徴には、音量平均、音量微分平均、音量比を含む。スペクトル特徴には、スペクトル変動指数を含む。各特徴量の詳細については、後述する。
歌手属性は、歌手に関する情報である。歌手属性には、歌手の氏名と、歌手を識別する識別番号である歌手IDと、特定特徴量とを含む。ここで言う特定特徴量とは、当該歌手に特徴的な特徴量であり、予め指定された種類の特徴量である。特定特徴量は、例えば、「タメ」、「ビブラート」などの技巧の多用を示すものや、歌手が歌唱するジャンルであってもよい。この特定特徴量は、1種類の特徴量であってもよいし、複数種類の特徴量であってもよい。
すなわち、歌手特徴データCDは、音高と音符長とによって規定される音符のそれぞれに割り当てられた歌詞の発声母音それぞれを複数の実演家である歌手それぞれが歌唱した場合の特徴量を表したデータである。
<カラオケ装置>
カラオケ装置30は、通信部32と、入力受付部34と、楽曲再生部36と、記憶部38と、音声制御部40と、映像制御部46と、制御部50とを備えている。
通信部32は、通信網を介して、情報処理サーバ10との間で通信を行う。入力受付部34は、外部からの操作に従って情報や指令の入力を受け付ける入力機器である。ここでの入力機器とは、例えば、キーやスイッチ、リモコンの受付部などである。
楽曲再生部36は、情報処理サーバ10からダウンロードしたMIDI楽曲MDに基づく楽曲の再生を実行する。この楽曲再生部36は、例えば、MIDI音源である。音声制御部40は、音声の入出力を制御するデバイスであり、出力部42と、マイク入力部44とを備えている。
マイク入力部44には、マイク62が接続される。これにより、マイク入力部44は、マイク62を介して入力された音声を取得する。出力部42は、楽曲再生部36によって再生される楽曲の音源信号、マイク入力部44からの歌唱音の音源信号をスピーカ60に出力する。スピーカ60は、出力部42から出力される音源信号を音に換えて出力する。
映像制御部46は、制御部50から送られてくる映像データに基づく映像または画像の出力を行う。映像制御部46には、映像または画像を表示する表示部64が接続されている。
記憶部38は、記憶内容を読み書き可能に構成された周知の記憶装置である。
制御部50は、ROM52,RAM54,CPU56を少なくとも有した周知のコンピュータを中心に構成されている。ROM52は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを記憶する。RAM54は、処理プログラムやデータを一時的に記憶する。CPU56は、ROM52やRAM54に記憶された処理プログラムに従って各処理を実行する。
ROM52には、指定楽曲データに基づいて指定楽曲を再生する再生処理を制御部50が実行するための処理プログラムが記憶されている。
<再生処理>
図3に示す再生処理が起動されると、カラオケ装置30の制御部50は、まず、入力受
付部34を介して入力された利用者IDを取得する(S110)。続いて、制御部50は、指定楽曲の楽曲IDを取得する(S120)。なお、利用者IDとは、利用者を識別する利用者識別情報である。
続いて、制御部50は、S120で取得した楽曲IDを含むMIDI楽曲MDを、情報処理サーバ10の記憶部14から取得する(S130)。さらに、制御部50は、S130で取得したMIDI楽曲MDに含まれている楽曲属性を取得する(S140)。
そして、制御部50は、当該指定楽曲の歌唱記録が情報処理サーバ10に存在するか否かを判定する(S150)。歌唱記録とは、当該指定楽曲を、現在の利用者が歌唱した記録である。歌唱記録は、詳しくは後述する類似歌手特定処理によって生成され、情報処理サーバ10に記憶される。
S150での判定の結果、歌唱記録が存在すれば(S150:YES)、制御部50は、詳しくは後述するS190へと再生処理を移行させる。一方、S150での判定の結果、歌唱記録が存在しなければ(S150:NO)、制御部50は、再生処理をS160へと移行させる。
そのS160では、制御部50は、MIDI楽曲MDに基づいて指定楽曲の再生を実行する。具体的には制御部50は、楽曲再生部36にMIDI楽曲MDを時間軸に沿って順次出力する。すると、楽曲再生部36は、指定楽曲の音源信号を、出力部42を介してスピーカ60へと出力する。これにより、指定楽曲の再生音が、スピーカ60から放音される。
S160では、制御部50は、更に、歌詞出力データ及び歌詞テキストデータを映像制御部46に出力する。すると、映像制御部46は、指定楽曲の再生に併せて歌詞構成文字を表示部64に順次出力する。これにより、指定楽曲の歌詞が表示部64に表示される。
続いて、制御部50は、マイク62を介して入力された音声を歌唱データSDとして取得する(S170)。歌唱データとは、利用者が発した音声であり、利用者が指定楽曲を歌唱した歌声を表すデータである。
さらに、S170では、制御部50は、取得した歌唱データSDを、歌唱利用者識別情報及び再生楽曲識別情報と対応付けて、情報処理サーバ10の記憶部14に記憶する。
なお、歌唱利用者識別情報とは、指定楽曲を歌唱する利用者の利用者IDである。この歌唱利用者識別情報は、今回起動された再生処理におけるS110で取得された利用者IDである。また、再生楽曲識別情報とは、再生されている指定楽曲の楽曲識別情報である。この再生楽曲識別情報は、今回起動された再生処理におけるS120で取得された楽曲IDである。
制御部50は、その後、再生処理をS250へと移行させる。
そのS250では、制御部50は、類似歌手特定処理を情報処理サーバ10に実行させるための実行指令を、情報処理サーバ10に出力する。類似歌手特定処理は、詳しくは後述するが、利用者の歌い方に類似する歌手である類似歌手を特定し、歌唱記録を記憶する処理である。この類似歌手特定処理が実行されることにより、歌唱利用者識別情報と、再生楽曲識別情報と、類似歌手の属性を表す類似歌手属性とを対応付けたデータが歌唱記録として情報処理サーバ10に記憶される。
また、類似歌手とは、歌唱利用者識別情報で識別される利用者の歌い方に類似する歌手である。類似歌手属性とは、類似歌手の特性を表す情報であり、例えば、類似歌手を識別
する歌手IDや、類似歌手の氏名である。あるいは、類似歌手が歌唱を得意とする楽曲のジャンルであってもよい。
ところで、情報処理サーバ10に当該指定楽曲の歌唱記録が存在する場合に移行するS190では、制御部50は、歌唱利用者識別情報及び再生楽曲識別情報と対応付けられた類似歌手属性を取得する。さらに、制御部50は、取得した類似歌手属性に対応する歌手特徴データ(以下、類似特徴データ)CDを取得する。
続いて、制御部50は、S190で取得した類似特徴データと指定楽譜データとに基づいて、評価基準データを生成する(S200)。指定楽譜データとは、指定楽曲における歌唱旋律を表す楽譜のデータである。本実施形態においては、先のS120で取得したMIDI楽曲MDに含まれている楽譜データを、指定楽譜データとする。
評価基準データとは、類似歌手が指定楽曲を歌唱した場合の歌い方を表すデータである。具体的には、指定楽譜データによって表される音符に、当該音符の音高,音符長及び発声母音に一致する単位音符に対応付けられた特徴量を割り当てたデータである。すなわち、S200では、制御部50は、指定楽譜データによって表される各音符に、類似特徴データに含まれる歌手特徴量の中で、当該音符の音符パラメータに一致する発声情報と対応付けられた特徴量を反映して割り当てることで、評価基準データを生成すればよい。
続いて、再生処理では、制御部50は、MIDI楽曲MDに基づいて指定楽曲の再生を実行する(S210)。具体的には制御部50は、楽曲再生部36にMIDI楽曲MDを時間軸に沿って順次出力する。すると、楽曲再生部36は、指定楽曲の音源信号を、出力部42を介してスピーカ60へと出力する。これにより、指定楽曲の再生音がスピーカ60から放音される。
S210では、制御部50は、更に、歌詞データを映像制御部46に出力する。すると、映像制御部46は、指定楽曲の再生に併せて歌詞を表示部64に順次出力する。これにより、指定楽曲の歌詞が表示部64に表示される。
続いて、制御部50は、マイク62を介して入力された音声を歌唱データSDとして取得する(S220)。さらに、S220では、制御部50は、取得した歌唱データSDを、歌唱利用者識別情報及び再生楽曲識別情報と対応付けて、情報処理サーバ10の記憶部14に記憶する。
続いて、制御部50は、指定楽曲において規定された評価区間の再生が終了したか否かを判定する(S230)。評価区間とは、指定楽曲に対して予め規定された区間であり、例えば、指定楽曲における最初の数フレーズや、指定楽曲における最初のサビが終了するまでの区間などである。また、評価区間は、指定楽曲に対して予め規定された区間であれば、楽曲における一部または全部の区間であってもよい。
このS230での判定の結果、評価区間の再生が終了していなければ(S230:NO)、制御部50は、再生処理をS220へと戻す。そして、評価区間の再生が終了すると(S230:YES)、制御部50は、再生処理をS240へと移行させる。
そのS240では、制御部50は、評価処理を実行する。評価処理は、評価基準データに基づいて、ユーザの歌唱を評価する処理である。この評価処理の処理内容については、詳しくは後述する。
再生処理では、続いて、類似歌手特定処理を情報処理サーバ10に実行させるための実
行指令を、情報処理サーバ10に出力する(S250)。
制御部50は、その後、再生処理を終了する。
<類似歌手特定処理>
次に情報処理サーバ10において類似歌手特定処理が起動されると、制御部16は、図4に示すように、起動のトリガーとなった実行指令を出力した再生処理における歌唱利用者識別情報及び再生楽曲識別情報を、カラオケ装置30から取得する(S310)。続いて、制御部16は、S310で取得した歌唱利用者識別情報及び再生楽曲識別情報と対応付けられた歌唱データSDを、記憶部14から取得する(S320)。
さらに、類似歌手特定処理では、S320で取得した歌唱データSDを音響分析する(S330)。このS330における音響分析では、制御部16は、周波数スペクトル推移、基本周波数推移、及び音圧推移を導出する。
周波数スペクトル推移の導出では、制御部16は、まず、予め規定された単位時間の分析窓を、互いに隣接かつ少なくとも一部が重複するように歌唱データSDに対して設定する。そして、音響分析では、制御部16は、歌唱データSDの分析窓それぞれについて、周波数解析(例えば、DFT)を実施する。この周波数解析を分析窓ごとに実行した結果を時間軸に沿って配置することで、周波数スペクトル推移を導出する。
また、基本周波数推移の導出方法の一例としては、設定された時間分析窓それぞれの歌唱データSDについて周波数解析(例えば、DFT)を実行し、自己相関の結果、最も強い周波数成分を基本周波数として導出することが考えられる。そして、このように導出した基本周波数を時間軸に沿って配置することで、基本周波数推移を導出することが考えられる。
さらに、音圧推移の導出方法の一例としては、時間分析窓ごとに、歌唱データSDの振幅の二乗平均の平方根を音圧として導出することが考えられる。そして、このように導出した音圧を時間軸に沿って配置することで、音圧推移を導出することが考えられる。
さらに、類似歌手特定処理では、制御部16は、S330にて導出した歌唱データSDの周波数スペクトル推移、基本周波数推移、音圧推移、及びS320で取得した歌唱データSDそのものを分析して歌声特徴量を導出する(S340)。ここで言う歌声特徴量とは、利用者の歌い方の特徴を表す特徴量である。歌声特徴量には、「タメ時間」、「音高変化微分(開始)」、「音高変化微分(終了)」、「ビブラート周波数」、「ビブラート深さ」、「ビブラート開始時刻」、「音量平均」、「音量微分平均」、「音量比」、「スペクトル変動指数」、「声質特徴量」を含む。
まず、タメ時間の導出方法の一例について説明する。
タメ時間の導出では、例えば、制御部16は、図5(A)に示すように、歌唱データSDにおける発声開始タイミングと、MIDI楽曲MDにおける音符のノートオンタイミングとの、対応する音符ごとの時間差分を、各音符に対する「タメ時間」として特定する。
なお、歌唱データSDにおける発声開始タイミングの特定方法としては、周知の手法を用いればよい。具体的には歌唱データSDの音圧の推移において、その音圧が閾値以上となるタイミングを発声開始タイミングとして特定すればよい。
次に、音高変化微分(開始)、音高変化微分(終了)の導出方法の一例について説明する。音高変化微分(開始)、音高変化微分(終了)とは、それぞれ、音高遷移音符群における音高の移行区間において、音高の変化が開始される変化開始タイミング、及び音高の変化が終了される変化終了タイミングでの、歌唱データSDの基本周波数推移における傾
きである。なお、音高遷移音符群とは、連続する音符であり、かつ互いの音高が異なる音符の組である。
具体的に、音高変化微分(開始)、音高変化微分(終了)の導出では、図5(B)に示すように、制御部16は、基本周波数推移の中から、一つの時間窓における基本周波数(以下、第1探索音高と称す)を抽出する。そして、第1探索音高に対応する時間窓よりも時間軸に沿って前のN個分の時間窓における基本周波数の平均値に対する、第1探索音高の変化率が、規定された第1比率以上となる時間窓を変化開始タイミングとする。なお、ここで言う第1比率とは、音高遷移音符群を構成する音符間の音高差に対して規定されたものであり、例えば、αパーセントであってもよい。
また、基本周波数推移の中から、一つの時間窓における基本周波数(以下、第2探索音高と称す)を抽出する。そして、第2探索音高に対応する時間窓よりも時間軸に沿って後のN個分の時間窓における基本周波数の平均値に対する、第2探索音高の変化率が、規定された第2比率未満となる時間窓を変化終了タイミングとする。なお、ここで言う第2比率とは、音高遷移音符群を構成する音符間の音高差に対して規定されたものであり、例えば、βパーセントであってもよい。
さらに、制御部16は、変化開始タイミングにおける第1探索音高の変化率、変化終了タイミングにおける第2探索音高の変化率のそれぞれを、音高変化微分(開始)、音高変化微分(終了)として導出する。
音高一致度、ビブラート周波数、ビブラート深さ、ビブラート開始時刻の導出方法の一例について説明する。
まず、音高一致度の導出では、制御部16は、図6に示すように、各音符の音高に対する基本周波数推移の一致度の平均値を音高一致度として導出する。ここで言う一致度は、半音単位で算出してもよい。
また、ビブラート周波数、ビブラート深さ、ビブラート開始時間の導出方法としては、周知の方法を用いればよい。ビブラート周波数、ビブラート深さ、ビブラート開始時間の導出方法の一例として、特開2010−085655号公報に記載された方法を用いてもよい。
なお、ここで言うビブラート周波数は、図6に示すように、ビブラートを用いて歌唱された歌唱データSDの区間における基本周波数の振動周期の逆数である。ビブラート深さは、ビブラートを用いて歌唱された歌唱データSDの区間における基本周波数の周波数軸に沿った振れ幅を表す。ビブラート開始時間は、歌唱データSDにおいて、ビブラートを用いて歌唱が開始されたタイミングである。
音量平均、音量微分平均、音量比の導出方法の一例について説明する。
音量平均の導出では、制御部16は、音圧推移において、音符内での音圧の平均値を音量平均として導出する。さらに、音量微分平均の導出では、制御部16は、音圧推移において音符内での微分値の平均値を音量微分平均として導出する。また、音量比の導出では、制御部16は、音圧推移において、対象音符に対する音圧と前音符に対する音圧との比を音量比として導出する。
スペクトル変動指標の導出方法の一例について説明する。
スペクトル変動指標の導出では、制御部16は、周波数スペクトル推移における音符内のスペクトル包絡に関して、隣接する分析窓間全てに対して相関関数を算出する。そして、制御部16は、相関関数の絶対値の音符ごとの平均値をスペクトル変動指標として導出
する。
声質特徴量の導出方法の一例について説明する。
声質特徴量の導出では、制御部16は、歌唱データSDの分析窓それぞれについて、周波数解析(例えば、DFT)を実施する。制御部16は、周波数スペクトル推移に対してケプストラム分析を実行することで、各分析窓のメル周波数ケプストラム(MFCC)を算出する。そして、制御部16は、分析窓ごとのメル周波数ケプストラム(MFCC)を、音符に設定された全ての分析窓に渡って相加平均し、その相加平均の結果を、各音符の声質特徴量として導出する。
類似歌手特定処理では、続いて、制御部16は、S310で取得した再生楽曲識別情報に対応するMIDI楽曲MDに基づいて、音符の音符パラメータを特定する(S350)。音符パラメータとは、主音符と主音符の前後の音符における音高との組み合わせである。この音符パラメータは、各音符の音符長、音高、及び各音符それぞれにて歌唱される歌詞の母音との組み合わせである。
さらに、類似歌手特定処理では、制御部16は、情報処理サーバ10に格納されている歌手特徴データの個数を、歌手の総数を表す歌手総数として取得する(S360)。続いて、制御部16は、類似歌手を探索する対象(以下、被探索歌手と称す)を表す歌手IDである歌手インデックスSiを初期値に設定する(S370)。
そして、類似歌手特定処理では、制御部16は、歌手インデックスSiが歌手総数未満であるか否かを判定する(S380)。このS380での判定の結果、歌手インデックスSiが歌手総数以上であれば(S380:NO)、制御部16は、詳しくは後述するS460へと類似歌手特定処理を移行させる。
一方、S380での判定の結果、歌手インデックスSiが歌手総数未満であれば(S380:YES)、制御部16は、類似歌手特定処理をS390へと移行させる。そのS390では、制御部16は、歌手インデックスSiが含まれる歌手特徴データCDを記憶部14から取得する。
続いて、制御部16は、取得した歌手特徴データCDに含まれる歌手特徴量の中から、S350で特定した音符の音符パラメータに一致する発声情報と対応付けられた歌手特徴量を取得する(S400)。そして、制御部16は、S340で導出した歌声特徴量と、S400で取得した歌手特徴量との、対応する音符ごとの内積を評価内積として算出する(S410)。S410では、制御部16は、特徴量の種類ごと、かつ音符の音符パラメータごとに評価内積を算出する。
さらに、類似歌手特定処理では、制御部16は、評価内積の代表値である内積代表値を算出する(S420)。S420では、制御部16は、特徴量ごと、かつ音符ごとに評価内積を算出された評価内積を相加平均した結果を、内積代表値として算出すればよい。
類似歌手特定処理では、制御部16は、今回のS420で算出した内積代表値(以下、今代表値と称す)が、前回以前にS420で算出された内積代表値の中で最大の内積代表値(以下、最大値と称す)よりも大きいか否かを判定する(S430)。このS430での判定の結果、今代表値が最大値よりも大きければ(S430:YES)、制御部16は、今回のサイクルにて設定されている歌手インデックスSiを、類似歌手インデックスSSiとして設定する(S440)。なお、S440へと移行する条件は、今代表値が最大値以上である場合であってもよい。万が一、内積代表値が同じ歌手インデックスSiが2つ以上存在した場合は、同じ内積代表値の歌手インデックスSiからランダムに何れかの
歌手インデックスSiを選択し、類似歌手インデックスSSiとしてもよい。あるいは、いずれかの特定特徴量が大きい歌手インデックスSiを、類似歌手インデックスSSiとしてもよい。ここで言う類似歌手インデックスSSiとは、被探索歌手の歌手IDであり、類似歌手である可能性が最も高い歌手を示す歌手IDである。
制御部16は、その後、類似歌手特定処理をS450へと移行させる。
ところで、S430での判定の結果、今代表値が最大値以下であれば(S430:NO)、制御部16は、S440を実行することなく、類似歌手特定処理をS450へと移行させる。
そのS450では、制御部16は、歌手インデックスSiを一つインクリメントする。制御部16は、その後、類似歌手特定処理をS380へと戻す。そして、制御部16は、情報処理サーバ10に格納された全ての歌手特徴データに含まれる歌手特徴量と、歌声特徴量との内積の算出(即ち、照合)が完了するまで、S380からS450までのステップを繰り返す。
そして、全ての歌手特徴データに含まれる歌手特徴量と歌声特徴量との内積の算出が完了すると(即ち、S380での判定の結果、歌手インデックスSiが歌手総数以上となると)移行するS460では、制御部16は、類似歌手インデックスSSiが含まれる歌手特徴データに含まれる歌手属性を、類似歌手属性として取得する。
類似歌手特定処理では、続いて、制御部16は、S310で取得した歌唱利用者識別情報及び再生楽曲識別情報と、S460で取得した類似歌手属性とを対応付けたデータを歌唱記録として生成する(S470)。
さらに、制御部16は、S310で取得した歌唱利用者識別情報及び再生楽曲識別情報を含む歌唱記録が、記憶部14に記憶されているか否かを判定する(S480)。判定の結果、歌唱記録が記憶されていなければ(S480:NO)、制御部16は、S470で生成した歌唱記録を記憶部14に新たに記憶する(S490)。制御部16は、その後、類似歌手特定処理を終了する。
一方、S480での判定の結果、S310で取得した歌唱利用者識別情報及び再生楽曲識別情報を含む歌唱記録が記憶されていれば(S480:YES)、制御部16は、記憶部14に記憶されている歌唱記録を、S470で生成した歌唱記録へと更新する(S500)。制御部16は、その後、類似歌手特定処理を終了する。
つまり、類似歌手特定処理では、制御部16は、類似歌手を特定し、歌唱利用者識別情報及び再生楽曲識別情報と類似歌手属性とを対応付けた歌唱記録を生成して記憶する。
<評価処理>
カラオケ装置30にて評価処理が起動されると、制御部50は、図7に示すように、まず、先のS220で取得した歌唱データSDを音響分析する(S610)。このS610における音響分析では、制御部50は、周波数スペクトル推移、基本周波数推移、及び音圧推移を導出する。ここで言う音響分析は、類似歌手特定処理におけるS330と同様であるため、ここでの詳しい説明は省略する。
評価処理では、制御部50は、歌唱データSDを分析して、歌唱データSDにおける特徴量である歌声特徴量を導出する(S620)。この歌声特徴量の導出方法は、S340における歌声特徴量の導出方法と同様の手法を用いればよい。
制御部50は、指定楽曲の評価区間に含まれる音符の音符パラメータに一致する発声情
報と対応付けられた歌手特徴量を、類似特徴データから取得する(S630)。
そして、評価処理では、制御部50は、評価項目を表す評価インデックスEiを初期値に設定する(S640)。ここで言う評価項目とは、評価の対象とする特徴量である。評価項目の一例として、「時間特徴」、「音高特徴」、「ビブラート特徴」、「音量特徴」、「スペクトル特徴」、「声質特徴量」が挙げられる。
続いて制御部50は、評価インデックスEiが評価項目の総数未満であるか否かを判定する(S650)。このS650での判定の結果、評価インデックスEiが評価項目の総数以上であれば(S650:NO)、制御部50は、詳しくは後述するS720へと評価処理を移行させる。
一方、S650での判定の結果、評価インデックスEiが評価項目の総数未満であれば(S650:YES)、制御部50は、評価処理をS660へと移行させる。そのS660では、評価インデックスEiによって表される評価項目に含まれる特徴量が一次元であるか否かを判定する。このS660では、例えば、評価インデックスEiによって表される評価項目が「時間特徴」であれば、その時間特徴に含まれる特徴量は「タメ時間」だけであるため、制御部50は、特徴量が一次元であるものと判定する。一方、S660では、例えば、評価インデックスEiによって表される評価項目が「ビブラート特徴」であれば、そのビブラート特徴には「ビブラート周波数」、「ビブラート深さ」、「ビブラート開始時刻」が含まれるため、制御部50は、特徴量が一次元ではないものと判定する。
そして、S660での判定の結果、評価インデックスEiによって表される評価項目に含まれる特徴量が一次元であれば(S660:YES)、制御部50は、時間軸に沿って、歌手特徴量と歌声特徴量との正規化された相互相関値を算出する(S670)。その後、制御部50は、詳しくは後述するS700へと評価処理を移行させる。
一方、S660での判定の結果、評価インデックスEiによって表される評価項目に含まれる特徴量が一次元でなければ(S660:NO)、制御部50は、音符ごとに、歌手特徴量と歌声特徴量との内積を算出する(S680)。続いて、制御部50は、S680で算出した内積の代表値である項目代表値を算出する(S690)。ここで言う代表値とは、平均値であってもよいし、最頻値であってもよい。制御部50は、その後、評価処理をS700へと移行させる。
そのS700では、制御部50は、S670で算出された相互相関値、またはS690で算出された項目代表値を、評価インデックスEiによって表される評価項目に対する評価値へと変換する。このS700では、制御部50は、歌手特徴量と歌声特徴量との相関が高いほど高い評価となる評価値へと変換すればよい。
評価処理では、続いて、制御部50は、評価インデックスEiを1つインクリメントする(S710)。制御部50は、その後評価処理をS650へと戻す。
ところで、評価インデックスEiが評価項目の総数以上となった場合に移行するS720では、制御部50は、S700で変換された評価項目ごとの評価値を、映像制御部46へと出力する。この評価項目ごとの評価値を取得した映像制御部46は、評価項目ごとの評価値を表示部64に表示させる。
さらに、評価処理では、制御部50は、総合評価を算出する(S730)。このS730では、評価項目ごとの評価値を加算した結果を総合評価として算出してもよいし、評価項目ごとの評価値を重み付け加算した結果を総合評価として算出してもよい。なお、総合評価の算出方法はこれに限るものではなく、例えば、評価項目ごとの評価値の平均値を総合評価としてもよい。さらには、指定楽曲の主旋律を構成する音符の音高と、歌唱データ
SDの基本周波数推移との一致度に、評価項目ごとの評価値の平均値を加算した結果を総合評価としてもよいし、その他の方法で算出してもよい。
評価処理では、続いて制御部50は、S730で算出した総合評価を映像制御部46へと出力する(S740)。これにより、総合評価は、表示部64に表示される。
さらに、制御部50は、先のS190で取得した類似歌手属性を映像制御部46へと出力する(S750)。これにより、類似歌手属性、即ち、少なくとも、類似歌手の氏名が表示部64に表示される。
その後、制御部50は、本評価処理を終了する。
[第1実施形態の効果]
このようなカラオケシステム1では、カラオケシステム1の利用者が歌唱した音声に基づいて、類似歌手を特定する。そして、カラオケシステム1では、同一の楽曲を同一の利用者が改めて歌唱する場合、類似歌手の歌い方の特徴を反映した評価基準データを生成する。すなわち、評価基準データは、類似歌手の歌手特徴量を当該指定楽曲の楽譜データに反映したデータであり、類似歌手が指定楽曲を歌唱した場合の歌い方の特徴が現れたデータである。
したがって、カラオケシステム1によれば、類似歌手が指定楽曲を歌唱した場合、どのような歌い方をするのかという点を基準として、利用者の歌い方を評価できる。このため、カラオケシステム1によれば、カラオケシステム1の利用者の歌い方の特徴が、指定楽曲を歌唱する歌手の歌い方の特徴に類似していない場合であっても、評価が低くなることを抑制できる。
換言すると、カラオケシステム1によれば、評価が低く利用者のモチベーションが上がらなくなることを抑制できる。
[第2実施形態]
第2実施形態におけるカラオケシステムは、第1実施形態のカラオケシステムとは、主として情報処理サーバ10が実行する類似歌手特定処理が異なる。このため、共通する構成及び処理については、同一符号を付して説明を省略し、相違点である類似歌手特定処理を中心に説明する。
<類似歌手特定処理>
本実施形態の類似歌手特定処理が起動されると、制御部16は、図8に示すように、起動のトリガーとなった実行指令を出力した再生処理における歌唱利用者識別情報を、カラオケ装置30から取得する(S810)。続いて、制御部16は、S810で取得した歌唱利用者識別情報と対応付けられた全ての再生楽曲識別情報と対応する歌唱データSDのそれぞれを、記憶部14から取得し、音響分析を実行する(S820)。このS820における音響分析では、制御部16は、周波数スペクトル推移、基本周波数推移、及び音圧推移を導出する。
続いて、制御部16は、S830にて導出した歌唱データSDの周波数スペクトル推移、基本周波数推移、音圧推移、及びS820で取得した歌唱データSDそのものを分析して歌声特徴量を導出する(S830)。
そして、制御部16は、S810で取得した再生楽曲識別情報に対応するMIDI楽曲MDに基づいて、音符の音符パラメータを特定する(S840)。さらに、制御部16は、S830で導出した歌声特徴量を、S840で特定した音符パラメータに従って、クラスタリングする(S850)。
さらに、類似歌手特定処理では、制御部16は、歌手総数を取得する(S860)。続
いて、制御部16は、歌手インデックスSiを初期値に設定する(S870)。そして、制御部16は、歌手インデックスSiが歌手総数未満であるか否かを判定する(S880)。
このS880での判定の結果、歌手インデックスSiが歌手総数以上であれば(S880:NO)、制御部16は、詳しくは後述するS960へと類似歌手特定処理を移行させる。
一方、S880での判定の結果、歌手インデックスSiが歌手総数未満であれば(S880:YES)、制御部16は、類似歌手特定処理をS890へと移行させる。そのS890では、制御部16は、歌手インデックスSiが含まれる歌手特徴データCDを記憶部14から取得する。
続いて、制御部16は、取得した歌手特徴データCDに含まれる歌手特徴量の中から、S850で特定した音符の音符パラメータに一致する発声情報と対応付けられた歌手特徴量を取得する(S900)。そして、制御部16は、S840で導出した歌声特徴量と、S900で取得した歌手特徴量との、対応する音符ごとの内積を評価内積として算出する(S910)。S910では、制御部16は、特徴量の種類ごと、かつ音符の音符パラメータごとに評価内積を算出する。
さらに、類似歌手特定処理では、制御部16は、内積代表値を算出する(S920)。S920では、制御部16は、特徴量ごと、かつ音符ごとに算出された評価内積を相加平均した結果を、内積代表値として算出すればよい。
類似歌手特定処理では、制御部16は、今代表値が、最大値よりも大きいか否かを判定する(S930)。このS930での判定の結果、今代表値が最大値よりも大きければ(S930:YES)、制御部16は、今回のサイクルにて設定されている歌手インデックスSiを、類似歌手インデックスSSiとして設定する(S940)。
制御部16は、その後、類似歌手特定処理をS950へと移行させる。
ところで、S930での判定の結果、今代表値が最大値以下であれば(S930:NO)、制御部16は、S940を実行することなく、類似歌手特定処理をS950へと移行させる。
そのS950では、制御部16は、歌手インデックスSiを一つインクリメントする。制御部16は、その後、類似歌手特定処理をS880へと戻す。そして、制御部16は、情報処理サーバ10に格納された全ての歌手特徴データに含まれる歌手特徴量と、歌声特徴量との内積の算出(即ち、照合)が完了するまで、S880からS950までのステップを繰り返す。
そして、全ての歌手特徴データに含まれる歌手特徴量と歌声特徴量との内積の算出が完了すると(即ち、S880での判定の結果、歌手インデックスSiが歌手総数以上となると)移行するS960では、制御部16は、類似歌手インデックスSSiが含まれる歌手特徴データが属するクラス(即ち、クラスタリングされたグループ)の楽曲属性それぞれを取得する。
続いて、制御部16は、S960で取得した楽曲属性の代表的な属性である代表属性を決定する(S970)。S970では、制御部16は、楽曲属性のヒストグラムにおいて、頻度が最も高い楽曲属性を代表属性として決定すればよい。
さらに、制御部16は、S810で取得した歌唱利用者識別情報と、S960で取得した代表属性とを対応付けたデータを歌唱記録として生成する(S980)。そして、制御部16は、S810で取得した歌唱利用者識別情報を含む歌唱記録が、記憶部14に記憶されているか否かを判定する(S990)。判定の結果、歌唱記録が記憶されていなければ(S990:NO)、制御部16は、S980で生成した歌唱記録を記憶部14に新たに記憶する(S1000)。制御部16は、その後、類似歌手特定処理を終了する。
一方、S990での判定の結果、S810で取得した歌唱利用者識別情報を含む歌唱記録が記憶されていれば(S990:YES)、制御部16は、記憶部14に記憶されている歌唱記録を、S980で生成した歌唱記録へと更新する(S1010)。制御部16は、その後、類似歌手特定処理を終了する。
つまり、類似歌手特定処理では、制御部16は、類似歌手を特定し、歌唱利用者識別情報及び再生楽曲識別情報と類似歌手属性とを対応付けた歌唱記録を生成して記憶する。
[第2実施形態の効果]
以上説明したように、本実施形態の類似歌手特定処理によれば、利用者が歌唱した楽曲の特性を分類した結果を歌手属性とすることができる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
(1) 上記実施形態の再生処理では、歌唱記録が存在していない場合には、評価処理を実行することなく終了していたが、再生処理はこれに限るものではない。
例えば、再生処理では、図9に示すように、歌唱記録が存在していない場合(S150:NO)に、再生楽曲識別情報に基づいて評価基準データを生成し(S175)、その評価基準データに基づいて歌唱データSDを評価(S180)してもよい。
ここで言う再生楽曲識別情報に基づく評価基準データの生成とは、再生楽曲識別情報と同じジャンルの楽曲の楽曲IDと対応付けられた類似歌手属性に基づいて評価基準データを生成することでもよい。また、再生楽曲識別情報によって識別される楽曲の楽譜データを評価基準データとして、歌唱データにおける音高の推移と、楽譜データにおける音符音高の推移とを比較することで、利用者の歌唱の評価を実行してもよい。
このようなカラオケシステムによれば、利用者が過去に歌唱したことの無い楽曲を歌唱する場合、その歌唱したことの無い楽曲の楽曲識別情報に基づいて評価基準データを生成して利用者の歌唱を評価することができる。
(2) また、上記実施形態では、類似歌手特定処理の実行主体を、情報処理サーバ10の制御部16としていたが、類似歌手特定処理の実行主体は、カラオケ装置30の制御部50であってもよい。この場合、歌唱記録は、情報処理サーバ10に記憶してもよいし、カラオケ装置30に記憶してもよい。
さらに言えば、歌唱記録を記憶する記憶先は、情報処理サーバ10や、カラオケ装置30に限るものではなく、その他の外部機器であってもよい。
(3) なお、上記実施形態の構成の一部を省略した態様も本発明の実施形態である。また、上記実施形態と変形例とを適宜組み合わせて構成される態様も本発明の実施形態である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。
(4) また、本発明は、前述したカラオケシステムの他、カラオケ装置、カラオケ装置が備えるコンピュータに実行させるプログラム、歌唱音声を評価する評価方法等、種々の形態で実現することができる。
[対応関係の一例]
再生処理におけるS110,S160を実行することで得られる機能が、再生手段の一例に相当する。S170,S220を実行することで得られる機能が、取得手段の一例に相当する。S200を実行することで得られる機能が、生成手段の一例に相当する。S240を実行することで得られる機能が、評価手段の一例に相当する。
類似歌手特定処理におけるS340を実行することで得られる機能が、特徴特定手段の一例に相当する。S390〜S470を実行することで得られる機能が、歌手特定手段に相当する。S480〜S500を実行することで得られる機能が、記憶手段の一例に相当する。
さらに、再生処理におけるS120を実行することで得られる機能が、楽曲ID取得手段の一例に相当する。S110を実行することで得られる機能が、利用者ID取得手段の一例に相当する。
1…カラオケシステム 10…情報処理サーバ 12…通信部 14…記憶部 16,50…制御部 18,52…ROM 20,54…RAM 22,56…CPU 30…カラオケ装置 32…通信部 34…入力受付部 36…楽曲再生部 38…記憶部 40…音声制御部 42…出力部 44…マイク入力部 46…映像制御部 60…スピーカ 62…マイク 64…表示部

Claims (6)

  1. 歌詞が割り当てられた楽曲のうち指定された楽曲である指定楽曲を再生する再生手段と、
    前記再生手段による前記指定楽曲の再生中にマイクを介して入力された音声である歌唱データを取得する取得手段と、
    前記取得手段で取得された前記歌唱データから、利用者が前記指定楽曲を歌唱した歌い方の特徴を表す歌声特徴量を特定する特徴特定手段と、
    複数の既定の歌手の各々における歌い方の特徴を表す歌手特徴量と、当該既定の歌手の各々の属性を表す歌手属性とが対応付けられたデータ群である歌手特徴データ群から、前記特徴特定手段で特定した前記歌声特徴量と類似度が最も高い歌手特徴量が対応付けられた前記歌手属性である類似歌手属性を特定する歌手特定手段と、
    前記利用者を識別する利用者識別情報及び前記指定楽曲を識別する楽曲識別情報と、前記歌手特定手段で特定された類似歌手属性とを対応付けて記憶部に記憶する記憶手段と、
    前記再生手段により再生される前記指定楽曲の前記楽曲識別情報と、前記利用者を識別する前記利用者識別情報とが、記憶部に対応付けて記憶されているか否かを判断する判断手段と、
    前記判断手段により前記記憶部に記憶されていると判断されたとき、前記歌手特徴データ群に含まれる歌手特徴量の中で、前記判断手段により記憶されていると判断された当該利用者識別情報及び当該楽曲識別情報と対応付けられた前記類似歌手属性に対応する歌手特徴量を、当該指定楽曲における歌唱旋律の楽譜を表す楽譜データに反映した評価基準データを生成する生成手段と、
    前記生成手段で生成した評価基準データに基づいて、前記取得手段で取得された歌唱データを評価する評価手段と
    を備える、カラオケシステム。
  2. 前記歌手属性は、
    前記複数の既定の歌手の各々を識別する歌手識別情報である、請求項1に記載のカラオケシステム。
  3. 前記歌手属性は、
    複数の楽曲の歌声データを、前記利用者識別情報ごとに、その利用者の歌声特徴量または楽曲ジャンルの種別に従って分類した情報である、請求項1に記載のカラオケシステム。
  4. 前記再生手段によって再生される前記指定楽曲の楽曲識別情報である再生楽曲識別情報を取得する楽曲ID取得手段と、
    前記再生楽曲識別情報によって識別される指定楽曲を歌唱する利用者の前記利用者識別情報である歌唱利用者識別情報を取得する利用者ID取得手段と、
    を、更に備え、
    前記生成手段は、
    前記判断手段により、前記再生手段により再生される前記指定楽曲の前記楽曲識別情報と、前記利用者を識別する前記利用者識別情報とが、記憶部に対応付けて記憶されていないと判断されたとき、前記利用者ID取得手段で取得した歌唱利用者識別情報、及び前記楽曲ID取得手段で取得した再生楽曲識別情報と同一の前記利用者識別情報及び前記楽曲識別情報が前記記憶部に記憶されていなければ、前記利用者が前記指定楽曲を歌唱して前記歌手特徴手段により特定された前記類似歌手属性が示す歌手特徴量を、前記再生楽曲識別情報が示す前記指定楽曲の前記楽譜データに反映した前記評価基準データを生成する、請求項1から請求項3までのいずれか一項に記載のカラオケシステム。
  5. 歌詞が割り当てられた楽曲のうち指定された楽曲である指定楽曲を再生する再生手段と、
    前記再生手段による前記指定楽曲の再生中にマイクを介して入力された音声である歌唱データを取得する取得手段と、
    前記取得手段で取得された前記歌唱データから、利用者が前記指定楽曲を歌唱した歌い方の特徴を表す歌声特徴量を特定する特徴特定手段と、
    複数の既定の歌手の各々における歌い方の特徴を表す歌手特徴量と、当該既定の歌手の各々の属性を表す歌手属性とが対応付けられたデータ群である歌手特徴データ群から、前記特徴特定手段で特定した前記歌声特徴量と類似度が最も高い歌手特徴量が対応付けられた前記歌手属性である類似歌手属性を特定する歌手特定手段と、
    前記利用者を識別する利用者識別情報及び前記指定楽曲を識別する楽曲識別情報と、前記歌手特定手段で特定された類似歌手属性とを対応付けて、接続された記憶部に記憶させる記憶制御手段と、
    前記再生手段により再生される前記指定楽曲の前記楽曲識別情報と、前記利用者を識別する前記利用者識別情報とが、記憶部に対応付けて記憶されているか否かを判断する判断手段と、
    前記判断手段により前記記憶部に記憶されていると判断されたとき、前記歌手特徴データ群に含まれる歌手特徴量の中で、前記判断手段により記憶されていると判断された当該利用者識別情報及び当該楽曲識別情報と対応付けられた前記類似歌手属性に対応する歌手特徴量を、当該指定楽曲における歌唱旋律の楽譜を表す楽譜データに反映した評価基準データを生成する生成手段と、
    前記生成手段で生成した評価基準データに基づいて、前記取得手段で取得された歌唱データを評価する評価手段と
    を備える、カラオケ装置。
  6. コンピュータに実行させるプログラムであって、
    歌詞が割り当てられた楽曲のうち指定された楽曲である指定楽曲を再生する再生手順と、
    前記再生手順による前記指定楽曲の再生中にマイクを介して入力された音声である歌唱データを取得する取得手順と、
    前記取得手順で取得された前記歌唱データから、利用者が前記指定楽曲を歌唱した歌い方の特徴を表す歌声特徴量を特定する特徴特定手順と、
    複数の既定の歌手の各々における歌い方の特徴を表す歌手特徴量と、当該既定の歌手の各々の属性を表す歌手属性とが対応付けられたデータ群である歌手特徴データ群から、前記特徴特定手順で特定した前記歌声特徴量と類似度が最も高い歌手特徴量が対応付けられた前記歌手属性である類似歌手属性を特定する歌手特定手順と、
    前記利用者を識別する利用者識別情報及び前記指定楽曲を識別する楽曲識別情報と、前記歌手特定手順で特定された類似歌手属性とを対応付けて、接続された記憶部に記憶させる記憶制御手順と、
    前記再生手順により再生される前記指定楽曲の前記楽曲識別情報と、前記利用者を識別する前記利用者識別情報とが、記憶部に対応付けて記憶されているか否かを判断する判断手順と、
    前記判断手順により前記記憶部に記憶されていると判断されたとき、前記歌手特徴データ群に含まれる歌手特徴量の中で、前記判断手順により記憶されていると判断された当該利用者識別情報及び当該楽曲識別情報と対応付けられた前記類似歌手属性に対応する歌手特徴量を、当該指定楽曲における歌唱旋律の楽譜を表す楽譜データに反映した評価基準データを生成する生成手順と、
    前記生成手順で生成した評価基準データに基づいて、前記取得手順で取得された歌唱データを評価する評価手順とを、
    前記コンピュータに実行させる、プログラム。
JP2016016181A 2016-01-29 2016-01-29 カラオケシステム、カラオケ装置、及びプログラム Active JP6365561B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016016181A JP6365561B2 (ja) 2016-01-29 2016-01-29 カラオケシステム、カラオケ装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016016181A JP6365561B2 (ja) 2016-01-29 2016-01-29 カラオケシステム、カラオケ装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017134346A JP2017134346A (ja) 2017-08-03
JP6365561B2 true JP6365561B2 (ja) 2018-08-01

Family

ID=59503691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016016181A Active JP6365561B2 (ja) 2016-01-29 2016-01-29 カラオケシステム、カラオケ装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6365561B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210790A (ja) * 2008-03-04 2009-09-17 Nec Software Kyushu Ltd 選曲歌手分析推薦装置、その方法及びプログラム
JP6065703B2 (ja) * 2013-03-27 2017-01-25 ブラザー工業株式会社 基準データ作成システム、及び演奏端末装置
JP6075314B2 (ja) * 2014-03-24 2017-02-08 ブラザー工業株式会社 プログラム,情報処理装置,及び評価方法

Also Published As

Publication number Publication date
JP2017134346A (ja) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6060867B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP7355165B2 (ja) 楽曲再生システム、楽曲再生システムの制御方法およびプログラム
WO2017057531A1 (ja) 音響処理装置
JP6098422B2 (ja) 情報処理装置、及びプログラム
JP6252420B2 (ja) 音声合成装置、及び音声合成システム
JP6056799B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP6365561B2 (ja) カラオケシステム、カラオケ装置、及びプログラム
JP6365483B2 (ja) カラオケ装置,カラオケシステム,及びプログラム
JP6406273B2 (ja) カラオケ装置,及びプログラム
JP6075314B2 (ja) プログラム,情報処理装置,及び評価方法
JP6075313B2 (ja) プログラム,情報処理装置,及び評価データ生成方法
JP6260565B2 (ja) 音声合成装置、及びプログラム
JP2008040260A (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP2013210501A (ja) 素片登録装置,音声合成装置,及びプログラム
JP6011506B2 (ja) 情報処理装置,データ生成方法,及びプログラム
JP6406182B2 (ja) カラオケ装置、及びカラオケシステム
JP6380305B2 (ja) データ生成装置、カラオケシステム、及びプログラム
JP4048249B2 (ja) カラオケ装置
JP5983670B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP5125957B2 (ja) 音域特定システム、プログラム
JP6252421B2 (ja) 採譜装置、及び採譜システム
JP6252517B2 (ja) 音声合成装置、及びプログラム
JP6260499B2 (ja) 音声合成システム、及び音声合成装置
JP6252408B2 (ja) 表示制御装置,及び表示制御システム
JP6281447B2 (ja) 音声合成装置,及び音声合成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6365561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150