JP2017181661A - 支援装置 - Google Patents
支援装置 Download PDFInfo
- Publication number
- JP2017181661A JP2017181661A JP2016066112A JP2016066112A JP2017181661A JP 2017181661 A JP2017181661 A JP 2017181661A JP 2016066112 A JP2016066112 A JP 2016066112A JP 2016066112 A JP2016066112 A JP 2016066112A JP 2017181661 A JP2017181661 A JP 2017181661A
- Authority
- JP
- Japan
- Prior art keywords
- music
- deviation
- applause
- timings
- designated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Auxiliary Devices For Music (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【課題】歌唱支援を実行するために、楽曲のリズムがつかめないリズム音痴であるユーザを正確に判別する技術の提供。
【解決手段】支援装置は、取得手段と、特定手段と、導出手段と、評価手段とを備える。取得手段は、指定楽曲における拍の各々のタイミングを表す拍タイミングを含む楽曲データを取得する(S110)。特定手段は、楽曲データに基づく指定楽曲の再生中に、少なくとも一人の聴衆ユーザによって実施された拍手の音を取得し、拍手のタイミングを特定する(S140,S170)。さらに、導出手段は、特定手段で特定した拍手のタイミングの各々と、取得手段で取得した楽曲データ中の拍タイミングの各々とを比較し、ズレ指標を導出する(S150,S180)。そして、評価手段は、導出手段で導出されるズレ指標に基づいて、指定楽曲に対する聴衆ユーザのリズムのズレを評価する(S200〜S260)。
【選択図】図2
【解決手段】支援装置は、取得手段と、特定手段と、導出手段と、評価手段とを備える。取得手段は、指定楽曲における拍の各々のタイミングを表す拍タイミングを含む楽曲データを取得する(S110)。特定手段は、楽曲データに基づく指定楽曲の再生中に、少なくとも一人の聴衆ユーザによって実施された拍手の音を取得し、拍手のタイミングを特定する(S140,S170)。さらに、導出手段は、特定手段で特定した拍手のタイミングの各々と、取得手段で取得した楽曲データ中の拍タイミングの各々とを比較し、ズレ指標を導出する(S150,S180)。そして、評価手段は、導出手段で導出されるズレ指標に基づいて、指定楽曲に対する聴衆ユーザのリズムのズレを評価する(S200〜S260)。
【選択図】図2
Description
本発明は、ユーザの歌唱を支援する支援装置に関する。
特許文献1に記載されているように、マイクからの音声信号の無音ポイントと、基準ガイドメロディ信号の無音ポイントとのズレが所定時間以上であれば、歌唱中のユーザが歌唱する曲についてリズム音痴であると判定するカラオケ装置が知られている。
特許文献1に記載のカラオケ装置では、楽曲を歌唱する歌唱中のユーザの音声が、基準ガイドメロディとずれていたときに、歌唱中のユーザを、歌唱する曲についてリズム音痴と判断している。歌唱中のユーザは、楽曲の旋律を覚えていないためにずれが生じる場合と、楽曲のリズムをつかめないためにずれが生じる場合とがある。楽曲のリズムがつかめないためにリズム音痴と判断されるユーザは、リズム音痴と判断された楽曲の再生時に限らず、他の楽曲であっても楽曲のリズムがつかめない可能性が高い。楽曲のリズムがつかめないためにリズム音痴と判断されるユーザが、他の楽曲でもリズムをつかめるように補助を実行するためには、楽曲のリズムがつかめないためにリズム音痴と判断されたユーザであるか否かを正しく判別すべきである。
しかしながら、特許文献1に記載の技術では、歌唱中のユーザが、楽曲の旋律を覚えていないためにずれが生じる場合と、楽曲のリズムをつかめないためにずれが生じる場合との少なくともいずれかに該当する場合に、リズム音痴と判断されてしまうため、リズム音痴と判断されるユーザが、楽曲のリズムがつかめないユーザであるか否かを正しく判断することができない。
そこで、本発明は、歌唱支援をするために、楽曲のリズムがつかめないリズム音痴であるユーザを正確に判別する技術を提供することを目的とする。
上記目的を達成するためになされた本発明の一態様は、取得手段と、特定手段と、導出手段と、評価手段とを備える、支援装置に関する。
取得手段は、指定楽曲における拍の各々のタイミングを表す拍タイミングを含む楽曲データを取得する。特定手段は、楽曲データに基づく指定楽曲の再生中に、少なくとも一人の聴衆ユーザによって実施された拍手の音を取得し、拍手のタイミングを特定する。
取得手段は、指定楽曲における拍の各々のタイミングを表す拍タイミングを含む楽曲データを取得する。特定手段は、楽曲データに基づく指定楽曲の再生中に、少なくとも一人の聴衆ユーザによって実施された拍手の音を取得し、拍手のタイミングを特定する。
導出手段は、特定手段で特定した拍手のタイミングの各々と、取得手段で取得した楽曲データ中の拍タイミングの各々とを比較し、ズレ指標を導出する。評価手段は、導出手段で導出されるズレ指標に基づいて、指定楽曲に対する聴衆ユーザのリズムのズレを評価する。
このような支援装置によれば、聴衆ユーザによって実施された拍手のタイミングの各々と、楽曲データ中の拍タイミングの各々とを比較して導出されるズレ指標に基づいて、指定楽曲に対する聴衆ユーザのリズムのズレを評価できる。
つまり、支援装置によれば、歌唱支援を実行するために、楽曲のリズムがつかめないリズム音痴であるユーザを正確に判別することができる。
また、本発明の一態様は、取得手段と、特定手段と、導出手段と、記憶制御手段とを備える、支援装置に関する。
また、本発明の一態様は、取得手段と、特定手段と、導出手段と、記憶制御手段とを備える、支援装置に関する。
記憶制御手段は、導出手段で導出されるズレ指標を、拍手を実施した聴衆ユーザを識別するユーザ識別情報及び指定楽曲の属性を示す楽曲属性情報と対応付けて記憶装置に記憶する。
このような支援装置によれば、ユーザ識別情報及び楽曲属性情報と対応付けて、ズレ指標を記憶装置に記憶することができる。
支援装置は、評価手段と、出力制御手段とを更に備えていてもよい。この場合、評価手段は、記憶装置に記憶されたズレ指標に基づいて、指定楽曲に対する聴衆ユーザのリズムのズレを評価する。また、出力制御手段は、評価手段での評価の結果、指定楽曲に対する聴衆ユーザのリズムがズレていれば、当該聴衆ユーザを示す情報と対応付けて評価の結果を出力させる。
支援装置は、評価手段と、出力制御手段とを更に備えていてもよい。この場合、評価手段は、記憶装置に記憶されたズレ指標に基づいて、指定楽曲に対する聴衆ユーザのリズムのズレを評価する。また、出力制御手段は、評価手段での評価の結果、指定楽曲に対する聴衆ユーザのリズムがズレていれば、当該聴衆ユーザを示す情報と対応付けて評価の結果を出力させる。
このような支援装置によれば、指定楽曲に対する聴衆ユーザのリズムがズレている場合に評価の結果を出力できる。つまり、支援装置によれば、歌唱支援を実行するために、楽曲のリズムがつかめないリズム音痴であるユーザを正確に判別することができる。
また、出力制御手段は、評価の結果に応じて、当該聴衆ユーザが歌唱する曲としていずれかの楽曲を指定して再生する場合に、歌唱する曲として指定した楽曲の再生中に、指定した楽曲の楽曲データに含まれる拍タイミングにおいて歌唱を支援する音を出力させる支援処理を実行してもよい。
このような支援装置によれば、音による支援を支援処理として実行できる。
さらに、導出手段は、拍タイミングの各々と、拍手のタイミングの各々との差分の総和を、ズレ指標の1つとして導出してもよい。
さらに、導出手段は、拍タイミングの各々と、拍手のタイミングの各々との差分の総和を、ズレ指標の1つとして導出してもよい。
このような支援装置によれば、拍タイミングの各々と拍手のタイミングの各々とを比較した結果の総和、即ち、指定楽曲におけるリズムのズレの全体的な傾向を、ズレ指標の1つとすることができる。
そして、導出手段は、拍タイミングの各々と、拍手のタイミングの各々との差分の絶対値の総和を、ズレ指標の1つとして導出してもよい。
このような支援装置によれば、拍タイミングの各々と拍手のタイミングの各々とを比較した結果の絶対値の総和、即ち、指定楽曲におけるリズムのズレの程度を、ズレ指標の1つとすることができる。
このような支援装置によれば、拍タイミングの各々と拍手のタイミングの各々とを比較した結果の絶対値の総和、即ち、指定楽曲におけるリズムのズレの程度を、ズレ指標の1つとすることができる。
以下に本発明の実施形態を図面と共に説明する。
<1.1 支援システム>
図1に示す支援システム1は、少なくとも1つの情報処理サーバ10と、少なくとも1つのカラオケ装置30と、少なくとも1つの情報処理装置70とを備えている。本実施形態において、支援システム1は、カラオケルームに設置され、カラオケルームを利用する複数のユーザにより使用される。複数人のユーザが支援システム1を利用するとき、各ユーザはそれぞれ情報処理装置70を所持するものとする。
<1.1 支援システム>
図1に示す支援システム1は、少なくとも1つの情報処理サーバ10と、少なくとも1つのカラオケ装置30と、少なくとも1つの情報処理装置70とを備えている。本実施形態において、支援システム1は、カラオケルームに設置され、カラオケルームを利用する複数のユーザにより使用される。複数人のユーザが支援システム1を利用するとき、各ユーザはそれぞれ情報処理装置70を所持するものとする。
この支援システム1では、カラオケ装置30が、歌唱ユーザによって指定された楽曲を再生する。そして、情報処理装置70が、カラオケ装置30にて再生された楽曲に対する聴衆ユーザのズレ指標を特定する。具体的なズレ指標の特定方法は後述する。さらに、カラオケ装置30が、聴衆ユーザが歌唱ユーザとして楽曲を歌唱する際に、情報処理装置70で特定されたズレ指標に基づいて、その歌唱を支援する。
ここで言う楽曲は、時間軸に沿って配置された複数の音符のうち少なくとも一部に歌詞が割り当てられた楽曲である。歌唱ユーザとは、支援システム1のユーザのうち、1つのカラオケ装置30に再生させる楽曲を指定して歌唱するユーザである。なお、以下では、歌唱ユーザによって指定された楽曲を指定楽曲と称す。
また、聴衆ユーザとは、1つのカラオケ装置30において、歌唱ユーザによって歌唱される指定楽曲を鑑賞するユーザである。
ズレ指標とは、指定楽曲に対する聴衆ユーザのリズム感を表す指標である。ズレ指標は、詳しくは後述する拍タイミングaの各々と拍手タイミングbの各々とを比較した結果に従って求められる。
<1.2 情報処理サーバ>
情報処理サーバ10は、通信部12と、記憶部14と、制御部16とを備えている。
ズレ指標とは、指定楽曲に対する聴衆ユーザのリズム感を表す指標である。ズレ指標は、詳しくは後述する拍タイミングaの各々と拍手タイミングbの各々とを比較した結果に従って求められる。
<1.2 情報処理サーバ>
情報処理サーバ10は、通信部12と、記憶部14と、制御部16とを備えている。
通信部12は、通信網を介して、情報処理サーバ10が外部との間で通信を行う。すなわち、情報処理サーバ10は、通信網を介してカラオケ装置30及び情報処理装置70と接続されている。なお、ここで言う通信網は、有線による通信網であっても良いし、無線による通信網であっても良い。
記憶部14は、記憶内容を読み書き可能に構成された周知の記憶装置である。この記憶部14には、複数の楽曲データが記憶される。制御部16は、マイクロコンピュータを中心に構成された制御装置である。
<1.3 楽曲データ>
楽曲データは、楽曲の曲構造を表すデータであり、楽曲ごとに予め用意されている。
<1.3 楽曲データ>
楽曲データは、楽曲の曲構造を表すデータであり、楽曲ごとに予め用意されている。
楽曲データの各々は、楽譜データと、歌詞データと、拍データと、楽曲属性情報とを有している。
このうち、楽譜データは、MIDI(Musical Instrument Digital Interface)規格によって、一つの楽曲の楽譜を表したデータである。すなわち、楽譜データには、MIDI音源から出力される個々の演奏音について、少なくとも、音高(いわゆるノートナンバー)と、MIDI音源が演奏音を出力する期間(以下、音価)とが規定されている。楽譜データにおける音価は、当該演奏音の出力を開始するまでの当該楽曲の演奏開始からの時間を表す演奏開始タイミング(いわゆるノートオンタイミング)と、当該演奏音の出力を終了するまでの当該楽曲の演奏開始からの時間を表す演奏終了タイミング(いわゆるノートオフタイミング)とによって規定されている。
このうち、楽譜データは、MIDI(Musical Instrument Digital Interface)規格によって、一つの楽曲の楽譜を表したデータである。すなわち、楽譜データには、MIDI音源から出力される個々の演奏音について、少なくとも、音高(いわゆるノートナンバー)と、MIDI音源が演奏音を出力する期間(以下、音価)とが規定されている。楽譜データにおける音価は、当該演奏音の出力を開始するまでの当該楽曲の演奏開始からの時間を表す演奏開始タイミング(いわゆるノートオンタイミング)と、当該演奏音の出力を終了するまでの当該楽曲の演奏開始からの時間を表す演奏終了タイミング(いわゆるノートオフタイミング)とによって規定されている。
歌詞データは、楽曲の歌詞に関するデータである。歌詞データは、歌詞テロップデータと、歌詞割当データとを備えている。
歌詞テロップデータは、楽曲の歌詞を構成する文字(以下、歌詞構成文字とする)を表す。歌詞割当データは、歌詞構成文字を表示部に出力させる出力タイミングである歌詞出力タイミングを、楽譜データを構成する各演奏音と対応付けるタイミング対応関係が規定されたデータである。
歌詞テロップデータは、楽曲の歌詞を構成する文字(以下、歌詞構成文字とする)を表す。歌詞割当データは、歌詞構成文字を表示部に出力させる出力タイミングである歌詞出力タイミングを、楽譜データを構成する各演奏音と対応付けるタイミング対応関係が規定されたデータである。
タイミング対応関係では、楽譜データの演奏を開始するタイミングに、歌詞テロップデータの出力を開始するタイミングが対応付けられている。さらに、タイミング対応関係では、楽曲の演奏開始からの経過時間を示す時間軸に沿った各歌詞構成文字の歌詞出力タイミングを示す時間が規定されている。これにより、楽譜トラックに規定された個々の演奏音(即ち、音符)の演奏開始タイミングと、歌詞構成文字それぞれの歌詞出力タイミングとが対応付けられる。
拍データは、拍タイミングを表すデータである。拍タイミングとは、当該楽曲における拍の各々のタイミングを示す時間である。拍タイミングは、例えば、当該楽曲の再生開始から、拍のそれぞれまでの再生経過時間により示される。また、ここで言う拍は、音楽のリズム構造において、等しい間隔で繰り返される打点の各々であり、表拍、裏拍を含む。
楽曲属性情報は、楽曲の属性を表すデータであり、少なくとも、楽曲ID、歌手ID、楽曲ジャンル、テンポ情報、拍子情報を含む。
楽曲IDは、当該楽曲を識別する識別情報である。歌手IDは、当該楽曲を歌唱したオリジナルな歌手を識別する識別情報である。楽曲ジャンルは、当該楽曲のジャンルを表す情報である。楽曲のジャンルとは、音楽の形式であり、例えば、ロック、ポップス、バラード、演歌、ジャズなどである。テンポ情報とは、楽曲のテンポを表す情報である。拍子情報とは、楽曲の拍子の種類を表す情報であり、例えば3分の3拍子、4分の4拍子などである。
<1.4 カラオケ装置>
カラオケ装置30は、通信部32と、入力受付部34と、楽曲再生部36と、記憶部38と、音声制御部40と、映像制御部46と、制御部50とを備えている。
楽曲IDは、当該楽曲を識別する識別情報である。歌手IDは、当該楽曲を歌唱したオリジナルな歌手を識別する識別情報である。楽曲ジャンルは、当該楽曲のジャンルを表す情報である。楽曲のジャンルとは、音楽の形式であり、例えば、ロック、ポップス、バラード、演歌、ジャズなどである。テンポ情報とは、楽曲のテンポを表す情報である。拍子情報とは、楽曲の拍子の種類を表す情報であり、例えば3分の3拍子、4分の4拍子などである。
<1.4 カラオケ装置>
カラオケ装置30は、通信部32と、入力受付部34と、楽曲再生部36と、記憶部38と、音声制御部40と、映像制御部46と、制御部50とを備えている。
通信部32は、通信網を介して、カラオケ装置30が外部との間で通信を行う。入力受付部34は、外部からの操作に従って情報や指令の入力を受け付ける入力機器である。ここでの入力機器とは、例えば、キーやスイッチ、リモコンの受付部などである。
楽曲再生部36は、情報処理サーバ10からダウンロードした楽曲データに基づく楽曲の演奏を実行する。この楽曲再生部36の一例として、MIDI音源が考えられる。
音声制御部40は、音声の入出力を制御するデバイスである。音声制御部40は、出力部42と、マイク入力部44とを備えている。マイク入力部44には、マイク62が接続される。これにより、マイク入力部44は、マイク62を介して入力された音声を取得する。出力部42には、スピーカ60が接続されている。出力部42は、楽曲再生部36によって再生される楽曲の信号、マイク入力部44からの歌唱音の信号をスピーカ60に出力する。スピーカ60は、出力部42からの信号を音に換えて出力する。
音声制御部40は、音声の入出力を制御するデバイスである。音声制御部40は、出力部42と、マイク入力部44とを備えている。マイク入力部44には、マイク62が接続される。これにより、マイク入力部44は、マイク62を介して入力された音声を取得する。出力部42には、スピーカ60が接続されている。出力部42は、楽曲再生部36によって再生される楽曲の信号、マイク入力部44からの歌唱音の信号をスピーカ60に出力する。スピーカ60は、出力部42からの信号を音に換えて出力する。
映像制御部46は、制御部50から送られてくるデータに基づく映像または画像の出力を行う。映像制御部46には、映像または画像を表示する表示部64が接続されている。
制御部50は、ROM52,RAM54,CPU56を少なくとも有した周知のコンピュータを中心に構成されている。
制御部50は、ROM52,RAM54,CPU56を少なくとも有した周知のコンピュータを中心に構成されている。
ROM52は、電源を切断しても記憶内容を保持する必要のあるデータやプログラムを記憶する。RAM54は、データを一時的に格納する。CPU56は、ROM52またはRAM54に記憶されたプログラムに従って処理を実行する。
本実施形態のROM52には、歌唱支援処理を制御部50が実行するための処理プログラムが記憶されている。歌唱支援処理は、指定楽曲を再生すると共に、その指定楽曲を歌唱する歌唱ユーザのリズム感に従って、歌唱ユーザが歌いやすくなるように支援する処理である。
<1.5 情報処理装置>
情報処理装置70は、ユーザの各々が所持する装置である。
<1.5 情報処理装置>
情報処理装置70は、ユーザの各々が所持する装置である。
情報処理装置70は、通信部72と、入力部74と、記憶部76と、表示部78と、マイク80と、スピーカ82と、制御部90とを備えている。情報処理装置70の一例として、多機能携帯電話(いわゆるスマートフォン)が考えられる。
通信部72は、公衆通信回線網を介してデータを入出力する。入力部74は、情報やデータの入力を受け付ける。この入力部74には、キーボードやポインティングデバイス、タッチパッド、タッチパネル、スイッチなどの各種入力機器を含む。
表示部78は、制御部90からの信号に基づいて情報を表示する。マイク80は、入力された音を取得する。スピーカ82は、制御部90からの信号を音に換えて出力する。記憶部76は、書き換え可能な不揮発性の記憶装置であり、例えば、ハードディスクドライブやフラッシュメモリによって構成されている。
制御部90は、ROM92,RAM94,CPU96を備えた周知のマイクロコンピュータを中心に構成された周知の制御装置である。
ROM92は、電源を切断しても記憶内容を保持する必要のあるデータやプログラムを記憶する。RAM94は、データを一時的に格納する。CPU96は、ROM92またはRAM94に記憶されたプログラムに従って処理を実行する。
ROM92は、電源を切断しても記憶内容を保持する必要のあるデータやプログラムを記憶する。RAM94は、データを一時的に格納する。CPU96は、ROM92またはRAM94に記憶されたプログラムに従って処理を実行する。
記憶部76または制御部90のROM92には、ズレ特定処理を制御部90が実行するための処理プログラムが格納されている。ズレ特定処理とは、カラオケ装置30にて再生された楽曲に対する聴衆ユーザ各々のズレ指標を特定する処理である。ズレ特定処理は、例えば、カラオケ装置30における楽曲の再生が終了されたことを検知したときに行われる。情報処理装置70は、後述の音声データを、カラオケ装置30にて指定楽曲が再生開始された以降、再生が終了されるまで継続して取得しRAM94に記憶しておく。そして、カラオケ装置30にて指定楽曲の再生が終了されたときに、RAM94に記憶された音声データを、所定秒数ごとに随時読み出してズレ特定処理が行われる。あるいは、ズレ特定処理は、例えば、カラオケ装置30にて楽曲が再生開始されたことを検知したときに実行が開始され、随時、所定秒数ごとに音声データが取得されるものであってもよい。所定秒数は、例えば、拍データに示される拍タイミングから求められる拍の間隔を秒数で定めたものである。
<1.6 ズレ特定処理>
次に、ズレ特定処理について説明する。
<1.6 ズレ特定処理>
次に、ズレ特定処理について説明する。
ズレ特定処理が起動されると、制御部90は、図2に示すように、ユーザIDを取得する(S100)。ユーザIDとは、支援システム1を利用するユーザを識別する情報であり、ユーザごとに割り当てられた識別情報である。本実施形態のS100では、制御部90は、例えば、情報処理装置70を所持する聴衆ユーザに割り当てられたユーザIDを取得する。ユーザIDは、情報処理装置70の入力部74を介して入力される。
続いて、制御部90は、カラオケ装置30にて再生される指定楽曲の楽曲データを取得する(S110)。さらに、制御部90は、マイク80を介して入力された音を音声データとして取得する(S120)。音声データには、聴衆ユーザがカラオケ装置30において再生される指定楽曲の演奏音を聞きながら拍手をしたときの拍手音を含む。ステップS120では、例えば、指定楽曲の再生開始から所定秒数までに対応する最初の音声データを取得する。
そして、制御部90は、S100で取得したユーザIDに対応する聴衆ユーザが、指定楽曲において最初に拍手を実行した拍手タイミングb(1)を、音声データから拍手音を検知して特定する(S130)。なお、拍手タイミングとは、聴衆ユーザによって実施された拍手のタイミングを示す時間である。拍手タイミングは、例えば、指定楽曲の再生開始から、聴衆によって実施された各拍手までの再生経過時間により示される。また、拍手タイミングb(i)における括弧内の符号iは、再生中の指定楽曲において実施された拍手の識別子である。
本実施形態において制御部90は、音声データの信号レベルが、予め規定された閾値未満から閾値以上へと切り替わったタイミングを検知して、拍手が行われた拍手タイミングb(i)として特定すればよい。
ズレ特定処理では、更に、制御部90は、S110で取得した楽曲データに含まれる拍データ及びS130で特定した拍手タイミングb(1)に基づいて、第1ズレ量sum1及び第2ズレ量sum2を算出する(S140)。
具体的に、制御部90は、指定楽曲における拍データに表される拍タイミングa(1)に示す再生経過時間から、拍手タイミングb(1)に示す再生経過時間を減算した結果の絶対値を、第1ズレ量sum1として算出する。また、制御部90は、指定楽曲における拍タイミングa(1)から拍手タイミングb(1)を減算した結果である再生経過時間の差を、第2ズレ量sum2として算出する。すなわち、第2ズレ量sum2として算出される値では、正または負の値であることが示される。なお、拍タイミングa(i)における括弧内の符号は、再生中の指定楽曲において実施された拍手の識別子であり、拍手タイミングを識別する識別子iに対応する。
ズレ特定処理では、続いて、制御部90は、マイク80を介して入力された音を音声データとして取得する(S150)。制御部90は、ステップS150では、指定楽曲の再生の進行に沿って新たな所定秒数の音声データを取得する。ステップS150において取得した音声データには、ステップS120において取得した音声データと同様に、聴衆ユーザがカラオケ装置30において再生される指定楽曲の演奏音を聞きながら拍手をしたときの拍手音を含む。例えば、ステップS150では、ステップS120において取得された楽曲の再生開始から所定時間以後の所定秒数の音声データを取得する。ステップS150の処理が繰り返し実行されるとき、ステップS120および以前のステップS150の処理で取得されていない音声データを所定秒数ごとに取得する。さらに、制御部90は、聴衆ユーザが、指定楽曲においてi番目に拍手を実行した拍手タイミングb(i)を、音声データから拍手音を検知して特定する(S160)。
そして、制御部90は、S160で特定された拍手タイミングb(i)及び拍データに基づいて、第1ズレ量sum1及び第2ズレ量sum2の合計を更新する(S170)。具体的に、制御部90は、指定楽曲の再生の進行に沿って直前のステップS150において読み出された音声データについて、拍タイミングa(i)から拍手タイミングb(i)を減算した結果の絶対値を算出し、算出した結果の絶対値をその時点よりも前に算出された第1ズレ量sum1に加算した結果を、新たな第1ズレ量sum1として算出する。また、制御部90は、指定楽曲の再生の進行に沿って直前のステップS150において読み出された音声データについて、拍タイミングa(i)から拍手タイミングb(i)を減算した結果を算出し、算出した結果をその時点よりも前に算出された第2ズレ量sum2に加算した結果を、新たな第2ズレ量sum2として算出する。
さらに、ズレ特定処理では、制御部90は、識別子iが最大値imaxまで達しているか否かを判定する(S180)。最大値imaxは、指定楽曲における拍の個数であり、楽曲ごとに規定されている。
このS180での判定の結果、識別子iが最大値imaxに達していなければ(S180:NO)、制御部90は、ズレ特定処理をS150へと戻す。ステップS180の判断により、ズレ特定処理では、識別子iが最大値imaxに達するまでステップS150〜ステップS180の処理を繰り返し実行し、拍タイミングa(i)の各々と拍手タイミングb(i)の各々との差分の絶対値の総和を第1ズレ量sum1として算出し、拍タイミングa(i)の各々と拍手タイミングb(i)の各々との差分の総和を第2ズレ量sum2として算出する。
一方、識別子iが最大値imaxに達していれば、制御部90は、ズレ特定処理をS190へと移行させる。
そして、S190では、制御部90は、第1ズレ量Sum1の平均値Aveを算出する。この第1ズレ量Sum1の平均値Aveは、S190へと移行した時点で導出されている第1ズレ量Sum1を、指定楽曲における拍の個数(即ち、最大値imax)で除すことで算出すればよい。
そして、S190では、制御部90は、第1ズレ量Sum1の平均値Aveを算出する。この第1ズレ量Sum1の平均値Aveは、S190へと移行した時点で導出されている第1ズレ量Sum1を、指定楽曲における拍の個数(即ち、最大値imax)で除すことで算出すればよい。
制御部90は、更に、S190で算出した第1ズレ量Sum1の平均値Aveを、指定楽曲に対する聴衆ユーザのリズムのズレ量として特定し設定する(S200)。
続いて、制御部90は、S220で設定されたズレ量(第1ズレ量Sum1の平均値Ave)が、所定の閾値より大きい値であるか否かを判定する(S205)。この閾値は、予め定められる秒数により示される値である。閾値は、例えば、指定楽曲のテンポに応じて定められる秒数であってもよい。例えば、所定テンポより再生テンポが速い指定楽曲である場合、閾値には小さい値が定められ、所定テンポより再生テンポが遅い指定楽曲である場合、閾値には大きい値が定められる。S205の判定の結果、ズレ量が所定の閾値より大きいと判断される場合(S205:YES)、制御部90は、ズレが一定以上存在するとして、ズレ特定処理をS210へと移行する。S205の判定の結果、ズレ量が所定の閾値以下である場合(S205:NO)、制御部90は、詳しくは後述するS260へとズレ特定処理を移行させる。
続いて、制御部90は、S220で設定されたズレ量(第1ズレ量Sum1の平均値Ave)が、所定の閾値より大きい値であるか否かを判定する(S205)。この閾値は、予め定められる秒数により示される値である。閾値は、例えば、指定楽曲のテンポに応じて定められる秒数であってもよい。例えば、所定テンポより再生テンポが速い指定楽曲である場合、閾値には小さい値が定められ、所定テンポより再生テンポが遅い指定楽曲である場合、閾値には大きい値が定められる。S205の判定の結果、ズレ量が所定の閾値より大きいと判断される場合(S205:YES)、制御部90は、ズレが一定以上存在するとして、ズレ特定処理をS210へと移行する。S205の判定の結果、ズレ量が所定の閾値以下である場合(S205:NO)、制御部90は、詳しくは後述するS260へとズレ特定処理を移行させる。
さらに、制御部90は、第2ズレ量sum2が「0」よりも大きいか否かを判定する(S210)。S210での判定の結果、第2ズレ量sum2が「0」よりも大きければ(S210:YES)、制御部90は、指定楽曲に対する聴衆ユーザのズレタイプを「遅い」に設定する(S220)。ズレタイプとは、リズムのズレの傾向を表す指標である。また、「遅い」とは、拍タイミングaに対して拍手タイミングbが全体として遅れ気味、即ち、指定楽曲に対してリズムが遅れ気味であることを意味する。
一方、このS210での判定の結果、第2ズレ量sum2が「0」以下であれば(S210:NO)、制御部90は、S230へとズレ特定処理を移行させる。S210での判定の結果、第2ズレ量sum2が「0」以下である場合に移行されるS230では、制御部90は、第2ズレ量sum2が「0」未満であるか否かを判定する。S230での判定の結果、第2ズレ量sum2が「0」未満であれば(S230:YES)、制御部90は、指定楽曲に対する聴衆ユーザのズレタイプを「早い」に設定する(S240)。「早い」とは、拍タイミングに対して拍手タイミングが全体として早めであること、即ち、指定楽曲に対してリズムが早めであることを意味する。
一方、S230での判定の結果、第2ズレ量sum2が「0」以上であれば(S230:NO)、即ち、第2ズレ量sum2が「0」であれば、制御部90は、S250へとズレ特定処理を移行させる。S230での判定の結果、第2ズレ量sum2が「0」以上である場合に移行するS250では、制御部90は、指定楽曲に対する聴衆ユーザのズレタイプを「ランダム」に設定する(S250)。「ランダム」とは、拍タイミングに対して拍手タイミングが全体として、ばらついていることを意味する。
続いて、制御部90は、ズレ指標を、聴衆ユーザのユーザID、及び指定楽曲の楽曲属性と対応付けて情報処理サーバ10に記憶する(S260)。ズレ指標には、指定楽曲に対する聴衆ユーザのズレ量と、指定楽曲に対する聴衆ユーザのズレタイプとを含む。この場合のズレ指標に含まれる指定楽曲に対する聴衆ユーザのズレタイプは、S220、S240、またはS250のいずれかで設定されたズレタイプである。なお、S205において、ズレ量が所定の閾値以下であると判定された場合(S205:NO)は、ズレタイプは、無しとして設定しない。ズレ指標と対応付けられる聴衆ユーザのユーザIDは、S100で取得されたユーザIDである。そして、ズレ指標と対応付けられる指定楽曲の楽曲属性は、S110で取得した楽曲データに含まれる楽曲属性である。具体的には、図4に示す楽曲ごとの楽曲属性情報が対応付けられている。楽曲属性情報には、楽曲のテンポや拍子、楽曲のジャンルが含まれている。
すなわち、カラオケ装置30で楽曲の再生が実施されるごとに、情報処理装置70の各々がズレ特定処理を実行することで、複数の楽曲の各々に対する各聴衆ユーザのズレ指標を特定できる。そして、それらの特定したズレ指標を情報処理サーバ10に格納することで、情報処理サーバ10を、各楽曲に対する各聴衆ユーザのリズム感を特定した結果が格納されたデータベースとして機能させることができる。すなわち、データベースは、図3に示すように、各聴衆ユーザのズレ指標が楽曲ごとに記憶されたものである。
ステップS260が実行された後、ズレ特定処理を終了する。なお、ズレ特定処理を実行する情報処理装置70が、本発明の支援装置として機能する。
<1.7 歌唱支援処理>
次に、カラオケ装置30の制御部50が実行する歌唱支援処理について説明する。
<1.7 歌唱支援処理>
次に、カラオケ装置30の制御部50が実行する歌唱支援処理について説明する。
歌唱支援処理が起動されると、制御部50は、図5に示すように、指定楽曲を指定した歌唱ユーザのユーザIDを取得する(S310)。S310では、制御部50は、入力受付部34を介して入力されたユーザIDを取得すればよい。
続いて、制御部50は、指定楽曲の楽曲データを情報処理サーバ10から取得する(S320)。さらに、制御部50は、S320で取得した楽曲データに含まれる楽曲属性情報を取得する(S330)。
そして、歌唱支援処理では、制御部50は、情報処理サーバ10に格納されているズレ指標と対応付けられた楽曲属性情報の中から、S330で取得した楽曲属性情報に最も相関が高い楽曲属性情報を特定する(S340)。さらに、制御部50は、S340で特定した楽曲属性情報と対応付けられたズレ指標を、情報処理サーバ10から取得する(S350)。
そして、制御部50は、S350で取得したズレ指標に含まれるズレ量が、予め規定された閾値よりも大きいか否かを判定する(S360)。閾値は、リズム音痴である歌唱者のズレ量として予め規定されたものである。この閾値は、実験などの結果に従って規定される。
S360での判定の結果、S350で取得したズレ指標に含まれるズレ量が閾値よりも大きければ(S360:YES)、制御部50は、指定楽曲に対して歌唱ユーザがリズム音痴であると設定する(S370)。
そして、制御部50は、指定楽曲に対する歌唱の留意点を、映像制御部46に出力する(S380)。映像制御部46は、歌唱の留意点を表示部64に表示する。
なお、表示部64に表示される留意点とは、例えば、歌唱ユーザのズレタイプが「早い」であれば、ズレ量を表示し、発声のタイミングを遅らせる旨の指示であってもよい。また、表示部64に表示される留意点とは、例えば、歌唱ユーザのズレタイプが「遅い」であれば、ズレ量を表示し、発声のタイミングを早める旨の指示であってもよい。さらに、表示部64に表示される留意点とは、例えば、歌唱ユーザのズレタイプが「ランダム」であれば、ズレ量を表示し、発声のタイミングを全体的に意識すべき旨の指示であってもよい。
なお、表示部64に表示される留意点とは、例えば、歌唱ユーザのズレタイプが「早い」であれば、ズレ量を表示し、発声のタイミングを遅らせる旨の指示であってもよい。また、表示部64に表示される留意点とは、例えば、歌唱ユーザのズレタイプが「遅い」であれば、ズレ量を表示し、発声のタイミングを早める旨の指示であってもよい。さらに、表示部64に表示される留意点とは、例えば、歌唱ユーザのズレタイプが「ランダム」であれば、ズレ量を表示し、発声のタイミングを全体的に意識すべき旨の指示であってもよい。
なお、表示部64に表示する留意点には、図6(A)に示すように、楽曲のテンポに対する歌唱リズムのタイミングのズレを含んでもよい。また、表示部64に表示する留意点には、図6(B)に示すように、楽曲のジャンルに対するリズムのズレを含んでもよい。さらには、表示部64に表示する留意点には、図7に示すように、楽曲の拍子に対する歌唱リズムのタイミングのズレを含んでもよい。
すなわち、S380では、聴衆ユーザを示す情報と対応付けて、当該聴衆ユーザに対する評価の結果を出力させる。
続いて歌唱支援処理では、制御部50は、支援処理の実行に必要となる支援内容を設定する(S390)。支援処理とは、指定楽曲の楽曲データに含まれる拍タイミングaにおいて歌唱を支援する音を出力させる処理である。
続いて歌唱支援処理では、制御部50は、支援処理の実行に必要となる支援内容を設定する(S390)。支援処理とは、指定楽曲の楽曲データに含まれる拍タイミングaにおいて歌唱を支援する音を出力させる処理である。
具体的にS390では、制御部50は、ズレ量が大きいほど、ガイドメロディの音量が大きくなるように設定してもよいし、ズレ量が大きいほど、指定楽曲におけるバスドラムの音量を大きくなるように設定してもよい。また、具体的にS390では、制御部50は、ズレ量が規定閾値以上であれば、指定楽曲における各小節の各々の開始タイミングで報知音が出力されるように設定してもよい。
この場合、ズレタイプに応じて、報知音の出力タイミングを設定してもよい。すなわち、ズレタイプが「遅い」であれば、報知音の出力タイミングを早めるように設定してもよいし、ズレタイプが「早い」であれば、報知音の出力タイミングを遅くするように設定してもよい。
このS360での判定の結果、S350で取得したズレ指標に含まれるズレ量が閾値以下であれば(S360:NO)、制御部50は、歌唱支援処理をS400へと移行させる。
そのS400では、制御部50は、S320で取得した楽曲データに基づいて指定楽曲の再生を実行する。
具体的には制御部50は、楽曲再生部36に楽曲データを時間軸に沿って順次出力する。すると、楽曲再生部36は、指定楽曲の音源信号を、出力部42を介してスピーカ60へと出力する。これにより、指定楽曲の再生音が、スピーカ60から放音される。
具体的には制御部50は、楽曲再生部36に楽曲データを時間軸に沿って順次出力する。すると、楽曲再生部36は、指定楽曲の音源信号を、出力部42を介してスピーカ60へと出力する。これにより、指定楽曲の再生音が、スピーカ60から放音される。
また、本実施形態のS400では、制御部50は、歌詞出力データ及び歌詞テキストデータを映像制御部46に出力する。すると、映像制御部46は、指定楽曲の再生に併せて歌詞構成文字を表示部64に順次出力する。これにより、指定楽曲の歌詞が表示部64に表示される。
S390を経て移行したS400では、S390で設定された内容に従って、指定楽曲の楽曲データに含まれる拍タイミングaにおいて歌唱を支援する音を出力させる。すなわち、支援処理を加えて楽曲の再生処理を実行する。
そして、楽曲の再生が終了すると、歌唱支援処理は終了される。
[2. 実施形態の効果]
(2a) 以上説明したように、支援システム1によれば、聴衆ユーザによって実施された拍手のタイミングの各々と、楽曲データ中の拍タイミングの各々とのズレに基づいて、指定楽曲に対する聴衆ユーザのリズムのズレ(即ち、リズム感)を評価できる。
[2. 実施形態の効果]
(2a) 以上説明したように、支援システム1によれば、聴衆ユーザによって実施された拍手のタイミングの各々と、楽曲データ中の拍タイミングの各々とのズレに基づいて、指定楽曲に対する聴衆ユーザのリズムのズレ(即ち、リズム感)を評価できる。
つまり、支援システム1によれば、歌唱支援を実行するために、楽曲のリズムがつかめないリズム音痴であるユーザを正確に判別することができる。
更には、支援システム1によれば、歌唱中ではない聴衆ユーザについて、楽曲に対するリズムのズレを評価することができる。
更には、支援システム1によれば、歌唱中ではない聴衆ユーザについて、楽曲に対するリズムのズレを評価することができる。
(2b) そして、支援システム1によれば、聴衆ユーザが歌唱すること無く、楽曲に対する当該聴衆ユーザのリズムのズレを評価できる。
このため、支援システム1によれば、他のユーザが歌唱していれば、聴衆ユーザが当該楽曲を初めて歌唱する場合であっても、リズムのズレに対する評価結果に基づく歌唱の支援を実行できる。
このため、支援システム1によれば、他のユーザが歌唱していれば、聴衆ユーザが当該楽曲を初めて歌唱する場合であっても、リズムのズレに対する評価結果に基づく歌唱の支援を実行できる。
(2c) このような支援システム1によれば、聴衆ユーザが歌唱ユーザとして楽曲を歌唱する場合に歌唱支援処理を実行する。この歌唱支援処理では、指定楽曲の楽曲データに含まれる拍タイミングaにおいて歌唱を支援する音を出力させる。
よって、支援システム1によれば、当該ユーザが指定楽曲を歌唱する場合に、その指定楽曲を歌唱しやすくできる。
(2d)このような支援システム1によれば、拍タイミングの各々と拍手のタイミングの各々とを比較した結果の絶対値の総和、即ち、指定楽曲におけるリズムのズレの程度を、ズレ指標の1つとすることができる。
(2d)このような支援システム1によれば、拍タイミングの各々と拍手のタイミングの各々とを比較した結果の絶対値の総和、即ち、指定楽曲におけるリズムのズレの程度を、ズレ指標の1つとすることができる。
また、このような支援システム1によれば、拍タイミングの各々と拍手のタイミングの各々とを比較した結果の総和、即ち、指定楽曲におけるリズムのズレの全体的な傾向を、ズレ指標の1つとすることができる。
[3. その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
[3. その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
(3a) 上記実施形態では、拍手タイミングを音声データに基づいて特定していたが、拍手タイミングを特定する方法はこれに限るものではない。例えば、カメラで撮像した画像に基づいて拍手タイミングを特定してもよいし、聴衆ユーザに装着されるセンシング装置に基づいて拍手タイミングを特定してもよい。これらの場合、カメラやセンシング装置が情報処理装置70に備えられていることが好ましい。この場合のセンシング装置には、加速度センサを含む。
(3b) 上記実施形態では、ズレ特定処理を情報処理装置70で実行し、歌唱支援処理をカラオケ装置30で実行していたが、ズレ特定処理及び歌唱支援処理の双方を、情報処理装置70またはカラオケ装置30で実行してもよい。この場合、双方の処理を実行する装置が支援装置として機能する。
(3d) 上記実施形態では、指定楽曲の再生開始から、音声データを所定秒数ごとに取得し、取得した音声データから検知した拍手タイミングb(i)と拍タイミングa(i)とを比較していたが、拍手タイミングと拍タイミングの比較方法はこれに限らない。例えば、音声データから拍手タイミングb(i)を検知したとき、その拍手タイミングb(i)が行われた指定楽曲の再生開始からの再生経過時間を求め、拍手タイミングb(i)の再生経過時間と最も近い拍手タイミングa(n)と比較することにより、ズレを特定してもよい。このとき、nは、整数であり、0<n≦imaxの範囲内である。
(3e) 上記実施形態では、聴衆ユーザが、指定楽曲においてi番目に拍手を実行した拍手タイミングb(i)を、拍タイミングa(i)と比較することによりズレを特定していたが、ズレの比較方法はこれに限らない。例えば、拍タイミングa(i)の識別子iに、所定拍数ごと、または所定小節ごとにリセットされる識別子を設定し、且つ、聴衆ユーザにより実行される拍手の拍手タイミングb(i)の識別子iを、所定拍数ごと、または所定小節ごとにリセットすることにより、所定拍数ごと、または所定小節ごとにリセットされた位置からの再生経過時間の拍タイミングa(i)と拍手タイミングb(i)とを比較し、ズレを特定するものであってもよい。
(3f) なお、上記実施形態の構成の一部を省略した態様も本発明の実施形態である。また、上記実施形態と変形例とを適宜組み合わせて構成される態様も本発明の実施形態である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。
[対応関係の一例]
上記実施形態のズレ特定処理におけるS110を実行することで得られる機能が、取得手段の一例に相当し、S140,S170を実行することで得られる機能が、特定手段の一例に相当する。さらに、S150,S180を実行することで得られる機能が、導出手段の一例に相当する。
[対応関係の一例]
上記実施形態のズレ特定処理におけるS110を実行することで得られる機能が、取得手段の一例に相当し、S140,S170を実行することで得られる機能が、特定手段の一例に相当する。さらに、S150,S180を実行することで得られる機能が、導出手段の一例に相当する。
また、ズレ特定処理におけるS200〜S260、及び歌唱支援処理のS360及びS370を実行することで得られる機能が、評価手段の一例に相当する。そして、ズレ特定処理におけるS200,S210,S270を実行することで得られる機能が、記憶制御手段の一例に相当する。
なお、歌唱支援処理のS400を実行することで得られる機能が、出力制御手段の一例に相当する。
1…支援システム 10…情報処理サーバ 12,32,72…通信部 14,38,76…記憶部 16,50,90…制御部 30…カラオケ装置 34…入力受付部 36…楽曲再生部 40…音声制御部 42…出力部 44…マイク入力部 46…映像制御部 52,92…ROM 54,94…RAM 56,96…CPU 60,82…スピーカ 62,80…マイク 64,78…表示部 70…情報処理装置 74…入力部
Claims (6)
- 指定楽曲における拍の各々のタイミングを表す拍タイミングを含む楽曲データを取得する取得手段と、
前記楽曲データに基づく指定楽曲の再生中に、少なくとも一人の聴衆ユーザによって実施された拍手の音または動作を示す情報を取得し、前記実施された拍手のタイミングを特定する特定手段と、
前記特定手段で特定した拍手のタイミングの各々と、前記取得手段で取得した楽曲データ中の拍タイミングの各々とを比較し、ズレ指標を導出する導出手段と、
前記導出手段で導出される前記ズレ指標に基づいて、前記指定楽曲に対する前記聴衆ユーザのリズムのズレを評価する評価手段と
を備える、支援装置。 - 指定楽曲における拍の各々のタイミングを表す拍タイミングを含む楽曲データを取得する取得手段と、
前記楽曲データに基づく指定楽曲の再生中に、少なくとも一人の聴衆ユーザによって実施された拍手の音を取得し、前記拍手のタイミングを特定する特定手段と、
前記特定手段で特定した拍手のタイミングの各々と、前記取得手段で取得した楽曲データ中の拍タイミングの各々とを比較し、ズレ指標を導出する導出手段と、
前記導出手段で導出される前記ズレ指標を、前記拍手を実施した聴衆ユーザを識別するユーザ識別情報及び前記指定楽曲の属性を示す楽曲属性情報と対応付けて記憶装置に記憶する記憶制御手段と
を備える、支援装置。 - 前記記憶装置に記憶されたズレ指標に基づいて、前記指定楽曲に対する前記聴衆ユーザのリズムのズレを評価する評価手段と、
前記評価手段での評価の結果、前記指定楽曲に対する前記聴衆ユーザのリズムがズレていれば、当該聴衆ユーザを示す情報と対応付けて前記評価の結果を出力させる出力制御手段とを、
更に備える、請求項2に記載の支援装置。 - 前記出力制御手段は、
前記評価の結果に応じて、当該聴衆ユーザが歌唱する曲としていずれかの楽曲を指定して再生する場合に、歌唱する曲として前記指定した楽曲の再生中に、前記指定した楽曲の楽曲データに含まれる前記拍タイミングにおいて歌唱を支援する音を出力させる支援処理を実行する、請求項3に記載の支援装置。 - 前記導出手段は、
前記拍タイミングの各々と、前記拍手のタイミングの各々との差分の総和を、前記ズレ指標の1つとして導出する、請求項2から請求項4までのいずれか一項に記載の支援装置。 - 前記導出手段は、
前記拍タイミングの各々と、前記拍手のタイミングの各々との差分の絶対値の総和を、前記ズレ指標の1つとして導出する、請求項2から請求項5までのいずれか一項に記載の支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016066112A JP2017181661A (ja) | 2016-03-29 | 2016-03-29 | 支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016066112A JP2017181661A (ja) | 2016-03-29 | 2016-03-29 | 支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017181661A true JP2017181661A (ja) | 2017-10-05 |
Family
ID=60005331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016066112A Pending JP2017181661A (ja) | 2016-03-29 | 2016-03-29 | 支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017181661A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021110821A (ja) * | 2020-01-09 | 2021-08-02 | Necプラットフォームズ株式会社 | 解析装置、演奏支援システム、解析方法及びプログラム |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1031495A (ja) * | 1996-07-16 | 1998-02-03 | Nippon Columbia Co Ltd | カラオケ装置 |
JP2001100630A (ja) * | 1999-09-30 | 2001-04-13 | Kawai Musical Instr Mfg Co Ltd | 聴音訓練装置 |
JP2008132088A (ja) * | 2006-11-28 | 2008-06-12 | Taito Corp | リズムゲーム装置 |
JP2009047861A (ja) * | 2007-08-17 | 2009-03-05 | Sony Corp | 演奏支援装置、演奏支援方法及びプログラム |
JP2009186762A (ja) * | 2008-02-06 | 2009-08-20 | Yamaha Corp | 拍タイミング情報生成装置およびプログラム |
JP2012088521A (ja) * | 2010-10-20 | 2012-05-10 | Mega Chips Corp | アミューズメントシステム |
JP2012220547A (ja) * | 2011-04-05 | 2012-11-12 | Sony Corp | 音量制御装置、音量制御方法およびコンテンツ再生システム |
JP2013195738A (ja) * | 2012-03-21 | 2013-09-30 | Yamaha Corp | 歌唱評価装置 |
JP2014217627A (ja) * | 2013-05-09 | 2014-11-20 | 株式会社振付著作権協会 | 身体動作評価装置、カラオケシステム、及びプログラム |
JP2015087436A (ja) * | 2013-10-29 | 2015-05-07 | パイオニア株式会社 | 音声処理装置、音声処理装置の制御方法およびプログラム |
-
2016
- 2016-03-29 JP JP2016066112A patent/JP2017181661A/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1031495A (ja) * | 1996-07-16 | 1998-02-03 | Nippon Columbia Co Ltd | カラオケ装置 |
JP2001100630A (ja) * | 1999-09-30 | 2001-04-13 | Kawai Musical Instr Mfg Co Ltd | 聴音訓練装置 |
JP2008132088A (ja) * | 2006-11-28 | 2008-06-12 | Taito Corp | リズムゲーム装置 |
JP2009047861A (ja) * | 2007-08-17 | 2009-03-05 | Sony Corp | 演奏支援装置、演奏支援方法及びプログラム |
JP2009186762A (ja) * | 2008-02-06 | 2009-08-20 | Yamaha Corp | 拍タイミング情報生成装置およびプログラム |
JP2012088521A (ja) * | 2010-10-20 | 2012-05-10 | Mega Chips Corp | アミューズメントシステム |
JP2012220547A (ja) * | 2011-04-05 | 2012-11-12 | Sony Corp | 音量制御装置、音量制御方法およびコンテンツ再生システム |
JP2013195738A (ja) * | 2012-03-21 | 2013-09-30 | Yamaha Corp | 歌唱評価装置 |
JP2014217627A (ja) * | 2013-05-09 | 2014-11-20 | 株式会社振付著作権協会 | 身体動作評価装置、カラオケシステム、及びプログラム |
JP2015087436A (ja) * | 2013-10-29 | 2015-05-07 | パイオニア株式会社 | 音声処理装置、音声処理装置の制御方法およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021110821A (ja) * | 2020-01-09 | 2021-08-02 | Necプラットフォームズ株式会社 | 解析装置、演奏支援システム、解析方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5958041B2 (ja) | 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置 | |
RU2502119C1 (ru) | Музыкальный звукогенерирующий инструмент и машиночитаемый носитель | |
JP2015069082A (ja) | 情報処理装置,データ生成方法,及びプログラム | |
JP6288197B2 (ja) | 評価装置及びプログラム | |
JP5732982B2 (ja) | 楽音生成装置および楽音生成プログラム | |
JP2009198714A (ja) | カラオケ装置及びカラオケ伴奏音楽の再生処理方法及びプログラム | |
JP6944357B2 (ja) | 通信カラオケシステム | |
JP2017181661A (ja) | 支援装置 | |
JP3984830B2 (ja) | カラオケ配信システム、カラオケ配信方法、及びカラオケ配信プログラム | |
JP6406273B2 (ja) | カラオケ装置,及びプログラム | |
JP6352164B2 (ja) | 聴取者評価を考慮したカラオケ採点システム | |
JP6260565B2 (ja) | 音声合成装置、及びプログラム | |
JP6358018B2 (ja) | カラオケ装置、及びプログラム | |
JP6056799B2 (ja) | プログラム、情報処理装置、及びデータ生成方法 | |
JP6380305B2 (ja) | データ生成装置、カラオケシステム、及びプログラム | |
JP6365483B2 (ja) | カラオケ装置,カラオケシステム,及びプログラム | |
JP6432478B2 (ja) | 歌唱評価システム | |
JP6406182B2 (ja) | カラオケ装置、及びカラオケシステム | |
JP6149890B2 (ja) | 楽音生成装置および楽音生成プログラム | |
JP7465194B2 (ja) | カラオケ装置 | |
JP5983670B2 (ja) | プログラム、情報処理装置、及びデータ生成方法 | |
JP5742592B2 (ja) | 楽音生成装置、楽音生成プログラム及び電子楽器 | |
JP6184308B2 (ja) | カラオケ装置 | |
JP6842356B2 (ja) | カラオケ装置 | |
JP6102975B2 (ja) | 楽音生成装置、楽音生成プログラム及び電子楽器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181225 |