JP7026412B1 - 楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体 - Google Patents

楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体 Download PDF

Info

Publication number
JP7026412B1
JP7026412B1 JP2020112781A JP2020112781A JP7026412B1 JP 7026412 B1 JP7026412 B1 JP 7026412B1 JP 2020112781 A JP2020112781 A JP 2020112781A JP 2020112781 A JP2020112781 A JP 2020112781A JP 7026412 B1 JP7026412 B1 JP 7026412B1
Authority
JP
Japan
Prior art keywords
sound source
data
source data
unit
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020112781A
Other languages
English (en)
Other versions
JP2022036359A (ja
Inventor
敏秀 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JE International Corp
Original Assignee
JE International Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JE International Corp filed Critical JE International Corp
Priority to JP2020112781A priority Critical patent/JP7026412B1/ja
Application granted granted Critical
Publication of JP7026412B1 publication Critical patent/JP7026412B1/ja
Publication of JP2022036359A publication Critical patent/JP2022036359A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】複数の演奏者あるいはシンガーが、演奏あるいは歌唱して1つの楽曲を作り上げることのできる楽曲制作装置等を提供する。【解決手段】楽曲制作装置(サーバ1)は、カラオケ提供部22と、音源取得部24と、選択部25と、ミキシング実行部26とを備える。カラオケ提供部は、楽曲のパートごとのカラオケデータを外部(個々のユーザの所有する端末装置2)に提供する。音源取得部は、個々のユーザが演奏した、カラオケデータに対応するパートごとの音源データを、各端末装置から取得して蓄積する。選択部は、音源取得部が取得した音源データから、パートを代表する代表音源データを選択する。ミキシング実行部は、楽曲を構成する複数のパートのそれぞれについて選択部が選択した代表音源データをミキシングすることによって、複数のパートを含んだ音源データである最終音源データを作成する。【選択図】図1

Description

本発明は、楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体に関する。
インターネットを用いた仕組みを用いることにより、シンガー(歌手)あるいは楽器演奏者が、コラボレーションして楽曲の演奏を行うことが試みられている。
例えば、特許文献1には、マイクによってキャプチャーされたオーディオおよびカラオケ演奏に関連した楽曲オーディオと、キャプチャーされたビデオを組み合わせて、カラオケ演奏の組み合わされた記録を作成する技術が記載されている。特許文献1に記載されている技術では、多数のデジタルダウンロードジュークボックスをネットワークで接続している。特許文献1の段落0082には、「歌手は、例えば、ビートとの共時性、期待されるノートやピッチからのズレ、および/または、観衆の反応、測定された拍手、KJ、他の公認の人からの客観的な評価、ゲストの判断のような量的な尺度、適切な測定装置を介して決定された量的な尺度に基づいて、ランキングされるか、得点が与えられる。」ことが記載されている。また、特許文献1の段落0085には、「カラオケジュークボックスは、楽曲音楽メディアをレンダリングする一方で、インバウンド演奏オーディオを重ねるために、リアルタイム音楽ミキシングおよび操作装置を提供する。これら2つのオーディオストリームは、オリジナルの音楽と会場でキャプチャーされたオーディオとを含む混合オーディオファイルを生成するためのミキシングアレンジによって、混合される。」ことが記載されている。
特開2018-136547号公報
しかしながら、特許文献1に記載された技術では、予め収録されたオーディオ(特許文献1の段落0085に記載の「楽曲音楽メディア」)と、リアルタイムで演奏されるオーディオ(特許文献1の段落0085に記載の「インバウンド演奏オーディオ」)とのミキシングを行うのみである。つまり、背景技術では、例えば相互に見知らぬ複数のシンガーあるいは演奏者が、演奏して1つの楽曲を作り上げるということはできない。
本発明は、上記の課題の認識に基づいて行なわれたものであり、複数のシンガーあるいは演奏者が、ネットワーク等を介して1つの楽曲を作り上げることのできる楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体を提供しようとするものである。
[1]上記の課題を解決するため、本発明の一態様による楽曲制作装置は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部とを具備する。
[2]また、本発明の一態様は、上記の楽曲制作装置において、前記パートは、前記楽曲を構成するための楽器のパートまたは歌唱のパートであるというものである。
[3]また、本発明の一態様は、上記の楽曲制作装置において、前記音源取得部は、前記パートごとの前記音源データを、前記パートごとに独立のタイミングで取得する。
[4]また、本発明の一態様は、上記の楽曲制作装置において、前記楽曲の前記パートごとの楽譜データを外部に提供する楽譜提供部、をさらに備え、前記音源取得部は、前記楽譜データにも対応する前記パートごとの前記音源データを取得するものである。
[5]また、本発明の一態様は、上記の楽曲制作装置において、前記選択部は、前記音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、前記音源データの前記正解を基準としたときの正確さを表す評価結果である機械評価と、前記音源データに関して審査員の端末装置から受信した評価結果である審査員評価と、前記音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価と、前記音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数と、前記音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数と、前記音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間と、の少なくともいずれかの評価結果に基づいて、前記パートを代表する前記代表音源データを選択するものである。
[6]また、本発明の一態様は、上記の楽曲制作装置において、前記選択部は、前記機械評価と、前記審査員評価と、前記ユーザー評価と、前記「いいね」数と、前記再生回数と、前記再生時間とのうちの、すくなくとも2つの評価に基づいて総合評価を算出し、算出された前記総合評価に基づいて、前記パートを代表する前記代表音源データを選択するというものである。
[7]また、本発明の一態様は、上記の楽曲制作装置において、前記音源データは、前記カラオケデータを提供した先の端末装置のユーザーの演奏または歌唱を収録したサウンドのデータであり、前記選択部は、前記端末装置から取得した前記音源データのみの中から、前記パートを代表する前記代表音源データを選択するものである。
[8]また、本発明の一態様は、上記の楽曲制作装置において、前記カラオケデータは、パート間の再生同期のための同期信号を含んでおり、前記音源データは、前記カラオケデータが含んでいた前記同期信号を引き継いで持つものであり、前記ミキシング実行部は、前記代表音源データが持つ前記同期信号に基づいて前記パート間の再生同期をとりながら複数の前記代表音源データをミキシングするものである。
[9]また、本発明の一態様は、上記の楽曲制作装置において、前記ミキシング実行部は、作成した前記最終音源データを、インターネットを介して送信可能とするものである。
[10]また、本発明の一態様は、カラオケ提供部が、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供過程と、音源取得部が、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得過程と、選択部が、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択過程と、ミキシング実行部が、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行過程とを含む楽曲制作方法である。
[11]また、本発明の一態様は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部とを具備する楽曲制作装置、としてコンピューターを機能させるプログラムである。
[12]また、本発明の一態様は、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、を具備する楽曲制作装置、としてコンピューターを機能させるプログラムを記録した、コンピューター読み取り可能な記録媒体である。
[13]また、本発明の一態様は、カラオケデータと楽譜データとを受信するデータ受信部と、前記カラオケデータをサウンドとして提示するとともに、前記楽譜データに基づく楽譜を視覚情報として画面に提示する提示部と、前記提示部による前記カラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録するサウンド記録部と、前記音源データを評価して機械評価データを出力する評価部と、前記音源データおよび前記機械評価データを送信するデータ送信部とを具備する端末装置である。
本発明によれば、楽曲制作装置は、パートごとの音源データを取得して、それらの音源データの中から選択された代表音源データのみを用いて、最終音源データを作成することができる。
本発明によれば、楽曲制作装置は、ユーザーが自分のパートの音源データを制作して楽曲制作装置に送信するだけで、すべてのパートをも含めた全体の最終音源データを作成することができる。また、このように制作された最終音源データを、一般に対して公開することができる。
本発明の実施形態によるシステム(特に、サーバー装置)の概略機能構成を示すブロック図である。 同実施形態による端末装置の概略機能構成を示すブロック図である。 同実施形態によるデータベース内の管理情報記憶部が持つ楽曲管理テーブルの構成の例を示す概略図である。 同実施形態によるデータベース内のカラオケ記憶部が持つカラオケテーブル(MRテーブル)の構成の例を示す概略図である。 同実施形態によるデータベース内の楽譜記憶部が持つ楽譜テーブルの構成の例を示す概略図である。 同実施形態によるデータベース内の取得音源記憶部が持つ取得音源テーブルの構成の例を示す概略図である。 同実施形態によるデータベース内の管理情報記憶部が持つ音源評価テーブルの構成の例を示す概略図である。 同実施形態によるデータベース内の管理情報記憶部が持つ選択音源テーブルの構成の例を示す概略図である。 同実施形態によるデータベース内の最終音源記憶部が持つ最終音源テーブルの構成の例を示す概略図である。 同実施形態によるサーバー装置が最終音源を制作するまでの処理の手順を示すフローチャートである。 同実施形態における本実施形態のサーバー装置や端末装置などの各装置の内部構成の例を示すブロック図である。
次に、図面を参照しながら、本発明の実施形態について説明する。
以下で説明する実施形態では、サーバー装置1が、特定の楽曲について、スケジュールを決めて、端末装置2のユーザーからの音源を募集する。音源を募集する際に、サーバー装置1は、パートごとの音源を募集する。ここで、パートとは、楽器ごと(ヴォーカルを含む)の演奏等の分担を指す。なお、1種類の楽器が、複数のパートを持つ場合(例えば、リードギターと、サイドギターなど)もある。上記の募集のために、サーバー装置1は、パートごとの、楽譜とカラオケとを提供する。サーバー装置1は、楽譜データとカラオケデータとを端末装置2に対して送信することができる。端末装置2は、サーバー装置1から受信した楽譜データに基づいて楽譜を画面等に表示する。また、端末装置2は、サーバー装置1から受信したカラオケデータに基づいて、カラオケ(MR)の再生を行う。カラオケのサウンドは、例えば端末装置2に接続されたスピーカーやイヤフォン等から出力され得る。端末装置2は、ユーザーが演奏する楽器や、ユーザーが歌う歌(ヴォーカル)の、サウンドを収録し、音源データとして記録する。端末装置2は、サーバー装置1の募集に応じて、音源データをサーバー装置1に送信する。サーバー装置1は、多数の端末装置2から送られる音源データを収集し、蓄積する。サーバー装置1は、特定の楽曲のパートごとに、音源データを評価する。サーバー装置1は、評価の高い音源データをミキシングして、最終音源データを作成する。
なお、端末装置2を使用するユーザーたちが、演奏等を収録する際に、他の端末装置2のユーザーと同期を取る必要はない。端末装置2のユーザーは、各々の独立のタイミング、好きなタイミングで演奏等を行い、音源データをサーバー装置1に送信してよい。後述するように、楽曲における複数のパート間の同期は、ミキシング処理時に行われる。また、端末装置2のユーザー同士が、予め示し合わせて同一の楽曲に関する音源データを投稿する必要もない。個々の端末装置2のユーザーは、他の端末装置2のユーザーが楽曲のどのパートを担当するかを意識することなく、自らの希望するパートの音源データを投稿することができる。
上で述べた「音源データ」は、各パートの音を収録したデータであり、端末装置2からサーバー装置1に送られ、サーバー装置1において蓄積されるものである。また、「最終音源データ」は、上記の各パートの音源データをミキシングして作成されたデータである。「最終音源データ」は、特定の楽曲の、例えば全パートの音源データをミキシングして作成されたものである。
本実施形態で使用する用語のうち、XMLは、拡張可能なマーク付け言語(Extensible Markup Language)を意味する。また、MRは、Music Recordedの略である。MRは、いわゆるカラオケである。また、サウンド(sound)は、空気等の媒体の振動によって生じる聴覚の内容である。サウンドは、日本語では「音」あるいは「音声」などとも呼ばれる。本実施形態において、サウンドは、主に楽音である。本実施形態におけるサウンドは、楽器演奏による音や、人の歌唱による音や、コンピューター(シンセサイザー)を用いて合成された音を含んでよい。
図1は、本実施形態によるシステムの概略機能構成を示すブロック図である。図示するように、このシステムは、サーバー装置1と、端末装置2とを、通信で接続して構成される。サーバー装置1は、「楽曲制作装置」とも呼ばれる。サーバー装置(楽曲制作装置)1は、端末インターフェース部10と、音源募集機能部21と、カラオケ提供部22と、楽譜提供部23と、音源取得部24と、選択部25と、ミキシング実行部26と、データベース30とを含んで構成される。これらの各機能部は、例えば、コンピューターと、プログラムとで実現することが可能である。また、各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、プログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。また、各機能部の少なくとも一部の機能を、プログラムではなく専用の電子回路として実現してもよい。
端末インターフェース部10は、端末装置2に対するインターフェースの機能を持つ。具体的には、端末インターフェース部10は、端末装置2に対して各種データ(カラオケデータや楽譜データを含む)を送信したり、端末装置2から各種データ(音源データおよび関連するデータ)を受信したりする。
音源募集機能部21は、端末装置2に対し、音源を募集する旨の情報を提示する。具体的には、音源募集機能部21は、端末装置2で表示するための募集情報を、端末装置2に対して送信する。
カラオケ提供部22は、楽曲のパート(楽器やヴォーカル)ごとのカラオケデータを外部に提供する。カラオケ提供部22は、そのカラオケデータを、データベース30のカラオケ記憶部31から読み出して外部に提供する。具体的には、カラオケ提供部22は、カラオケデータを、端末装置2に送信する。上記の通り、パートとは、楽曲を構成するための楽器のパートまたは歌唱のパートである。
楽譜提供部23は、楽曲のパートごとの楽譜データを外部に提供する。具体的には、楽譜提供部23は、楽譜データを、データベース30の楽譜記憶部32から読み出す。また、楽譜提供部23は、楽譜データを、端末装置2に対して送信することができる。
音源取得部24は、前記カラオケデータに対応するパートごとの音源データを取得して、蓄積する。音源取得部24が取得する音源データは、前記楽譜データにも対応するものである。具体的には、音源取得部24は、音源データを端末装置2から受信する。また、音源取得部24は、取得した音源データを、データベース30の取得音源記憶部33に書き込む。また、音源取得部24は、端末装置から、その音源データの機械評価の結果を受信して、データベース30の管理情報記憶部35に書き込むことができる。
なお、音源取得部24は、パートごとの音源データを、パートごとに独立のタイミングで取得することができる。また、音源取得部24は、個々の端末装置2から、それぞれの端末装置2ごとに独立のタイミングで、音源データを取得することができる。つまり、端末装置2側のユーザーは、他の端末装置2のユーザーとの間で、音源データを作成するタイミングや、音源データを投稿するタイミングを、同期したり調節したりする必要がない。
選択部25は、楽曲ごと且つパートごとに、最終音源に取り込むための音源データを選択する。具体的には、選択部25は、音源データごとの評価の情報を収集し、データベース30内の管理情報記憶部35に書き込む。また、選択部25は、収集した評価の情報に基づき、総合評価のポイントを算出する。例えば、選択部25は、複数の評価項目の数値の加重和(または加重平均)を算出して、総合評価のポイントとする。このときの評価項目ごとの重み値は、予め設定しておく。あるいは、機械学習等の手法を用いて、重み値の集合を予め最適化しておいてもよい。選択部25は、算出した総合評価のポイントを、管理情報記憶部35に書き込む。
選択部25が選択するのは、ミキシング実行部26によって用いられる、パートごとの代表である代表音源データである。つまり、選択部25によって選択された音源データは、代表音源データと呼ばれる。選択部25は、楽曲のパートごとに、代表音源データを選択する。
選択部25が総合評価を算出する際の計算式の一例は、次の通りである。
計算式:
総合評価のポイント=100×
(W1×機械評価のポイント/機械評価の基準値
+W2×審査員評価のポイント/審査員評価の基準値
+W3×ユーザー評価のポイント/ユーザー評価の基準値
+W4×いいね数/いいね数の基準値
+W5×再生回数/再生回数の基準値
+W6×再生時間(秒数)/再生時間(秒数)の基準値)
上記の数式において、例えば、機械評価のポイントと、審査員評価のポイントと、ユーザー評価のポイントを、それぞれ、0以上且つ100以下の数値とする。
また、機械評価の基準値と、審査員評価の基準値と、ユーザー評価の基準値を、それぞれ、100とする。また、いいね数の基準値と、再生回数の基準とを、適宜定められる数値(例えば、1000)とする。また、再生時間(秒数)の基準値を、適宜定められる数値(例えば、72000[秒]など)とする。また、W1、W2、W3、W4、W5、W6はそれぞれ重み係数であり、例えば、W1+W2+W3+W4+W5+W6=1とする。
なお、総合評価の算出方法は、ここに例示した方法に限られない。例えば、総合評価は、重み付け平均値ではなくてもよい。また、例えば、総合評価は、算術演算によって求められるものでなくてもよい。
つまり、選択部25は、
(1)音源データにおける音程および拍子と、正解の音程および拍子と、を比較することによって、音源データの正解を基準としたときの正確さを表す評価結果である機械評価、
(2)音源データに関して審査員の端末装置から受信した評価結果である審査員評価、
(3)音源データに関してユーザーの端末装置から受信した評価結果であるユーザー評価、
(4)音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数、
(5)音源データがユーザーの端末装置で再生された回数を評価結果とした再生回数、
(6)音源データがユーザーの端末装置で再生された時間の総計を評価結果とした再生時間、
の少なくともいずれかの評価結果に基づいて、パートを代表する代表音源データを選択する。
また、選択部25は、機械評価と、審査員評価と、ユーザー評価と、「いいね」数と、再生回数と、再生時間とのうちの、すくなくとも2つの評価に基づいて総合評価を算出してよい。選択部25は、算出された前記総合評価に基づいて、パートを代表する代表音源データを選択する。
音源データは、カラオケデータを提供した先の端末装置2のユーザーの演奏または歌唱を収録したサウンドのデータであってよい。選択部25は、端末装置2から取得した音源データのみの中から、各パートを代表する前記代表音源データを選択するようにしてもよい。
ミキシング実行部26は、楽曲を構成する複数のパートのそれぞれについて選択部25が選択した代表音源データをミキシングすることによって、複数のパートを含んだ音源データである最終音源データを作成する。なお、ミキシング実行部26は、作成した最終音源データを、インターネットを介して送信可能となるようにしてもよい。
データベース30は、データを記憶し、管理する機能を持つ。データベース30は、例えば、リレーショナルデータモデルを採用したデータベース管理システム(DBMS)を用いて実現することができる。データベース30が保持するデータの構成については、別の図を参照しながら、後で説明する。
図1にも示すように、上記のデータベース30は、カラオケ記憶部31と、楽譜記憶部32と、取得音源記憶部33と、最終音源記憶部34と、管理情報記憶部35とを含んで構成される。
カラオケ記憶部31は、カラオケのデータを記憶する。カラオケのデータは、特定の楽曲の、特定のパート用の、カラオケ演奏のサウンドデータである。つまり、カラオケのデータは、当該パート(楽器あるいはヴォーカル)以外の演奏の音を収録したデータである。サウンドデータは、例えば、WAV形式、MPEG形式等の形式で表現されるデータである。カラオケ記憶部31は、カラオケのデータを、曲IDおよびパートIDに関連付けて記憶する。なお、カラオケは、MR(music recorded,ミュージックレコーデッド)とも呼ばれる。
なお、1つの楽曲の各パート用のカラオケデータは、同期再生が可能なデータである。例えば、各パート用のカラオケデータのサンプリング周波数は、他のパートのサンプリング周波数と完全に一致している。また、各パート用のカラオケデータが、内部に同期信号を持っていてもよい。カラオケデータの演奏に基づいて収録される音源データも、同様に同期再生可能なものとしてよい。各パートの音源データも、内部に同期信号を持ってもよい。これにより、1つの楽曲の各パートの音源データ(端末装置2からサーバー装置1に送信されるデータ)は、他のパートと同期再生することが可能となる。したがって、ミキシング実行部26が複数のパートの音源データをミキシングする場合にも、パート間の同期を行うことが可能である。
つまり、カラオケデータは、パート間の再生同期のための同期信号を含んでいる。音源データは、カラオケデータが含んでいた同期信号を引き継いで持つものであってもよい。ミキシング実行部26は、代表音源データが持つ同期信号に基づいてパート間の再生同期をとりながら複数の代表音源データをミキシングしてよい。
楽譜記憶部32は、楽譜のデータを記憶する。楽譜のデータは、特定の楽曲の、特定のパート用の、音階や、リズムや、休符や、その他の演奏のための情報を含むものである。典型的には楽譜は、五線譜で表現され得る情報あるいはそれと等価な情報を持つ。しかしながら、楽器等によっては、楽譜が五線譜以外で表わされるものであってもよい。楽譜記憶部32は、上記のような楽譜のデータを、曲IDおよびパートIDに関連付けて記憶する。
取得音源記憶部33は、サーバー装置1が端末装置2から取得した音源データを記憶するものである。音源データとは、カラオケデータや楽譜データに基づいて、端末装置2側で収録されたサウンドのデータである。音源データは、楽曲の各パートの演奏あるいは歌唱のサウンドを表す。音源データは、端末装置2のユーザー等が行った特定のパートの演奏あるいは歌唱を収録したものである。
最終音源記憶部34は、選択部25が選択した代表の音源データをミキシング処理した結果である最終音源のデータを記憶する。選択部25によって選択された代表の音源データは、楽曲の各パートを代表する音源データである。
管理情報記憶部35は、楽曲および音源データに関する管理情報を記憶する。管理情報記憶部35が記憶するデータは、楽曲の曲名に関するデータや、端末装置2から投稿された音源データごとの評価結果のデータを含む。
図2は、端末装置2の概略機能構成を示すブロック図である。図示するように、端末装置2は、データ送受信部51と、提示部61と、サウンド記録部62と、評価部63と、表示部71と、サウンド出力部72と、サウンド入力部73とを含んで構成される。端末装置2が持つ各機能部もまた、例えば、コンピューターと、プログラムとを用いて実現することが可能である。また、各機能部は、必要に応じて、記憶手段を有する。記憶手段は、例えば、プログラム上の変数や、プログラムの実行によりアロケーションされるメモリーである。また、必要に応じて、磁気ハードディスク装置やソリッドステートドライブ(SSD)といった不揮発性の記憶手段を用いるようにしてもよい。また、各機能部の少なくとも一部の機能を、プログラムではなく専用の電子回路として実現してもよい。端末装置2は、例えば、PCや、タブレット端末や、スマートフォンや、腕時計型端末といった装置と、それらの装置上で稼働するプログラムとで実現され得る。端末装置2を構成する各機能部の機能は、次の通りである。
データ送受信部51は、通信による外部装置とのデータの送受信を行う。具体的には、データ送受信部51は、サーバー装置1から送信されるデータを受信したり、サーバー装置に対してデータを送信したりする。データ送受信部51がサーバー装置1から受信するデータは、カラオケデータや楽譜データを含む。データ送受信部51がサーバー装置1に対して送信するデータは、楽曲の特定のパートの音源データや、音源データに関する評価データ(評価部63による評価結果)を含む。
つまり、データ送受信部51は、カラオケデータと楽譜データとを受信するデータ受信部として機能する。また、データ送受信部51は、音源データおよび機械評価データ(評価部63による評価結果)を送信するデータ送信部としても機能する。
提示部61は、サーバー装置1から受信したカラオケデータや楽譜データをユーザーに提示する。提示部61は、カラオケデータに基づくサウンドを、サウンド出力部72に出力させる。また、提示部61は、楽譜データに基づく楽譜等を、表示部71に表示させる。提示部61が提示する情報に基づいて、端末装置2のユーザーは、歌唱や楽器の演奏等を行うことができる。つまり、提示部61は、カラオケデータをサウンドとして提示するとともに、楽譜データに基づく楽譜を視覚情報として画面に提示する。
サウンド記録部62は、サウンド入力部73から入力されるサウンドを記録する。サウンド記録部62は、サウンドを適切に符号化し、WAV形式やMPEG形式等のデータとして記録する。サウンド記録部62は、具体的には、楽曲の特定のパートの演奏ないしは歌唱のサウンドを、音源データとして記録する。つまり、サウンド記録部62は、提示部61によるカラオケデータの提示に合わせて外部から取得したサウンドを音源データとして記録する。
評価部63は、音源データ(端末装置2のユーザーによる楽器演奏や歌唱等を収録したデータ)の機械評価を行う。評価部63は、機械評価の結果のデータ(機械評価データとも呼ぶ)を出力する。機械評価の結果のデータは、例えば音源データを投稿する際などに、サーバー装置1側に渡されて、サーバー装置1側で保存され得る。具体的には、評価部63は、例えば、音程の正確さや、拍子の正確さに基づいて、音源データの機械評価を行う。評価部63は、例えば、楽譜データに基づく正解の音程および拍子等と、収録された音源データの音程および拍子等とを比較し、両者間の距離等に基づく評価を行う。両者の距離が近い程、評価部63はその音源データに高い評価(演奏や歌唱が上手であることを表す)を付与する。逆に両者の距離が遠い程、評価部63はその音源データに低い評価(演奏や歌唱が上手ではないことを表す)を付与する。その一例として、評価部63は、楽譜データ内の所定の評価箇所のタイミングにおいて、両者の音程や拍子等を比較する。
表示部71は、端末装置2が持つ表示デバイス(液晶表示器等)を用いて、視覚的に情報を表示する。表示部71は、例えば、楽譜データに基づく楽譜を表示する。
サウンド出力部72は、スピーカーやイヤフォン等からサウンドを出力する。サウンド出力部72は、例えば、カラオケデータに基づくカラオケサウンドを出力する。
サウンド入力部73は、外部からサウンドを取得するものである。サウンド入力部73は、マイクロフォンを含んで構成される。あるいは、サウンド入力部73は、外部のマイクロフォンに接続される。
次に、図3、図4、図5、図6、図7、図8、図9を参照しながら、データベース30が保持するデータの構成について説明する。
図3は、データベース30内の管理情報記憶部35が持つ楽曲管理テーブルの構成の例を示す概略図である。図示するように、楽曲管理テーブルは、2次元の表形式のデータであり、曲IDと、曲名のデータ項目を持つ。楽曲管理テーブルのデータの意味は、次の通りである。
曲IDは、楽曲を一意に識別するための識別情報である。曲IDは、重複しない。曲IDは、楽曲管理テーブルの主キーである。
曲名は、楽曲のタイトルである。曲名は、重複してもよい。
図示するデータ例では、第1行目の曲IDは「T123456」であり、その曲名は「真夜中のディスタンス」である。他の行のデータについても、同様に、楽曲管理テーブルは、曲IDと曲名とを関連付けている。
図4は、データベース30内のカラオケ記憶部31が持つカラオケテーブル(MRテーブル)の構成の例を示す概略図である。図示するように、カラオケテーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、パートと、カラオケのデータ項目を持つ。カラオケテーブルのデータの意味は、次の通りである。
曲IDは、楽曲管理テーブルの説明において述べたとおりである。
パートIDは、楽曲内におけるパートを一意に識別するための識別情報である。1つの楽曲に、通常、複数のパートが含まれる。1つのパートは、通常、1種類の楽器あるいはヴォーカルのためのものである。ある楽器あるいはヴォーカルに関する複数のパートが存在してもよい(例えば、リードギターと、サイドギターなど)。
パートは、そのパートを言葉で示すデータである。パートの例は、「キーボード」、「ドラムス」、「パーカッション」、「ベース」、「ギター」、「サキソフォン」、「トランペット」、「ヴォーカル」等である。
カラオケのデータは、カラオケ演奏を収録したサウンドデータである。カラオケのデータは、各パート用に存在する。カラオケのデータは、通常、対象とするパートの演奏等を含まない演奏を収録したものである。カラオケのデータが、楽器等のカラオケ演奏以外に、対象とするパートの演奏を補助するための音(例えば、拍子を表す音)等を含んでいてもよい。
図示するデータ例では、第1行目のデータの、曲IDは「P123458」、パートIDは「P1001」、パートの名称は「ヴォーカル1」である。また、1行目のデータのカラオケの項目には、当該パート用のカラオケサウンドのデータが格納されている。他の行のデータも同様に、特定の楽曲の特定のパートについて、曲ID、パートID、パートに関連付けて、カラオケのデータが保持されている。
図5は、データベース30内の楽譜記憶部32が持つ楽譜テーブルの構成の例を示す概略図である。図示するように、楽譜テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、パートと、楽譜のデータ項目を持つ。楽譜テーブルのデータの意味は、次の通りである。
曲IDと、パートIDと、パートの各データ項目は、カラオケテーブル(図4)に関して説明した通りである。
楽譜のデータは、端末装置2の画面に楽譜等の情報を表示するためのデータである。楽譜のデータの形式は、適宜、設計され得る。一例として、XMLを用いて楽譜のデータを構成するようにしてもよい。楽譜は、画面上において、例えば五線譜を用いて表示される。ただし、五線譜以外の形式の楽譜を表示するようにしても良い。楽譜のデータは、音階の情報、リズムの情報、休符の情報や、その他の演奏等のための情報をふくむ。
図示するデータ例では、第1行目のデータの、曲IDは「P123458」、パートIDは「P1001」、パートの名称は「ヴォーカル1」である。また、1行目のデータの楽譜の項目には、当該パート用の楽譜の情報を表すデータが格納されている。他の行のデータも同様に、特定の楽曲の特定のパートについて、曲ID、パートID、パートに関連付けて、楽譜のデータが保持されている。
図6は、データベース30内の取得音源記憶部33が持つ取得音源テーブルの構成の例を示す概略図である。図示するように、取得音源テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、ユーザーIDと、取得日時と、音源IDと、取得音源のデータ項目を持つ。取得音源テーブルのデータの意味は、次の通りである。
曲IDおよびパートIDについては、既に説明した通りである。
ユーザーIDは、その音源データを投稿したユーザーのIDである。ユーザーIDは、端末装置2を使用する多数のユーザーのそれぞれを一意に識別するための識別情報である。ユーザーが異なれば、ユーザーIDも異なる。
取得日時は、サーバー装置1がその音源データを取得した日時である。取得日時は、ユーザーがその音源データを投稿した日時と同一であってよい。取得日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。
音源IDは、音源データを一意に識別するための識別情報である。ユーザーが音源データを投稿したときに、その音源データに対して音源IDが割り振られる。
取得音源は、ユーザーが投稿した音源データそのものである。取得音源の項目には、例えばMPEG形式やWAV形式などの形式で符号化されたサウンドのデータが格納される。
図示するデータ例では、第1行目のデータの、曲IDは「T123458」、パートIDは「P1001」、ユーザーIDは「U980001」、取得日時は「2020/06/25 16:01:38」、割り振られた音源IDは「D112901」である。また、第1行目のデータの取得音源の欄には、これらの曲ID、パートID、ユーザーID、取得日時、音源IDに関連付けられた音源データが格納されている。この音源データは、例えばWAV形式やMPEG形式などといった形式のデータである。他の行のデータも、特定の楽曲の特定のパートに関して、ユーザーが投稿した音源データ、およびそれに関連するデータを保持している。
図7は、データベース30内の管理情報記憶部35が持つ音源評価テーブルの構成の例を示す概略図である。図示するように、音源評価テーブルは、2次元の表形式のデータであり、音源IDと、機械評価と、審査員評価と、ユーザー評価と、いいね数と、再生回数と、再生時間と、総合評価のデータ項目を持つ。音源評価テーブルのデータの意味は、次の通りである。
音源IDは、既に説明した通りである。音源評価テーブルは、音源IDによって、他のテーブルと関連付けられる。音源評価テーブルは、ユーザーが投稿した各音源の評価についてのデータを保持する。
機械評価と、審査員評価と、ユーザー評価と、いいね数と、再生回数と、再生時間と、総合評価の項目は、それぞれ、評価項目ごとのデータを格納する領域である。機械評価は、機械(コンピューターとプログラム)による評価を表す。機械評価は、具体的には、端末装置2の評価部63が出力した評価データを格納するものであってよい。なお、機械評価は、端末装置2の評価部63の代わりに、サーバー装置1内で算出した機械評価の結果を格納するものであってもよい。審査員評価は、審査員が自身の端末装置等からサーバー装置1に送信した評価結果のデータを格納するものである。ユーザー評価は、審査員ではなく、一般のユーザーが端末装置2からサーバー装置1に送信した評価結果のデータを格納するものである。いいね数(FAV数)の項目は、一般のユーザーたちが、例えば端末装置2でその音源データを再生したときなどに、「いいね」ボタンを押した回数の合計を表すデータを格納する。再生回数の項目は、一般のユーザーたちが、例えば端末装置2で、その音源データを再生した回数の合計を表すデータを格納する。再生時間の項目は、一般のユーザーたちが、例えば端末装置2でその音源データを再生したときの、再生時間(例えば、秒数等で表わされる)の総和を表すデータを格納する。総合評価の項目には、例えば選択部25が、他の評価項目(機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間など)のデータを基に算出した総合評価のポイントのデータを格納する。
なお、機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間や、総合評価のデータは、例えば、数値のデータであってよい。機械評価や、審査員評価や、ユーザー評価や、いいね数や、再生回数や、再生時間や、総合評価のデータは、サーバー装置1が受信したデータあるいは信号や、それらを統計的に処理した結果のデータであってよい。
図示するデータ例では、第1行目のデータの音源IDは「D112901」である。第1行目のデータは、この「D112901」の音源データの評価情報を持つものである。図示するように第1行目のデータにおいて、機械評価は70、審査員評価は73、ユーザー評価は81、いいね数は808、再生回数は1123、再生時間の総計は20:04:34(20時間04分34秒)である。また、第1行目のデータに関して選択部25が算出した総合評価の値は、69.66である。他の行についても、同様に、音源データごとの評価情報が保持されている。
図8は、データベース30内の管理情報記憶部35が持つ選択音源テーブルの構成の例を示す概略図である。図示するように、選択音源テーブルは、2次元の表形式のデータであり、曲IDと、パートIDと、ユーザーIDと、音源IDのデータ項目を持つ。選択音源テーブルのデータの意味は、次の通りである。選択音源テーブルは、サーバー装置1が募集することによって集められた音源データの中から、選択部25が選択した音源データについての情報を保持するものである。
曲IDとパートIDとは、既に説明した通りである。曲IDとパートIDとを複合することにより、特定の楽曲の特定のパートが表される。
音源IDは、曲IDとパートIDとの組合せに関連付けられるものである。選択音源テーブルにおける音源IDは、特定の楽曲の特定のパートの音源データの中から、選択部25が選択した音源データを特定する情報である。この選択音源テーブルにおける音源IDは、取得音源テーブル(図6)における音源IDや、音源評価テーブル(図7)における音源IDと関連付けられ得るものである。
ユーザーIDは、その音源データを投稿したユーザーを一意に識別するための識別情報である。
図示するデータ例では、第1行目から第4行目までのデータの曲IDはいずれも「T123458」である。また、第1行目のデータに関して、パートIDは「P1001」、ユーザーIDは「U980123」、音源IDは「D112923」である。他の行のデータも同様に、曲IDとパートIDとユーザーIDと音源IDとの関連の情報を保持している。
図9は、データベース30内の最終音源記憶部34が持つ最終音源テーブルの構成の例を示す概略図である。図示するように、最終音源テーブルは、2次元の表形式のデータであり、曲IDと、制作日時と、最終音源のデータ項目を持つ。最終音源テーブルのデータの意味は、次の通りである。
曲IDは、既に説明したように、楽曲を一意に識別するための識別情報である。
制作日時は、そ楽曲に関する最終音源が制作された日時を表すものである。制作日時は、例えば、「YYYY/MM/DD hh:mm:ss」(年月日、時分秒)の形式で表わされる。
最終音源は、その楽曲に関して制作された音源のデータを格納する項目である。最終音源のデータは、例えばWAV形式やMPEG形式などの所定の符号化方式によってあらわされるものである。最終音源のデータは、ミキシング実行部26が、複数の音源データをミキシングして作成するものである。つまり、ミキシング実行部26が、目的とする楽曲について、選択音源テーブル(図8)に記録されている各パートの音源IDに基づいて特定される音源データをミキシング処理することにより、この最終音源のデータが作成される。
図示するデータ例では、第1行目のデータの、曲IDは「T123456」、制作日時は「2020/06/21 19:00:00」(2020年06月21日 19時00分00秒)である。また、最終音源の項目は、その曲の最終音源のデータが格納されている。最終音源のデータは、例えば、WAV形式あるいはMPEG形式等のデータである。
図10は、サーバー装置1が最終音源を制作するまでの処理の手順を示すフローチャートである。以下、このフローチャートに沿って説明する。
ステップS11において、サーバー装置1は、特定の楽曲についての楽譜のデータおよびカラオケのデータを準備する。具体的には、管理者の操作等により、音源募集機能部21は、その楽曲のカラオケのデータを、データベース30内のカラオケ記憶部31に書き込む。また、音源募集機能部21は、その楽曲の楽譜のデータを、データベース30内の楽譜記憶部32に書き込む。
ステップS12において、音源募集機能部21は、音源の募集を開始する。具体的には、音源募集機能部21は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、音源募集機能部21は、音源募集の情報を掲載したウェブページを送信可能な状態とする。そのウェブページには、楽曲の曲目や、募集するパートや、音源の締切日時などの情報が掲載される。そのウェブページから、パートごとのカラオケデータおよび楽譜データをダウンロードすることが可能なように設定される。そのウェブページが公開されると、端末装置2は、そのウェブページを参照して、カラオケデータおよび楽譜データをダウンロードすることが可能になる。実際には、カラオケ提供部22が、データベース30内のカラオケ記憶部31から読み出したカラオケデータを、端末装置2に送信することができる。また、楽譜提供部23が、データベース30内の楽譜記憶部32から読み出した楽譜データを、端末装置2に送信することができる。
端末装置2は、サーバー装置1から取得した、特定の楽曲の特定のパート用の、カラオケデータおよび楽譜データを、ユーザーに対して提示する。端末装置2は、その楽曲のそのパートのサウンドを収録し、音源データを作成する。具体的には、端末装置2のユーザーは、カラオケデータの演奏に合わせて、また楽譜データを見ながら、楽器を演奏し、あるいはヴォーカルとして楽曲の歌を歌い、端末装置2に接続されたマイクロフォン等を用いてそのサウンドを録音する。端末装置2は、作成したその音源データを、サーバー装置1に送信する。サーバー装置1側の音源取得部24は、端末装置2から送られた音源を取得し、データベース30内の取得音源記憶部33に書き込む。なお、音源取得部24は、取得した音源を、曲ID、パートID、ユーザーID、取得日時と関連付ける形で、上記の取得音源のデータを、取得音源記憶部33に書き込む。また、音源取得部24は、音源データに固有のID(音源ID)を付与し、その音源IDを、取得音源記憶部33に書き込む。
端末装置2の評価部63は、収録された音源データの評価を行う。評価部63は、個々の音源データに対応付けて、機械評価の結果を算出する。機械評価のポイントは、例えば、数値で表わされる。端末装置2は、上記の音源データに関連付けて、機械評価のポイントのデータを、サーバー装置1に対して送信する。サーバー装置1側の音源取得部24は、この機械評価のポイントのデータを受信する。音源取得部24は、当該音源データの音源IDと関連付ける形で、上記の機械評価のポイント(数値)を、管理情報記憶部35内に書き込む。
ステップS13において、音源募集機能部21は、音源の募集を終了する。具体的には、音源募集機能部21は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、音源募集機能部21は、音源募集の情報を掲載したウェブページに、締切日時が過ぎたことを表す情報を掲載する。これにより、端末装置2は、当該募集に対する応募の音源データを送信することができなくなる。また、サーバー装置1側の音源取得部24は、当該募集に関する音源データの取得を停止する。
音源募集終了後に、選択部25は、サーバー装置1が上記募集に関連して取得した音源データの評価を開始する。選択部25は、審査員による評価ポイントを、例えば審査員の端末装置等から受け取り、管理情報記憶部35内の審査員評価の欄に書き込む。また、選択部25は、一般ユーザーによる評価ポイントを、例えば一般のユーザーの端末装置等から受け取り、管理情報記憶部35内のユーザー評価の欄に書き込む。また、選択部25は、一般ユーザーらが付けた「いいね」の数をカウントし、その「いいね数」を、管理情報記憶部35内の「いいね数」の欄に書き込む。例えば、一般ユーザーの端末装置等から「いいね」を付与する情報がサーバー装置1に届く都度、選択部25は、管理情報記憶部35内の「いいね数」の値をカウントアップする。また、選択部25は、それぞれの音源データが再生された回数をカウントする。具体的には、例えば一般ユーザーの端末装置等から特定の音源データを再生したことを表す情報がサーバー装置1に届く都度、選択部25は、管理情報記憶部35内の再生回数の値をカウントアップする。また、選択部25は、それぞれの音源データが再生されたトータルの時間を計測する。具体的には、例えば一般ユーザーの端末装置等から特定の音源データを再生したことを表す情報がサーバー装置1に届いた場合に、選択部25は、各再生における再生時間の長さの情報を端末装置2から取得する。選択部25は、管理情報記憶部35内の再生時間の値に、今回の再生時間を加算して更新する。このようにして、音源データを評価するための情報が、データベース30内に蓄積されていく。
選択部25は、評価を締め切る前にも、その時点での最新のデータに基づいて、総合評価のポイントの途中経過を算出してもよい。また、選択部25は、評価を締め切る前にも、適宜、音源データのランキング情報を作成して、端末装置2側に送信するようにしてもよい。また、選択部25は人気ユーザーが作成した音源データの情報を、端末装置2側に送信するようにしてもよい。
上記のランキング情報は、例えば、楽曲別の、あるいは楽曲別且つパート別の、評価項目ごとのポイント、あるいは総合評価のポイントに基づくランキングである。なお、評価項目ごとのポイントとは、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といった項目ごとのポイントの数値である。選択部25が生成したこれらのランキングの情報を、サーバー装置1から端末装置2に送ることにより、端末装置2の画面には、ランキング情報が表示される。また、選択部25は、「人気ユーザー」に属するユーザーIDの情報を予め持っておく。また、「人気ユーザー」に属するユーザーIDの情報は、適宜更新するようにしてよい。選択部25は、音源データに関連付けられたユーザーIDの情報に基づいて、そのような人気ユーザーによる音源データを紹介するための画面の情報を作成する。選択部25が作成した、人気ユーザーによる音源データを紹介する情報を、サーバー装置1から端末装置2に送ることにより、端末装置2の画面には、人気ユーザーによる音源データの投稿を紹介する情報が表示される。端末装置2のユーザーは、そのようなランキング情報や、人気ユーザーの音源データの情報を見て、特定の音源データを再生することができる。端末装置2は、こういった特定の音源データが再生されたときに、「いいね」の情報や、その音源データの評価情報(端末装置2のユーザーによる評価)や、再生回数をカウントするための情報や、再生時間を加算するための情報を、サーバー装置1に送信できる。
ステップS14において、選択部25は、特定の楽曲についての評価を締め切る。具体的には、選択部25は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、選択部25は、新たな評価を締め切る。これにより、評価のためのデータは、少なくとも一旦は凍結される。つまり、データベース30の管理情報記憶部35内の、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といったデータは、少なくとも一旦は更新されなくなる。選択部25は、これらのデータが更新されなくなるように、データベース30を制御する。
ステップS15において、選択部25は、特定の楽曲についての音源データの総合評価を実施する。具体的には、選択部25は、音源データごとに、機械評価、審査員評価、ユーザー評価、いいね数、再生回数、再生時間といった評価項目ごとのポイントの数値に基づいて、総合評価のポイントを算出する。選択部25は、これら複数の評価項目のポイント数値の加重和(または加重平均)を算出して、総合評価のポイントとする。このときの評価項目ごとの重み値については、既に説明した通りである。選択部25は、制作対象とする楽曲の、パートごとに、総合評価のポイントのランキング情報を作成する。選択部25は、その楽曲の、パートごとの、総合評価の上位の音源データを、選択して採用する。例えば、選択部25は、パートごとの総合評価の最上位の音源データを、選択してよい。あるいは、選択部25は、パートごとの総合評価の最上位以外の音源データを、選択してもよい。
ステップS16において、ミキシング実行部26は、制作対象としている楽曲の、各パートの音源データのミキシング処理を行う。前述の通り、音源データは、パート間で同期可能であるように構成されている。ミキシング実行部26は、各パートの音源データを再生するとともに、パート間の同期を取りながらミキシング処理を行っていく。このとき、ミキシング実行部26は、複数のパートの音源データを、ミキシングして、1つのチャンネルの音源データ(最終音源データ)になるようにしてもよい。また、ミキシング実行部26は、各パートの音源データが音像空間内の所定の位置に配置されるようにしながら、2チャンネル、5.1チャンネル、あるいは22.2チャンネルなどといったマルチチャンネルの音源データ(最終音源データ)になるようにしてもよい。また、ミキシング実行部26は、各パートの音源データがそれぞれ独立のチャンネルのデータになるように、マルチチャンネルの音源データ(最終音源データ)を作成してもよい。なお、複数の音源データをミキシングする処理自体は、既存技術により実行可能である。
上記のようにして、ミキシング実行部26は、ミキシング処理により、最終音源データを作成し、データベース30の最終音源記憶部34に書き込む。最終音源データは、選択部25によって選択された音源データを基に作成されたものである。言い換えれば、最終音源データは、評価値(総合評価値)の高い音源データをミキシングして作成されたものである。
ステップS17において、ミキシング実行部26は、最終音源の配信を開始する。具体的には、ミキシング実行部26は、予めスケジュールされた日時が到来するのを待つ。その日時が到来すると、ミキシング実行部26は、最終音源データを送信可能な状態にする。これにより、端末装置2は、例えば所定の最終音源データを聴取するためのウェブページからのリンクに基づいて、最終音源データをダウンロードし、あるいは最終音源データをストリーム配信によって受信し、再生することができる。このように、端末装置2のユーザーは、評価の高い演奏(ヴォーカルを含む)による最終音源を、楽しむことが可能となる。
なお、上記の処理手順では、1つの楽曲についての最終音源データの生成までの手順を説明した。しかしながら、サーバー装置1が、複数の楽曲について、音源データの募集や、音源データの選択や、ミキシング処理や、最終音源データの提供等を同時に並行して進めてもよい。
図11は、本実施形態のサーバー装置1や端末装置2などの各装置の内部構成の例を示すブロック図である。各装置は、コンピューターを用いて実現され得る。図示するように、そのコンピューターは、中央処理装置901と、RAM902と、入出力ポート903と、入出力デバイス904や905等と、バス906と、を含んで構成される。コンピューター自体は、既存技術を用いて実現可能である。中央処理装置901は、RAM902等から読み込んだプログラムに含まれる命令を実行する。中央処理装置901は、各命令にしたがって、RAM902にデータを書き込んだり、RAM902からデータを読み出したり、算術演算や論理演算を行ったりする。RAM902は、データやプログラムを記憶する。RAM902に含まれる各要素は、アドレスを持ち、アドレスを用いてアクセスされ得るものである。なお、RAMは、「ランダムアクセスメモリー」の略である。入出力ポート903は、中央処理装置901が外部の入出力デバイス等とデータのやり取りを行うためのポートである。入出力デバイス904や905は、入出力デバイスである。入出力デバイス904や905は、入出力ポート903を介して中央処理装置901との間でデータをやりとりする。バス906は、コンピューター内部で使用される共通の通信路である。例えば、中央処理装置901は、バス906を介してRAM902のデータを読んだり書いたりする。また、例えば、中央処理装置901は、バス906を介して入出力ポートにアクセスする。
なお、上述した実施形態におけるサーバー装置1や端末装置2の少なくとも一部の機能をコンピューターのプログラムで実現することができる。その場合、この機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM、DVD-ROM、USBメモリー等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、一時的に、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、実施形態を説明したが、本発明はさらに次のような変形例でも実施することが可能である。
第1変形例:上記の実施形態では、音源データの機械評価を、端末装置2内の評価部63が起こっていた。変形例として、音源データの機械評価を、サーバー装置1内で行うようにしても良い。この場合、端末装置2から送信される音源データを、音源取得部24が受信してデータベース30の取得音源記憶部33に記憶させる。サーバー装置1内の評価部は、取得音源記憶部33に書き込まれている音源データの機械評価を行う。そして、評価部は、機械評価の結果のデータを、管理情報記憶部35の音源評価テーブル(図7)に書き込む。
第2変形例:上記の実施形態では、サーバー装置1は、楽器あるいはヴォーカルのパートごとに音源データを募集した。また端末装置2は、楽器あるいはヴォーカルのパートごとの音源データを投稿した。つまり、1つのパートは、1種類の楽器あるいはヴォーカルに対応していた。本変形例では、1つのパートが、複数種類の楽器の演奏を含むものであってもよい。また、1つのパートが、楽器の演奏と、ヴォーカルの歌唱との、両方を含んでいてもよい。
第3変形例:上記の実施形態では、サーバー装置1の音源取得部24は、パートごとの複数の音源データを、相互に独立のタイミングで取得していた。本変形例では、音源取得部24は、特定の楽曲について、あるいは特定のパートについて、複数の端末装置2から一斉に音源データを取得する。
第4変形例:上記の実施形態では、サーバー装置1の選択部25は、端末装置2から取得した音源データのみの中から、パートを代表する代表音源データを選択していた。本変形例では、選択部25は、楽曲内の少なくとも1つのパートについて、端末装置2から投稿された音源データの中からだけではなく、サーバー装置1側で予め準備しておいた音源データ(投稿された音源データではなく、予め準備されたプロの演奏の音源データを、代表音源データとして選択してもよい。また、サーバー装置1は、楽曲内の少なくとも1つのパートについて、端末装置2のユーザーから音源データを募集せず、予め準備しておいた音源データ(例えば、プロの演奏の音源データ)を、代表音源データとして選択してもよい。
第5変形例:カラオケデータや音源データが、パート間の再生同期のための情報を特に含んでいなくてもよい。カラオケデータや音源データは、所定のサンプリング周波数でサンプリングして収録されており、再生する状況においてそのサンプリング周波数を再現できていれば、パート間で、十分に小さい誤差で同期することも可能である。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、例えば、多数のユーザーがインターネット等の通信ネットワークを介して音楽の演奏を楽しむためのシステムに利用することができる。但し、本発明の利用範囲はここに例示したものには限られない。
1 サーバー装置(楽曲制作装置)
2 端末装置
10 端末インターフェース部
21 音源募集機能部
22 カラオケ提供部
23 楽譜提供部
24 音源取得部
25 選択部
26 ミキシング実行部
30 データベース
31 カラオケ記憶部
32 楽譜記憶部
33 取得音源記憶部
34 最終音源記憶部
35 管理情報記憶部
51 データ送受信部(データ受信部、データ送信部)
61 提示部
62 サウンド記録部
63 評価部
71 表示部
72 サウンド出力部
73 サウンド入力部
901 中央処理装置
902 RAM
903 入出力ポート
904,905 入出力デバイス
906 バス

Claims (10)

  1. 楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供部と、
    前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得部と、
    前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択部と、
    前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行部と、
    を具備し、
    前記選択部は、
    前記音源データに関して審査員の端末装置から受信した評価結果である審査員評価と、 前記音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数と、
    の少なくともいずれかの評価結果に基づいて、前記パートを代表する前記代表音源データを選択する、
    楽曲制作装置。
  2. 前記パートは、前記楽曲を構成するための楽器のパートまたは歌唱のパートである、
    請求項1に記載の楽曲制作装置。
  3. 前記音源取得部は、前記パートごとの前記音源データを、前記パートごとに独立のタイミングで取得する、
    請求項1または2に記載の楽曲制作装置。
  4. 前記楽曲の前記パートごとの楽譜データを外部に提供する楽譜提供部、
    をさらに備え、
    前記音源取得部は、前記楽譜データにも対応する前記パートごとの前記音源データを取得する、
    請求項1から3までのいずれか一項に記載の楽曲制作装置。
  5. 前記音源データは、前記カラオケデータを提供した先の端末装置のユーザーの演奏または歌唱を収録したサウンドのデータであり、
    前記選択部は、前記端末装置から取得した前記音源データのみの中から、前記パートを代表する前記代表音源データを選択する、
    請求項1から4までのいずれか一項に記載の楽曲制作装置。
  6. 前記カラオケデータは、パート間の再生同期のための同期信号を含んでおり、
    前記音源データは、前記カラオケデータが含んでいた前記同期信号を引き継いで持つものであり、
    前記ミキシング実行部は、前記代表音源データが持つ前記同期信号に基づいて前記パート間の再生同期をとりながら複数の前記代表音源データをミキシングする、
    請求項1から5までのいずれか一項に記載の楽曲制作装置。
  7. 前記ミキシング実行部は、作成した前記最終音源データを、インターネットを介して送信可能とする、
    請求項1から6までのいずれか一項に記載の楽曲制作装置。
  8. カラオケ提供部が、楽曲のパートごとのカラオケデータを外部に提供するカラオケ提供過程と、
    音源取得部が、前記カラオケデータに対応する前記パートごとの音源データを取得して蓄積する音源取得過程と、
    選択部が、前記音源取得部が取得した前記音源データから、前記パートを代表する代表音源データを選択する選択過程と、
    ミキシング実行部が、前記楽曲を構成する複数のパートのそれぞれについて前記選択部が選択した前記代表音源データをミキシングすることによって、前記複数のパートを含んだ音源データである最終音源データを作成するミキシング実行過程と、
    を含み、
    前記選択過程では、
    前記音源データに関して審査員の端末装置から受信した評価結果である審査員評価と、
    前記音源データに関してユーザーの端末装置から送信された「いいね」の数を評価結果とした「いいね」数と、
    の少なくともいずれかの評価結果に基づいて、前記パートを代表する前記代表音源データを選択する、
    楽曲制作方法。
  9. 請求項1から7までのいずれか一項に記載の楽曲制作装置、としてコンピューターを機能させるプログラム。
  10. 請求項1から7までのいずれか一項に記載の楽曲制作装置、としてコンピューターを機能させるプログラムを記録した、コンピューター読み取り可能な記録媒体。
JP2020112781A 2020-06-30 2020-06-30 楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体 Active JP7026412B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020112781A JP7026412B1 (ja) 2020-06-30 2020-06-30 楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020112781A JP7026412B1 (ja) 2020-06-30 2020-06-30 楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
JP7026412B1 true JP7026412B1 (ja) 2022-02-28
JP2022036359A JP2022036359A (ja) 2022-03-08

Family

ID=80493530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020112781A Active JP7026412B1 (ja) 2020-06-30 2020-06-30 楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体

Country Status (1)

Country Link
JP (1) JP7026412B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297136A (ja) 2001-03-30 2002-10-11 Casio Comput Co Ltd 楽曲作成装置、音楽配信システム及びプログラム
JP2014153516A (ja) 2013-02-07 2014-08-25 Pioneer Electronic Corp 判定装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280669A (ja) * 2002-03-25 2003-10-02 Xing Inc 音楽作品提供方法および装置
JP2010003372A (ja) * 2008-06-20 2010-01-07 Pioneer Electronic Corp コンテンツ再生装置、情報配信サーバ、コンテンツ再生方法、情報配信方法、コンテンツ再生プログラム、情報配信プログラム、およびコンピュータに読み取り可能な記録媒体
JP2012018282A (ja) * 2010-07-07 2012-01-26 Cellius Inc 演奏ファイル管理装置、演奏ファイル再生装置および演奏ファイル再生方法
JP2013135310A (ja) * 2011-12-26 2013-07-08 Sony Corp 情報処理装置、情報処理方法、プログラム、記録媒体、及び、情報処理システム
JP2014048470A (ja) * 2012-08-31 2014-03-17 Brother Ind Ltd 音楽再生装置、音楽再生システム、音楽再生方法
KR102617419B1 (ko) * 2015-10-30 2023-12-26 에스케이플래닛 주식회사 사용자 장치, 서비스 제공 장치, 액세스 포인트, 그를 포함하는 음원 정보 제공 시스템, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN109147807B (zh) * 2018-06-05 2023-06-23 安克创新科技股份有限公司 一种基于深度学习的音域平衡方法、装置及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297136A (ja) 2001-03-30 2002-10-11 Casio Comput Co Ltd 楽曲作成装置、音楽配信システム及びプログラム
JP2014153516A (ja) 2013-02-07 2014-08-25 Pioneer Electronic Corp 判定装置

Also Published As

Publication number Publication date
JP2022036359A (ja) 2022-03-08

Similar Documents

Publication Publication Date Title
US11908339B2 (en) Real-time synchronization of musical performance data streams across a network
US11282486B2 (en) Real-time integration and review of musical performances streamed from remote locations
US8138409B2 (en) Interactive music training and entertainment system
US7772480B2 (en) Interactive music training and entertainment system and multimedia role playing game platform
US20100095829A1 (en) Rehearsal mix delivery
US11120782B1 (en) System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network
JP2011516907A (ja) 音楽の学習及びミキシングシステム
US20100082768A1 (en) Providing components for multimedia presentations
US20020144587A1 (en) Virtual music system
US20150003812A1 (en) Method for collaborative creation of shareable secondary digital media programs
JP2007193273A (ja) 演奏ガイド機能付きカラオケシステム
US20020144588A1 (en) Multimedia data file
Bates Mixing for parlak and bowing for a büyük ses: the aesthetics of arranged traditional music in Turkey
JP5622679B2 (ja) カラオケ装置
Owusu-Poku Ghanaian highlife sound recordings of the 1970s: the legacy of Francis Kwakye and the Ghana Film Studio
JP7026412B1 (ja) 楽曲制作装置、端末装置、楽曲制作方法、プログラム、および記録媒体
JP2012018282A (ja) 演奏ファイル管理装置、演奏ファイル再生装置および演奏ファイル再生方法
Müller et al. Computational methods for melody and voice processing in music recordings (Dagstuhl seminar 19052)
JP2018155936A (ja) 音データ編集方法
JP4173291B2 (ja) 歌唱指導番組を再生できるカラオケ装置
JP2023113579A (ja) 音源データの分離・再合成方法、及びカラオケ伴奏用音源提供システム
KR200277666Y1 (ko) 이조악보 표시용 반주 시스템
JP2014071214A (ja) 音楽再生装置、音楽再生システム、音楽再生方法
KR20020051896A (ko) 이조악보 표시용 반주 시스템 및 방법
KR20200000772A (ko) 다중음원트랙 콘텐츠를 활용한 악기세션경연 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200630

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200717

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210309

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210316

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210528

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210601

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211109

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211214

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220118

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7026412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150