JP2011197344A - サーバ - Google Patents

サーバ Download PDF

Info

Publication number
JP2011197344A
JP2011197344A JP2010063427A JP2010063427A JP2011197344A JP 2011197344 A JP2011197344 A JP 2011197344A JP 2010063427 A JP2010063427 A JP 2010063427A JP 2010063427 A JP2010063427 A JP 2010063427A JP 2011197344 A JP2011197344 A JP 2011197344A
Authority
JP
Japan
Prior art keywords
data
singing
sound
mixing
song
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010063427A
Other languages
English (en)
Other versions
JP5544961B2 (ja
Inventor
Shuichi Matsumoto
秀一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2010063427A priority Critical patent/JP5544961B2/ja
Priority to KR1020127024457A priority patent/KR101453177B1/ko
Priority to PCT/JP2011/056395 priority patent/WO2011115210A1/ja
Priority to CN201180014836.1A priority patent/CN102822887B/zh
Publication of JP2011197344A publication Critical patent/JP2011197344A/ja
Application granted granted Critical
Publication of JP5544961B2 publication Critical patent/JP5544961B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】通信時間を増大させずに音声と楽音を別々に蓄積することができるサーバを提供する。
【解決手段】歌唱者の歌唱音のみ、カラオケ演奏の同期情報とともに音声データ(歌唱ファイル)としてセンタにアップロードする。同期情報には、少なくとも音声データの録音時に演奏していたカラオケ楽曲におけるテンポおよびボリューム情報が記載されている。センタは、歌唱ファイルを再生して歌唱音声信号を生成するとともに、同期情報に記載されているテンポ、ボリュームでカラオケ演奏を行い、楽音信号を生成する。生成した歌唱音声信号および楽音信号をミキシングすることで、新たな音声データ(ミキシングデータ)を生成する。
【選択図】図3

Description

この発明は、音声と楽音をミキシングした音声データを配信するサーバに関する。
従来、カラオケ装置で録音した歌唱音および楽音からなる音声データをサーバにアップロードし、サーバが音声データを各ユーザに配信するシステムが提案されている(特許文献1を参照)。特許文献1には、各ユーザが配信された音声データの歌唱音および楽音を聴取し、採点を行うことで、カラオケコンクールを実施することが記載されている。
特開2007−121550号公報
特許文献1のシステムでは、歌唱音および楽音が既にミキシングされた1つの音声データとしてサーバに蓄積される。したがって、後で歌唱音と楽音のミキシングバランスを調整することができない。後で歌唱音と楽音のミキシングバランスを調整するためには、歌唱音と楽音を別々の音声データとしてアップロードすることも考えられるが、歌唱音と楽音を別々にアップロードすると、従来の2倍以上の通信時間がかかるという問題が発生する。
そこで、この発明は、通信時間を増大させずに音声と楽音を別々に蓄積することができるサーバを提供することを目的とする。
この発明のサーバは、受信手段、記憶手段、音声データ生成手段、および配信手段を備えている。受信手段は、歌唱者の音声データ、および前記歌唱者の音声データのカラオケ演奏との同期情報を受信する。記憶手段は、受信した歌唱者の音声データおよび同期情報を記憶する。また、記憶手段は、カラオケ演奏を行うための楽曲データも記憶している。 音声データ生成手段は、記憶手段から読み出した音声データを再生するとともに、同期情報に基づいて楽曲データを読み出し、自動演奏を行う。そして、音声データ生成手段は、再生した音声データに基づく音声、および自動演奏による楽音をミキシングしてミキシングデータを生成する。生成されたミキシングデータが、各端末に配信され、ユーザに聴取可能な状態となる。
このように、歌唱者の歌唱音をカラオケ演奏音の同期情報とともに音声データとしてサーバにアップロードし、楽音については、サーバ側で同期情報に基づいて楽曲データを自動演奏することにより生成し、音声データの再生音とミキシングしてミキシングデータ(歌唱音と楽音からなる完全データ)を生成する。したがって、歌唱音の音声データをアップロードするだけで、音声と楽音を別々にサーバ側に蓄積することになり、アップロードに要する時間は従来と変わらない。
なお、同期情報は、少なくとも音声データの録音時に演奏していたカラオケ楽曲におけるテンポおよびボリューム情報が記載されている。したがって、後に歌唱音の音声データを再生したとき、この歌唱音に同期したカラオケ演奏がなされる。
また、音声データは、複数の音声データからなり、同期情報は、前記複数の音声データのそれぞれの再生タイミングを示す情報が含まれる態様であってもよい。例えば、デュエット曲であれば、歌唱者は、デュエットパートの歌唱を行い、1曲のなかで歌唱を行う時間帯が決められているため、歌唱ファイルを複数に分割することも可能である。この場合、同期情報に演奏開始からの時間経過を示す情報あるいはデルタタイムを記載しておき、再生時にこの情報を参照して各歌唱ファイルを再生することでも歌唱音に同期したカラオケ演奏を行うことができる。
また、生成したミキシングデータは、記憶手段に保持しておいてもよい。この場合、同時多数に配信リクエストがあった場合でも、即座に配信可能となる。この場合においても、歌唱音の音声データは記憶手段に保持されているため、後でミキシングバランスを変更することができる。
この発明によれば、通信時間を増大させずに音声と楽音を別々にサーバに蓄積することができる。
カラオケシステムの構成を示すブロック図である。 カラオケ装置の構成を示すブロック図である。 各種データの構造を示す図である。 センタの構成を示すブロック図である。 WEB上に表示される歌唱ファイルの一覧の例を示した図である。 ユーザPCの構成を示すブロック図である。 歌唱ファイル登録時の動作を説明するフローチャートである。 デュエット配信時の動作を説明するフローチャートである。
図1は、ミキシングデータ配信システムの構成を示す図である。ミキシングデータ配信システムは、インターネット等からなるネットワーク2を介して接続されるセンタ(サーバ)1と、複数のカラオケ店舗3と、複数のユーザPC4と、からなる。各カラオケ店舗3には、ネットワーク2に接続されるルータ等の中継器5と、中継器5を介してネットワーク2に接続される複数のカラオケ装置7が設けられている。中継器5は、カラオケ店舗の管理室内等に設置されている。複数台のカラオケ装置7は、それぞれ個室(カラオケボックス)に1台ずつ設置されている。ユーザPC4は、一般的な家庭用パーソナルコンピュータである。
本実施形態のミキシングデータ配信システムとは、予め、ある歌唱者がカラオケ装置7で歌唱した音声を録音して歌唱ファイル(圧縮音声データ)としてセンタ1にアップロードしておくものである。そして、センタ1が各ユーザPC4のリクエストに応じて歌唱ファイルを再生し、再生する歌唱ファイルに同期してカラオケ演奏を行い、歌唱音と楽音とをミキシングしたミキシングデータ(圧縮音声データ)を生成してユーザPC4に配信するものである。以下、このミキシングデータ配信システムを実現するための各構成、および動作について説明する。
図2は、カラオケ装置の構成を示すブロック図である。カラオケ装置7は、装置全体の動作を制御するCPU11、およびCPU11に接続される各種構成部からなる。CPU11には、RAM12、HDD13、ネットワークインタフェース(I/F)14、操作部15、A/Dコンバータ17、音源18、ミキサ(エフェクタ)19、MPEG等のデコーダ22、および表示処理部23が接続されている。
HDD13は、カラオケ曲を演奏するための楽曲データやモニタ24に背景映像を表示するための映像データ等を記憶している。映像データは動画、静止画の両方を記憶している。ワークメモリであるRAM12には、CPU11の動作用プログラムを実行するために読み出すエリアやカラオケ曲を演奏するために楽曲データを読み出すエリア等が設定される。
CPU11は、機能的にシーケンサを内蔵している。シーケンサは、HDD13に記憶されている楽曲データを読み出し、カラオケ演奏を実行するプログラムである。図3(A)に示すように、楽曲データは、曲番号等が書き込まれているヘッダ、演奏用MIDIデータが書き込まれている楽音トラック、ガイドメロディ用MIDIデータが書き込まれているガイドメロディトラック、歌詞用MIDIデータが書き込まれている歌詞トラック、バックコーラス再生タイミングおよび再生すべき音声データが書き込まれているコーラストラック、等からなっている。シーケンサは、楽音トラックやガイドメロディトラックのデータに基づいて音源18を制御し、カラオケ曲の楽音を発生する。また、シーケンサは、コーラストラックの指定するタイミングでバックコーラスの音声データ(楽曲データに付随しているMP3等の圧縮音声データ)を再生する。また、シーケンサは、歌詞トラックに基づいて曲の進行に同期して歌詞の文字パターンを合成し、この文字パターンを映像信号に変換して表示処理部23に入力する。
音源18は、シーケンサの処理によってCPU11から入力されたデータ(ノートイベントデータ)に応じて楽音信号(デジタル音声信号)を形成する。形成した楽音信号はミキサ19に入力される。
ミキサ19は、音源18が発生した楽音信号、コーラス音、およびマイク16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に対してエコーなどの効果を付与するとともに、これらの信号をミキシングする。
ミキシングされた各デジタル音声信号はサウンドシステム(SS)20に入力される。サウンドシステム20は、D/Aコンバータおよびパワーアンプを内蔵しており、入力されたデジタル信号をアナログ信号に変換して増幅し、スピーカ21から放音する。ミキサ19が各音声信号に付与する効果およびミキシングのバランスは、CPU11によって制御される。
CPU11は、上記シーケンサによる楽音の発生、歌詞テロップの生成と同期して、HDD13に記憶されている映像データを読み出して背景映像等を再生する。動画の映像データは、MPEG形式にエンコードされている。CPU11は、読み出した映像データをMPEGデコーダ22に入力する。MPEGデコーダ22は、入力されたMPEGデータを映像信号に変換して表示処理部23に入力する。表示処理部23には、背景映像の映像信号以外に上記歌詞テロップの文字パターン等が入力される。表示処理部23は、背景映像の映像信号の上に歌詞テロップなどをOSDで合成してモニタ24に出力する。モニタ24は、表示処理部23から入力された映像信号を表示する。
操作部15は、カラオケ装置7の操作パネル面に設けられた各種のキースイッチや赤外線通信等を介して接続されるリモコン等からなり、ユーザの各種操作を受け付け、操作態様に応じた操作情報をCPU11に入力する。操作部15は、曲のリクエストや、歌唱音の録音(登録操作)等を受け付ける。
CPU11は、歌唱音を公開したい歌唱者が操作部15で歌唱音の登録操作、および曲の指定を行ったとき、指定された曲のカラオケ演奏を行うとともに、マイク16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に基づいて歌唱ファイルを生成し、ネットワークI/F14を介してセンタ1にアップロードを行う。歌唱ファイルは、MP3等の圧縮音声データとして生成される。このとき、CPU11は、演奏を行ったカラオケ曲と歌唱ファイルの対応付けを示す同期情報を生成し、歌唱ファイルとともにアップロードする。
図3(B)は、同期情報の一例を示す図であり、図3(C)は、歌唱ファイルの一例を示す図である。同図(B)に示すように、同期情報は、ヘッダ、テンポ情報、ボリューム情報(Vol.)からなる。ヘッダは、曲番号や曲名、対応付けられる歌唱ファイルのファイル名等が記載されている。曲番号は、各カラオケ曲の楽曲データに付与されている曲番号と共通形式のデータ(英数字を示す情報)であり、歌唱者が登録操作時に指定した曲番号が転記される。テンポ情報は、歌唱者が登録操作時に指定した曲の演奏テンポを示す情報であり、シーケンサの歩進速度を指定するものである。登録操作時に歌唱者がテンポの指定、変更を行わなければ楽曲データの標準テンポがそのまま転記される。ボリューム情報は、歌唱者が登録操作時に指定した曲の音量(楽音トラックの音量)を示す情報である。タイミング情報は、歌唱者が歌唱中にテンポを変化させた場合、そのテンポ変化のタイミング(演奏開始からの時間経過)を示す情報である。このテンポ変化を示すタイミング情報が参照されることにより、後の再生時にも曲の途中で演奏テンポが変化される。
歌唱ファイルは、図3(C)に示すように、ヘッダと歌唱音声データとからなる。ヘッダには少なくともファイル名が記載されており、同期情報のヘッダと対応付けられている。エンコード形式がMP3であれば、ヘッダはID3タグとして記録される態様であってもよい。
以上の様な同期情報および歌唱ファイルがセンタ1にアップロードされ、センタ1に蓄積される。なお、歌唱者は、操作部15を用いて自身のプロフィールやメッセージ等を入力し、歌唱者情報としてアップロードすることも可能である。
センタ1では、蓄積した各歌唱ファイルを再生するとき、各歌唱ファイルの同期情報を参照して、指定された曲番号の楽曲データを読み出し、同期情報に記載されたテンポ、ボリュームでカラオケ演奏を行う。テンポ変化を示すタイミング情報が記載されている場合には、このタイミング情報にしたがって曲の途中で演奏テンポを変化させる。これにより、録音時のカラオケ演奏を再現することができ、再生された歌唱音声信号および演奏により生成された楽音信号をミキシングしたミキシングデータ(歌唱音と楽音からなる完全データ)を生成する。したがって、歌唱音の音声データをアップロードするだけでも、歌唱音と楽音をサーバ側に蓄積することになり、アップロードに要する時間を増大させずに、歌唱音と楽音とを個別に蓄積しておくことができる。
なお、図3(C)に示す歌唱ファイルは、カラオケ曲の演奏開始時から演奏終了時までの全ての音声(マイク16で収音した音声)を記録したものである。この場合、カラオケ演奏の開始とともに、歌唱ファイルに基づく音声信号を出力すれば同期再生を行うことができるが、例えば、図3(E)に示すように、1曲のうちの歌唱ファイルを複数の歌唱ファイルに分割することも可能である。この場合、図3(D)に示すように、同期情報に各歌唱ファイルの再生タイミングを示す情報として、演奏開始からの時間経過を示す情報、あるいは歌唱ファイル間のデルタタイム(先頭の歌唱ファイルは演奏開始からの時間)を記載しておき、再生時には同期情報のタイミング情報を参照して各歌唱ファイルを再生するようにしてもよい。この際、同期情報は、楽曲データとのインプリメンテーションの統一をとるために、MIDIデータ(楽曲データの拡張トラック)として構成しておき、シーケンサに読み取り可能な形式としてもよい。この場合、歌唱を行っていない時間帯は歌唱音が録音されないため、歌唱ファイルのデータ容量を削減することができ、さらにアップロード時間を短縮することができる。1曲のなかで歌唱を行う時間帯が限られている場合(例えばデュエット曲で、歌唱者が1つのデュエットパートのみ歌唱する場合)に特に有用である。
次に、図4は、センタ1の構成を示すブロック図である。センタ1は、センタ全体の動作を制御するCPU31、およびCPU31に接続される各種構成からなる。CPU31には、RAM32、HDD33、ネットワークインタフェース(I/F)34、音源38、およびミキサ(エフェクタ)39が接続されている。
HDD33は、各カラオケ装置7からアップロードされた歌唱ファイル、同期情報、および歌唱者情報に加え、カラオケ装置7と同じ数の楽曲データを記憶している。また、過去に生成したミキシングデータも記憶している。また、HDD33には、CPU31の動作用プログラムが記録されており、CPU31は、この動作用プログラムをRAM32に展開して種々の処理を行う。
例えば、CPU31は、ネットワークI/F34を介して各カラオケ装置7から受信した歌唱ファイル、同期情報、および歌唱者情報をHDD33に記録する受信データ処理を行う。また、CPU31は、機能的にシーケンサを内蔵しており、カラオケ装置7と同様に、HDD33から楽曲データを読み出してカラオケ演奏を行い、音源38を制御することで、楽音信号を生成することができる。また、CPU31は、各歌唱者情報を編集して一覧表示を行うHTMLファイル(不図示)を生成し、ユーザPC4にWEBページとして表示させるWEB表示処理を行う。
図5は、WEBページとして表示される歌唱ファイルの一覧の例を示した図である。同図に示すように、WEBページには、各歌唱ファイルがファイル名(または曲番号)、曲名、歌唱者が登録操作時に入力したプロフィール、メッセージ等の項目で一覧表示される。また、各歌唱ファイルの人気度(ダウンロード回数)等も表示される。各歌唱ファイルのダウンロード回数は、HDD33に記録されており、各カラオケ装置7に歌唱ファイルをダウンロードさせたときにカウントアップされる。ユーザPC4は、WEBページにアクセスすることにより、この一覧を参照することができ、聴取したい歌唱者の歌唱ファイルを選択することができる。なお、ユーザPC4を操作して各項目を選択すると、一覧表の昇順、降順のソートを行うこともできる。
図6は、ユーザPC4の構成を示すブロック図である。ユーザPC4は、一般的な家庭用パーソナルコンピュータであり、全体の動作を制御するCPU41と、CPU41に接続される各種構成からなる。CPU41には、RAM42、HDD43、ネットワークI/F44、操作部45、サウンドシステム(SS)46、および表示処理部48が接続されている。CPU41は、HDD43に記録された動作用プログラムをRAM42に展開し、種々の処理を行う。ユーザが操作部45を用いて、歌唱ファイルの表示リクエストを行うと、CPU41は、表示リクエストをセンタ1に送信する。表示リクエストを受信したセンタ1のCPU31は、HTMLファイルをユーザPC4に転送する(URLを通知し、ユーザPC4がアクセスする)。ユーザPC4では、センタ1から転送されたHTMLファイルに基づくWEBページが表示処理部48を経てモニタ49に表示される。このようにして、図5に示した歌唱ファイルの一覧が表示される。
ユーザが操作部45を用いてWEBページ上に表示されている歌唱ファイルを選択すると、CPU41は、ミキシングデータ配信のリクエストを行う。リクエストは、例えば歌唱ファイル名を示す情報がセンタ1に送信されることにより実行される。センタ1のCPU31は、受信した歌唱ファイル名をHDD33から検索し、該当する歌唱ファイルおよび同期情報を読み出す。
CPU41は、読み出した歌唱ファイルを再生して歌唱音声信号を生成するとともに、同期情報に記載されている曲番号の楽曲データを読み出し、同期情報に記載されているテンポ、およびボリューム情報にしたがって、シーケンサでカラオケ曲の演奏を実行する。これにより楽音信号を生成する。
生成した楽音信号と歌唱音声信号は、ミキサ39に出力されてミキシングされる。このミキシングされた音声信号が再びCPU41に入力され、1つの圧縮音声データ(ミキシングデータ)として生成される。CPU41は、生成したミキシングデータをリクエストがなされたユーザPC4に配信する。そして、配信されたミキシングデータは、ユーザPC4のCPU41で再生され、SS46でアナログ音声信号に変換されてスピーカ47から放音される。
なお、センタ1は、所定の課金システムと連動し、課金処理を行ってもよい。配信リクエストを行ったユーザに所定の金額を課金した後、ユーザPC4にミキシングデータをダウンロードさせる。この場合、歌唱者は、歌唱ファイルがダウンロードされる毎に報酬を受け取ることができるため、課金システムとの連動により、歌唱者へインセンティブを与えることができる。
このようにして、ユーザは、各歌唱者の歌唱音および楽音を聴取することができる。本実施形態の配信システムによれば、例えば、各ユーザが聴取した歌唱音の採点を行うことで、カラオケコンクールを実現することが可能である。
また、本実施形態に示した配信システムによれば、センタ1には歌唱ファイルをアップロードするだけで、アップロード時間を増大させることなく、歌唱音と楽音とを別々にサーバに蓄積することができる。歌唱音のデータ(歌唱ファイル)は、楽音のデータ(楽曲データ)とは別にセンタ1のHDD33に記憶されているため、後でミキシングバランスを変更したり、個別にエフェクトを変更したりすることも容易に実現可能である。
また、本実施形態の配信システムによれば、複数の歌唱者の歌唱音(あるいは同じ歌唱者の歌唱音)を後で合成する多重録音を行うことも可能である。従来のシステムでは、歌唱音および楽音が既にミキシングされた1つの音声データとしてサーバに蓄積される態様であったため、後で別の歌唱音を追加する場合、いったん音声データをデコードして音声信号に変換し、別の歌唱音の音声信号をミキシングした後にエンコードを行うため、音質劣化が発生していたが、本実施形態では、歌唱音と楽音とを別のデータとして保持しておくため、再生時に多重化したい歌唱ファイルをデコードして合成すればよく、多重録音による音質劣化は発生しない。
次に、本実施形態の配信システムの動作をフローチャートを用いて説明する。図7は、登録操作時の動作を示すフローチャートである。図8は、ミキシングデータ配信時の動作を示すフローチャートである。
まず、図7に示すように、歌唱音を公開したい歌唱者がカラオケ装置7の操作部15で歌唱音の登録操作および曲の指定を行うと、CPU11が登録操作を受け付ける(s11)。このとき、CPU11は、操作部15から歌唱者のプロフィールやメッセージ等の入力も受け付ける。
CPU11は、登録操作を受け付けると、指定された楽曲データを読み出してカラオケ演奏を行うとともに(s12)、マイク16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に基づいて歌唱ファイルを生成する(s13)。また、演奏した曲の曲番号、テンポ、ボリューム等に基づいて、同期情報を生成する(s14)。CPU11は、曲の演奏が終了すると、生成した歌唱ファイルおよび同期情報をセンタ1にアップロードする(s15)。センタ1は、アップロードされた歌唱ファイルおよび同期情報をHDD33に記録する(s16)。このようにして歌唱者の歌唱ファイルがセンタ1に登録される。センタ1のCPU31は、アップロードされた歌唱ファイルの各歌唱者情報を用いてHTMLファイルを更新し、ユーザPC4がアクセするWEBページを更新する(s17)。
次に、図8に示すように、ミキシングデータ配信をリクエストするユーザ(ユーザPC4のユーザ)は、歌唱者の一覧を参照するために、歌唱ファイルの表示リクエストを行う(s21)。この表示リクエストは、センタ1に送信され、センタ1は、WEB表示の受付を行う(s22)。センタ1のCPU31は、HTMLファイルをユーザPC4に転送するWEB表示処理を行う(s23)。ユーザPC4のモニタ49には、センタ1から転送されたHTMLファイルに基づくWEBページが表示される(s24)。このようにして、図5に示した歌唱ファイルの一覧がモニタ49に表示される。
ユーザは、モニタ49に表示されている歌唱ファイルの一覧を参照することにより、聴取したい歌唱者を選択し、ミキシングデータの配信リクエストを行う(s25)。CPU41は、ユーザが選択した歌唱ファイルのファイル名をHTMLファイルから抽出し、センタ1に通知する。これにより、配信リクエストが受け付けられる(s26)。
そして、センタ1(または課金サーバ等)、およびユーザPC4において課金処理がなされ(s27,s28)、課金処理が終了するとセンタ1のCPU11は、HDD33から対応する歌唱ファイルおよび同期情報を読み出し、歌唱ファイルのデコードを行い、歌唱ファイルに基づく歌唱音音声信号を生成する。なお、課金処理は必須ではなく、s27およびs28の処理は省略してもよい。そして、同期情報に記載されている曲番号の楽曲データをHDD33から読み出し、同期情報に記載されているテンポおよびボリュームにしたがって楽曲データをシーケンスし、音源38を制御する。これにより、歌唱音の録音時と同じテンポ、ボリュームでカラオケ演奏を再現し、同時に歌唱者の歌唱音を出力することで同期再生を行う(s29)。ただし、既に過去に同じ歌唱ファイルを再生し、ミキシングデータとしてHDD33に保持している場合、HDD33からミキシングデータを読み出せば、あらためて同期再生を行う必要はない。また、センタ1の処理の空き時間を利用し、予め各ミキシングデータを生成しておいてもよい。この場合、同時多数に配信リクエストがあった場合でも、即座にミキシングデータの配信が可能となる。無論、この場合においても、歌唱ファイルはHDD33に保持されているため、後でミキシングバランスを変更することができる。
その後、同期再生した歌唱音声信号およびカラオケ曲の楽音信号をミキシングしてミキシングデータを生成し(s30)、ユーザPC4にダウンロードさせる(s31)。このとき、センタ1のCPU31は、ダウンロードさせた歌唱ファイルのダウンロード回数をカウントアップする(s32)。
ユーザPC4のCPU41は、センタ1からミキシングデータをダウンロードし(s33)、HDD43(またはRAM42)に保持する。そして、CPU41は、ミキシングデータのデコードを行い、歌唱音および楽音の再生を行う(s34)。
ミキシングデータの生成、および配信は、1曲分まとめて行ってもよいし、順次ストリーミングデータとしてダウンロードさせてもよい。また、低ビットレートで配信する場合は無料で、高ビットレート(録音時のビットレート)で配信する場合は有料、としてもよい。
なお、図3(C)および図3(D)に示したように、同期情報に各歌唱ファイルの再生タイミングを示す情報として演奏開始からの時間経過を示す情報、あるいは歌唱ファイル間のデルタタイム(先頭の歌唱ファイルは演奏開始からの時間)が記載されている場合、センタ1のCPU31では、楽曲データのシーケンスにともなって、各歌唱ファイルに基づく音声信号を出力する。同期情報がMIDIデータ(楽曲データの拡張トラック)として構成されている場合は、シーケンサがこの同期情報のMIDIデータを読み取ることで各歌唱ファイルに基づく音声信号を出力することができる。
ここで、ユーザが操作部45を操作して、ミキシングバランスの変更指示を行った場合(s35)、CPU41は、センタ1に変更リクエストを行う(s36)。変更リクエストには、歌唱音と楽音のミキシングバランスを指示する情報が含まれている。センタ1のCPU31は、変更リクエストを受け付けると(s37)、当該変更リクエストに含まれているミキシングバランスを示す情報に従って、ミキサ39のミキシングバランスを変更し、ミキシングデータを生成し直す(s38)。そして、CPU31は、再生成後のミキシングデータを変更リクエストの行われたユーザPC4に配信する(s39)。ユーザPC4では、再配信されたミキシングデータを再生し(s40)、以上の処理を再生が終了するまで繰り返す(s41)。
なお、再配信するミキシングデータは、変更リクエストがなされた曲の途中から再配信するようにしてもよいし、曲の最初から変更後のミキシングバランスで再配信するようにしてもよい。
このように、本実施形態では、歌唱音と楽音が別々のソースから成り立つため、独立して音量を制御することが可能であり、容易にミキシングバランスを変更することが可能である。
なお、ユーザは、上記ミキシングバランスの変更指示において、エフェクトの変更指示や、テンポ変更の指示を行うことも可能である。テンポ変更の指示を行った場合、センタ1のCPU31は、変更されたテンポで楽曲データのシーケンスを行うとともに、歌唱ファイルの再生速度の変更も行う。この場合、CPU31(または不図示のDSP)は、歌唱音の音程を保ちつつ時間軸に音声信号を伸縮する処理を行う。歌唱音の音程を保ちつつ時間軸に音声信号を伸縮する処理は、例えば以下の様にして行う。
すなわち、CPU31は、歌唱ファイルに基づく歌唱音の音声信号をサンプリング周期毎の時間軸波形に切り分け、複数の時間軸波形を合成した新たな時間軸波形(中間波形)を生成する。中間波形は、前後の時間軸波形をクロスフェードして合成することにより生成する。そして、元の時間軸波形の間に中間波形を挿入すると、歌唱音の音程を保ちつつ時間軸に伸張することが可能である。音声データを圧縮する場合には、中間波形を元の時間軸波形に置き換える処理を行う。例えば、1サンプリングおきに挿入処理を行えば2倍に伸張(再生速度1/2)することが可能であるし、置き換える処理を行えば圧縮(再生速度を2倍)することができる。2サンプリングおきに挿入処理を行えば1.5倍に伸張することが可能であるし、3サンプリングおきに挿入処理を行えば1.33倍に伸張することが可能である。
また、CPU31は、ユーザがキー変更を指示した場合、楽曲データのキー変更(ノートナンバのシフト)を行うとともに、歌唱音声信号のピッチ変更を行う。ピッチ変更は、音声信号のリサンプリングを行うことにより実現可能である。また、音声信号の周波数特性の変更を行ってもよい。
なお、本実施形態では、カラオケ装置7を用いて歌唱者が歌唱ファイルを登録する操作を行う例を示したが、センタ1にマイクや録音の機能を付加し、センタ1を用いて歌唱ファイルを登録するように構成することも可能である。より簡易的には、カラオケ装置7の機能を実現したユーザPC4を用いて実現することも可能である。この場合、ユーザPC4のソフトウェアがシーケンサや音源等の構成を実現し、カラオケ演奏端末を構成する。
また、歌唱ファイルの聴取は、一般的な家庭用パーソナルコンピュータを用いる例を示したが、無論カラオケ装置7を用いて聴取することも可能である。
1…センタ
2…ネットワーク
3…カラオケ店舗
4…ユーザPC
5…中継器
7…カラオケ装置

Claims (4)

  1. 歌唱者の音声データ、および前記歌唱者の音声データのカラオケ演奏との同期情報を受信する受信手段と、
    前記歌唱者の音声データ、同期情報、およびカラオケ演奏を行うための楽曲データを記憶する記憶手段と、
    前記音声データを再生するとともに、前記同期情報に基づいて前記楽曲データを読み出し、自動演奏を行い、
    前記再生した音声データに基づく音声、および前記自動演奏による楽音をミキシングしてミキシングデータを生成する音声データ生成手段と、
    前記音声データ生成手段が生成したミキシングデータを配信する配信手段と、
    を備えたことを特徴とするサーバ。
  2. 前記同期情報は、前記音声データの録音時に演奏していたカラオケ楽曲におけるテンポおよびボリューム情報が記載されていることを特徴とする請求項1に記載のサーバ。
  3. 前記音声データは、複数の音声データからなり、
    前記同期情報は、前記複数の音声データのそれぞれの再生タイミングを示す情報が含まれる請求項1または請求項2に記載のサーバ。
  4. 前記記憶手段は、前記音声データ生成手段が生成したミキシングデータをさらに記憶し、
    前記配信手段は、前記記憶手段から前記ミキシングデータを読み出して配信する請求項1乃至請求項3のいずれかに記載のサーバ。
JP2010063427A 2010-03-19 2010-03-19 サーバ Expired - Fee Related JP5544961B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010063427A JP5544961B2 (ja) 2010-03-19 2010-03-19 サーバ
KR1020127024457A KR101453177B1 (ko) 2010-03-19 2011-03-17 믹싱 데이터 배신 서버
PCT/JP2011/056395 WO2011115210A1 (ja) 2010-03-19 2011-03-17 ミキシングデータ配信サーバ
CN201180014836.1A CN102822887B (zh) 2010-03-19 2011-03-17 混频数据递送服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010063427A JP5544961B2 (ja) 2010-03-19 2010-03-19 サーバ

Publications (2)

Publication Number Publication Date
JP2011197344A true JP2011197344A (ja) 2011-10-06
JP5544961B2 JP5544961B2 (ja) 2014-07-09

Family

ID=44649293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010063427A Expired - Fee Related JP5544961B2 (ja) 2010-03-19 2010-03-19 サーバ

Country Status (4)

Country Link
JP (1) JP5544961B2 (ja)
KR (1) KR101453177B1 (ja)
CN (1) CN102822887B (ja)
WO (1) WO2011115210A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105791937A (zh) * 2016-03-04 2016-07-20 华为技术有限公司 一种音视频处理方法以及相关设备
JP2016153958A (ja) * 2015-02-20 2016-08-25 ブラザー工業株式会社 情報処理方法、情報処理装置、及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013231944A (ja) * 2012-04-02 2013-11-14 Yamaha Corp 歌唱支援装置
CN105095461A (zh) * 2015-07-29 2015-11-25 张阳 家庭唱k排序方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1152966A (ja) * 1997-08-01 1999-02-26 Ricoh Co Ltd 音楽演奏システム
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2004295934A (ja) * 2003-03-25 2004-10-21 Brother Ind Ltd 録音再生装置
JP2005352330A (ja) * 2004-06-14 2005-12-22 Heartful Wing:Kk 音声分割記録装置
JP2006184684A (ja) * 2004-12-28 2006-07-13 Xing Inc 音楽再生装置
JP2006215460A (ja) * 2005-02-07 2006-08-17 Faith Inc カラオケ音声送受信システムおよびその方法
JP2007225934A (ja) * 2006-02-23 2007-09-06 Xing Inc カラオケシステム及びそのホスト装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0129964B1 (ko) * 1994-07-26 1998-04-18 김광호 악기선택 가능한 영상노래반주장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1152966A (ja) * 1997-08-01 1999-02-26 Ricoh Co Ltd 音楽演奏システム
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2004295934A (ja) * 2003-03-25 2004-10-21 Brother Ind Ltd 録音再生装置
JP2005352330A (ja) * 2004-06-14 2005-12-22 Heartful Wing:Kk 音声分割記録装置
JP2006184684A (ja) * 2004-12-28 2006-07-13 Xing Inc 音楽再生装置
JP2006215460A (ja) * 2005-02-07 2006-08-17 Faith Inc カラオケ音声送受信システムおよびその方法
JP2007225934A (ja) * 2006-02-23 2007-09-06 Xing Inc カラオケシステム及びそのホスト装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016153958A (ja) * 2015-02-20 2016-08-25 ブラザー工業株式会社 情報処理方法、情報処理装置、及びプログラム
CN105791937A (zh) * 2016-03-04 2016-07-20 华为技术有限公司 一种音视频处理方法以及相关设备
WO2017148178A1 (zh) * 2016-03-04 2017-09-08 华为技术有限公司 一种音视频处理方法以及相关设备

Also Published As

Publication number Publication date
CN102822887B (zh) 2015-09-16
CN102822887A (zh) 2012-12-12
WO2011115210A1 (ja) 2011-09-22
JP5544961B2 (ja) 2014-07-09
KR101453177B1 (ko) 2014-10-22
KR20120128142A (ko) 2012-11-26

Similar Documents

Publication Publication Date Title
JP5331494B2 (ja) カラオケサービスシステム、端末装置
KR0152677B1 (ko) 자동효과기 제어부를 구비하는 노래반주기
JP2004538496A (ja) ネットワーク基盤の音楽演奏/歌の伴奏サービスシステム及びその方法
JP2008051896A (ja) 音声ミックスダウン装置、音声ミックスダウンプログラム
JP2010014823A (ja) 楽曲情報制御装置
JP5544961B2 (ja) サーバ
JP2001331176A (ja) 楽曲再生方法、マルチメディアデータ再生方法、サーバクライアントシステムおよびサーバ装置
KR100819775B1 (ko) 네트워크 기반의 음악연주/노래반주 서비스 장치, 시스템, 방법 및 기록매체
WO2011111825A1 (ja) カラオケシステム及びカラオケ演奏端末
JP2004233698A (ja) 音楽支援装置、音楽支援サーバ、音楽支援方法およびプログラム
WO2014142288A1 (ja) 楽曲編集装置および楽曲編集システム
JP2008304821A (ja) 楽曲合奏公開システム
JP2006154777A (ja) 音楽生成システム
JP2008033344A (ja) カラオケ装置
JP2018112725A (ja) 音楽コンテンツ送信装置、音楽コンテンツ送信プログラムおよび音楽コンテンツ送信方法
JP4169034B2 (ja) カラオケ装置および端末装置
JP3178462B2 (ja) 楽曲データ配信装置
JP2022114309A (ja) オンラインセッションサーバ装置
WO2004010411A1 (ja) データ配信システムおよび方法、データ配信サーバ、データ配信プログラム、楽曲ファイル生成方法、記録媒体
JP6453696B2 (ja) カラオケシステム、プログラム及びカラオケ通信システム
JP6783065B2 (ja) 通信端末装置、サーバ装置及びプログラム
JP2004191515A (ja) 配信システム、再生機器およびコンテンツ再生方法
JP2014048471A (ja) サーバ、音楽再生システム
JP2007079413A (ja) オーディオ再生装置、オーディオ配信システム、オーディオ再生プログラムおよびオーサリングプログラム
JP2006308715A (ja) カラオケシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

R150 Certificate of patent or registration of utility model

Ref document number: 5544961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees