JP2004045624A - Method and system for collaboration, server, and program - Google Patents

Method and system for collaboration, server, and program Download PDF

Info

Publication number
JP2004045624A
JP2004045624A JP2002201407A JP2002201407A JP2004045624A JP 2004045624 A JP2004045624 A JP 2004045624A JP 2002201407 A JP2002201407 A JP 2002201407A JP 2002201407 A JP2002201407 A JP 2002201407A JP 2004045624 A JP2004045624 A JP 2004045624A
Authority
JP
Japan
Prior art keywords
sound data
input
time frame
time
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002201407A
Other languages
Japanese (ja)
Other versions
JP4042484B2 (en
Inventor
Tatsuya Iriyama
入山 達也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002201407A priority Critical patent/JP4042484B2/en
Publication of JP2004045624A publication Critical patent/JP2004045624A/en
Application granted granted Critical
Publication of JP4042484B2 publication Critical patent/JP4042484B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a system for collaboration that make it possible to easily produce contents of music and video by collaboration, a server and a program used for the system, and a recording medium where the program is recorded. <P>SOLUTION: A Web server 10 urges terminal devices 13 to 16 connected through the Internet to input sound data as a portion of contents and the reproduction start time of the sound data, stores inputted pieces of sound data and reproduction start times of the pieces of sound data into a specified area of a storage means, and reads them at the specified times and distributes them so that the respective pieces of sound data begin to be reproduced at the corresponding reproduction start times. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、楽曲の共同制作を行うためのコラボレーション方法、コラボレーションシステム、このシステムに使用されるサーバ、およびプログラムに関する。
【0002】
【従来の技術】
近年、インターネットの普及を背景として、様々な人が家庭で音楽を手軽に楽しめるような音楽環境が整備されつつある。例えば、パーソナルコンピュータ(以下、「PC」と言う。)で使用される音楽再生用ソフトウェアには、このPCに記憶された曲データの再生機能に加えて、インターネット経由で予め指定されたサーバにアクセスし、このサーバに記憶されている曲データを再生したり、ダウンロードを行う機能を有するものがある。また、この種のダウンロードサービスを提供するサーバには、アマチュアが作成した曲データのアップロードを受け付け、その曲データのダウンロードサービスを提供するものもある。
【0003】
【発明が解決しようとする課題】
ところで、音楽業界では、複数の人々でコラボレートして作曲することがある。この種のコラボレーションをインターネットなどの通信ネットワークを利用して提供することができれば、コラボレーションの楽しさをより多くの人が享受でき、また、音楽コミュニケーションを発展させることができると考えられる。
【0004】
従来、コラボレーションを通信ネットワークを利用して行う方法として、ある曲制作者が作成した楽曲のデータを通信ネットワークを経由して他の曲制作者に転送し、これにより楽曲データを交換し、楽曲を共同制作することが行われている。
【0005】
しかしながら、共同制作中の楽曲データを通信ネットワークを介して交換していく方法は、共同制作曲が完成するまでに時間がかかってしまう。また、その曲の既に制作した部分を後で本人が修正する、といったことが容易にできない。また、共同製作中の曲データを全て転送する必要があるため、再生時間が長い曲データの場合は送信や受信に時間がかかってしまう、という問題も生じる。
【0006】
そこで、本発明は、上述した事情に鑑みてなされたものであり、楽曲や映像のコンテンツを容易に共同制作することができるコラボレーション方法、コラボレーションシステム、このシステムに使用されるサーバ、およびプログラムを提供することを目的としている。
【0007】
【課題を解決するための手段】
上述課題を解決するため、本発明は、サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促すステップと、サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促すステップと、サーバが、入力された複数の前記音データを記憶手段の前記時間枠に対応する記憶領域に記憶するステップと、サーバが、前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して配信するステップとを有することを特徴とするコラボレーション方法を提供する。
【0008】
この構成によれば、サーバが、複数の端末装置に対してコンテンツの一部となる音データの入力を促し、入力された複数の音データを記憶手段の所定領域に記憶させ、所定時刻に読み出して配信することにより、複数の端末装置の操作者によって配信対象のコンテンツを容易に共同制作することができる。
【0009】
また、本発明は、サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促すステップと、サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データと、前記音データの再生開始時刻の入力を促すステップと、サーバが、入力された複数の前記音データと、前記音データの再生開始時刻を記憶手段に記憶するステップであって、前記複数の音データについては、前記記憶手段の前記時間枠に対応する記憶領域に記憶するステップと、サーバが、前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して、各音データが各々対応する前記再生開始時刻に再生が開始されるように配信するステップとを有することを特徴とするコラボレーション方法を提供する。
【0010】
この構成によれば、サーバが、複数の端末装置に対してコンテンツの一部となる音データと、その音データの再生開始時刻の入力を促し、入力された複数の音データと、各音データの再生開始時刻を記憶手段の所定領域に記憶させ、所定時刻に読み出して各音データが各々対応する再生開始時刻に再生が開始されるように配信することにより、複数の端末装置の操作者によって配信対象のコンテンツを容易に共同制作することができる。また、コンテンツにおける各音データの再生開始時刻を異ならせることができる。
【0011】
また、上記構成において、サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促すステップにおいては、前記複数の端末装置に対して、前記記憶手段の前記時間枠に対応する記憶領域に記憶された複数の音データのいずれか1つ以上の音データの送信指示の入力を促すステップと、入力された送信指示に基づき、前記記憶手段から、対応する音データを読み出して前記送信指示を入力した端末装置に送信するステップとをさらに有することが好ましい。これにより、複数の端末装置の操作者は、コンテンツの一部として記憶済みの音データを視聴することができる。
【0012】
また、上記構成において、サーバが、予め定めた選択基準に従って、前記時間枠の管理者を決定するステップと、サーバが、前記管理者が操作する端末装置に対して、前記管理者を識別するための識別情報の入力を促すステップと、サーバが、入力した前記識別情報を、前記時間枠と対応づけて記憶手段に記憶するステップと、サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、識別情報の入力を促すステップと、サーバが、入力された識別情報が前記識別情報と一致することを条件に、前記端末装置に対して、前記記憶手段の前記時間枠に対応する記録領域に記憶された前記複数の音データの編集指示の入力を促すステップと、サーバが、入力された前記編集指示に基づき、前記複数の音データの編集処理を行うステップとをさらに有することが好ましい。これにより、管理者がコンテンツの一部として記憶済みの音データを編集することができる。
【0013】
また、上記構成において、サーバが、入力された識別情報が前記識別情報と一致することを条件に、前記端末装置に対して、前記記憶手段の前記時間枠に対応する記録領域に記憶された前記複数の音データの編集指示の入力を促すステップにおいては、前記端末装置に対して、前記記憶手段の前記時間枠に対応する記憶領域に記憶された複数の音データのいずれか1つ以上の音データの送信指示の入力を促すステップと、入力された送信指示に基づき、前記記憶手段から、対応する音データを読み出して前記端末装置に送信するステップとをさらに有することが好ましい。これにより、管理者がコンテンツの一部として記憶済みの音データを視聴することができる。この場合において、前記予め定めた選択基準は、前記時間枠の入力を行った端末装置の操作者を前記時間枠の管理者としてもよい。
【0014】
また、上記構成において、コンテンツに映像データを含めてもよい。この場合、サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる映像データの入力を促すステップと、サーバが、入力された1つまたは複数の前記映像データを前記記憶手段の前記時間枠に対応する記憶領域に記憶するステップとをさらに備え、
前記配信するステップにおいては、サーバが、前記時間枠の時刻になると、前記記憶手段から前記時間枠に対応する記憶領域に記憶された前記映像データをさらに読み出し、前記複数の音データと共に配信するようにすればよい。
【0015】
また、本発明は、複数の端末装置と、前記複数の端末装置と通信ネットワークを経由して接続されるサーバとから構成され、前記サーバは、前記複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促す手段と、前記複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促す手段と、複数の音データを記憶する記憶手段と、入力された複数の前記音データを前記記憶手段の前記時間枠に対応する記憶領域に記憶させる手段と、前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して配信する手段とを有することを特徴とするコラボレーションシステムを提供する。
【0016】
この構成によれば、サーバが、複数の端末装置に対してコンテンツの一部となる音データの入力を促す手段と、入力された複数の音データを記憶手段の所定領域に記憶させる手段と、記憶手段から所定時刻に複数の音データを読み出して配信する手段とを有することにより、複数の端末装置の操作者によって配信対象のコンテンツを容易に共同制作することができる。
【0017】
また、本発明は、複数の端末装置と、前記複数の端末装置と通信ネットワークを経由して接続されるサーバとから構成され、前記サーバは、前記複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促す手段と、前記複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データと、前記音データの再生開始時刻の入力を促す手段と、複数の音データと、前記音データの再生開始時刻を記憶する記憶手段と、入力された複数の前記音データと、前記音データの再生開始時刻を記憶手段に記憶させる手段であって、前記複数の音データについては、前記記憶手段の前記時間枠に対応する記憶領域に記憶させる手段と、前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して、各音データが各々対応する前記再生開始時刻に再生が開始されるように配信する手段とを有することを特徴とするコラボレーションシステムを提供する。
【0018】
この構成によれば、サーバが、複数の端末装置に対してコンテンツの一部となる音データと、その音データの再生開始時刻の入力を促す手段と、入力された複数の音データと、各音データの再生開始時刻を記憶手段の所定領域に記憶させる手段と、記憶手段から所定時刻に複数の音データを読み出して各音データが各々対応する再生開始時刻に再生が開始されるように配信する手段を有することにより、複数の端末装置の操作者によって配信対象のコンテンツを容易に共同制作することができる。また、コンテンツにおける各音データの再生開始時刻を異ならせることができる。
【0019】
この発明は、以上説明したコラボレーション方法およびコラボレーションシステムに適用する他、コラボレーションシステムに使用されるサーバ、この発明を実施するためのプログラムを電気通信回線を介して一般ユーザに配布したり、そのようなプログラムを、CD−ROMや、フロッピーディスクや光記録ディスクといった、コンピュータに読み取り可能な記録媒体に格納して一般ユーザに配布する、といった態様でも実施され得る。
【0020】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳述する。以下に示す実施形態は、本発明の一態様を示すものであり、この発明を限定するものではなく、本発明の範囲内で任意に変更可能である。
【0021】
(1) 実施形態
(1.1) 実施形態の構成
図1は、本発明の実施形態に係るネットワークコラボレーションシステム1の構成を示す図である。
まず、本実施形態に係るネットワークコラボレーションシステム1の概要を説明する。
Webサーバ10は、インターネット上に楽曲の共同制作を行う環境を提供すると共に、共同制作された楽曲(以下、共同制作曲という)のストリーミング配信(いわゆるインターネット放送)を行う。このWebサーバ10は、経路制御装置(ルーター)11を経由してインターネットに接続され、また、Ethernet(商標)ケーブルを介してWebサーバ10の管理を行うための管理用端末12と接続されている。なお、管理用端末12がインターネットを介してWebサーバ10と接続されるようにしてもよい。
【0022】
ここで、本実施形態における共同制作曲とは、各パートの楽曲(音)が異なる制作者によって制作された複数パートから構成される楽曲である。なお、同一の制作者が、共同制作曲の2つ以上のパートの楽曲(音)の制作者である場合もあり得ることは勿論である。また、本実施形態では、共同制作曲の楽曲データがMIDI(Musical Instrument Digital Interface)データである場合を例に説明する。MIDIデータは、各パート(トラック)のデータ(以下、説明の便宜上「音データ」という。)に出力チャンネルを指定するデータが付加され、再生側(音源側)でパート(トラック)単位で再生制御することが可能なデータである。
【0023】
端末装置13〜16は、一般ユーザが使用するPC(Personal Computer)、PDA(Personal Digital Assistants)、携帯電話などであり、WWWブラウザとMIDI音源のアプリケーションがインストールされ、図示しないISP(Internet Service Provider)を経由してインターネットに接続可能なコンピュータである。
【0024】
このネットワークコラボレーションシステム1において、端末装置13〜16は、曲制作者またはインターネット放送のリスナーによって操作され、WWWブラウザを起動してWebサーバ10にアクセスすることによって、曲制作者が制作した音データをWebサーバ10にアップロードしたり、インターネット放送中の共同制作曲を再生する。
【0025】
ここで、このWebサーバ10と各端末装置13〜16との間のデータ通信は、TCP/IPのプロトコルに基づいて行われ、各端末装置13〜16のWWWブラウザによってHTTP(Hypertext Transfer Protocol)のプロトコルを用いてHTML(Hypertext Markup Language)言語で記載されたファイルであるHP(Home Page)が閲覧される。なお、図示は省略しているが、インターネットには、Webサーバ10と各端末装置13〜16との間で電子メールのやり取りを実現するためのメールサーバ、SMTPサーバ、POPサーバなどの一般的なインターネットサーバ群が存在している。
【0026】
図2は、Webサーバ10の構成を示すブロック図である。
Webサーバ10において、制御部20は、CPUなどから構成され、Webサーバ10の各部の制御や、記憶部21〜23に各種データの記憶または読み出し、記憶部21〜23に記憶されたデータの検索等の演算処理、配信処理などを行う。入力制御部24は、端末装置13〜16からインターネットを経由して入力されるデータの復調などを行う。出力制御部25は、端末装置13〜16に出力するデータの変調などを行う。入出力制御部26は、LANを介して管理用端末12との間でデータの送受信のための通信処理を行う。
【0027】
記憶部21には、メインプログラムが記憶されている。メインプログラムは、制御部20が読み出して実行するものであり、端末装置13〜16にメインメニュー画面(HPに相当する画面)などの各種画面を表示させるプログラム、音データのアップロードやダウンロードのためのプログラム、電子メールを送受信するためのプログラム、共同制作曲の配信(インターネット放送)を行うためのプログラム等から構成される。
【0028】
記憶部22には、図3に示すように、インターネット放送の各放送チャンネルを構成する複数の放送枠(時間枠)単位でトラック領域が割り当てられており、複数の曲制作者がアップロードした音データが各トラック領域に記憶されている。
【0029】
また、記憶部23には、曲制作者情報DMと、放送管理情報DHとが記憶されている。
曲制作者情報DMは、曲制作者に関する情報であり、例えば、音データの曲制作者のハンドルネームと、メールアドレスとを対応づけて格納したテーブルデータが適用される。
また、放送管理情報DHは、放送枠毎の管理者を記述する情報であり、例えば、図4に示すように、各放送チャンネルの放送枠に対して、それぞれ日時と管理者のハンドルネームとを対応づけて格納したテーブルデータが適用される。ここで、放送枠の管理者とは、その放送枠に登録された音データの削除や修正を行うことができる者である。本実施形態においては、管理者を選定する基準として、最初にその放送枠を予約した曲制作者をその放送枠の管理者とする場合を説明するが、選定基準は上記基準に限る必要は無く、様々な選定基準を適用することができる。
【0030】
(1.2) 実施形態の動作
次に、本実施形態におけるWebサーバ10の動作を説明する。以下、説明の便宜上、Webサーバ10に端末装置13がアクセスしている場合を例に説明する。
まず、端末装置13がWebサーバ10のHPのアドレス(URL:Uniform Resource Locators)にアクセスしてWebサーバ10との通信リンクが確立すると、Webサーバ10の制御部20は、図5のフローチャートに示すように、端末装置13の画面にメインメニュー画面を表示させる(ステップS1)。このメインメニュー画面は、端末操作者に対して、本実施形態の処理である「放送予約」、「放送内容の管理」、「放送視聴」の中から所望する処理の選択を促す画面である。かかるメインメニュー画面や以下に述べる各種画面においては、マウスカーソルが表示され、端末操作者が所望の処理に対応する表示領域にマウスカーソルを移動してマウスをクリック操作することにより、所望の処理を選択できるようになっている。
【0031】
(1.2.1) 放送予約
このメインメニュー画面において、端末装置13の端末操作者が「放送予約」の処理を選択すると、制御部20は、端末装置13の画面に放送予約画面を表示させ、端末操作者に対して、「新規放送枠の予約」、「既存の放送枠への予約」の中から所望する処理を選択するように促す(ステップS2)。
【0032】
ここで、「新規放送枠の予約」が選択された場合、制御部20は、放送管理情報DHを参照して各放送チャンネルの予約可能日時を端末装置13の画面に表示させ、端末操作者に対し、放送枠の指定、より詳しく説明すると、希望する放送チャンネルおよび放送日時の入力を促す(ステップS3)。なお、この種の入力作業は、端末操作者が入力ボックスやGUI(Graphical User Interface)ボタンの表示領域にマウスカーソルを移動してマウスをクリック操作したり、キーボードを操作することによって文字入力やボタン操作が行われる。
【0033】
そして、端末操作者により、希望する放送枠(放送チャンネル、放送日時)が入力され、所定の入力完了操作(図5に示す「送信」ボタンの操作)がなされると、制御部20は、入力された情報を受信して放送枠を作成する処理(例えば記録部22に対応する領域を確保し、かつ、記憶部23の放送管理情報DHにその放送枠の日時を格納する処理)を行った後、端末装置13の画面にアップロード画面を表示させる(ステップS4)。
【0034】
このアップロード画面には、曲制作者のハンドルネームおよびメールアドレスを入力する入力ボックス、アップロード対象の音データの格納場所および音データの再生開始時刻を入力する入力ボックス、およびアップロードの開始を指示する「アップロード開始」ボタンが表示される。
【0035】
ここで、音データの再生開始時刻は、端末操作者(曲制作者)が指定した放送枠の時間範囲内であればよく、例えば、放送枠を12時00分00秒から12時05分00秒に予約していた場合は、その時間範囲内であればよい。この場合、音データの長さが2分である場合に、再生開始時刻を12時00分00秒にすれば再生終了時刻が12時02分00秒となるし、再生開始時刻を12時01分00秒にすれば再生終了時刻が12時03分00秒となる。また、再生開始時刻として、12時00分00秒および12時02分30秒の2つを入力すれば、12時00分00秒から12時02分00秒の間と、12時02分30秒から12時04分30秒の間に再生されることとなる。
【0036】
そして、アップロード画面において、端末操作者により全ての情報が入力され、「アップロード開始」ボタンが操作されると、制御部20は、入力された制作者の情報と、指定された音データを受信し、曲制作者の情報を曲制作者情報DMに追加すると共に、音データを記憶部22の対応する放送枠のレコード領域に格納する(ステップS5)。なお、音データは再生開始時刻の情報が付加されて記憶部22に格納される。
【0037】
また、制御部20は、放送管理情報DHのその放送枠の管理者の欄に、入力されたハンドルネームを格納する。そして、このステップS4の受信データの格納処理が終了すると、制御部20は、端末装置13の画面に「放送予約が完了しました。」といった旨のメッセージを表示させ、端末操作者に放送予約が済んだことを通知する(ステップS6)。このとき、制御部20は、入力されたメールアドレスを用いて、予約された放送枠の日時を記述した電子メールを送信することにより、予約内容を端末操作者(管理者となった曲制作者)に通知する(ステップS7)。なお、メインメニュー画面以外の各種画面においては、所定の操作によりいつでもメインメニュー画面に戻ることができるようになっている。
【0038】
一方、ステップS2において、「既存の放送枠への予約」が選択された場合、制御部20は、放送管理情報DHを参照して、放送開始時刻が現在時刻より1時間以上後の放送チャンネルの放送枠を端末装置13の画面に表示させ、端末操作者に対して選択を促す(ステップS8)。そして、いずれかの放送枠が選択されると、制御部20は、記憶部22を参照して、図6に一例を示すように、その放送枠の内容を端末装置13に画面に表示させる(ステップS9)。この図においては、トラック1に12:00:00〜12:05:00まで再生される音データ(楽曲A)が格納され、トラック2以降には音データが格納されていない場合を示している。また、音データが格納されるトラックには、チェックボックスCBが表示され、制御部20は、端末操作者によりチェックボックスCBにチェックが入れられると、そのトラックのデータを端末装置13に送信する。これにより、端末装置13の端末操作者は、この放送枠(放送チャンネルの12:00:00〜12:05:00の放送枠)に登録されている楽曲Aの音データをダウンロードして聞くことができ、この楽曲Aに合わせた旋律を演奏して録音することによって、その楽曲に加えたい楽曲Bの音データを容易に作成することが可能となる。
【0039】
そして、端末操作者が、作成した楽曲Bのアップロードを行うべく「アップロード画面へ」ボタンを操作すると、制御部20は、ステップS4に処理を進めてアップロード画面を表示する。以降の処理は既に説明した処理と同一であるため、説明は省略する。ただし、この場合、ステップS7の電子メール送信処理においては、アップロードした端末操作者宛の電子メールに加えて、その放送枠の管理者宛の電子メールを作成して送信し、その放送枠に音データが追加された旨を管理者にも通知する。このようにして各端末装置13〜16の端末操作者は、自身が予約した放送枠や他人が制作した放送枠に自身が制作した楽曲の音データをアップロードすることができる。
【0040】
なお、ステップS9において、選択した放送枠に複数の音データが格納されている場合は、例えば、図7に示す画面が表示される。この図においては、トラック1に12:00:00から12:05:00まで再生される音データ(楽曲A)が格納され、トラック2に12:00:30から12:05:00まで再生される音データ(楽曲B)が格納され、トラック3以降には音データが格納されていない場合を示している。この場合、いずれか1つのチェックボックスCBにチェックが入れられると、制御部20は、そのトラックの音データを端末装置13に送信する一方、複数のチェックボックスCBにチェックが入れられると、指定された複数トラックの音データを合成して端末装置13に送信するようになされている。これにより、端末装置13の端末操作者は、放送予定の楽曲そのものを視聴したり、いずれかのパート(トラック)の楽曲のみを視聴することができる。
このようにして、Webサーバ10は、任意の端末装置13〜16の端末操作者に対して放送枠の作成を促し、その放送枠への音データのアップロードを促すことによって、楽曲を共同制作する場を提供するのである。
【0041】
(1.2.2) 放送内容の管理
次に、放送内容の管理について説明する。この放送内容の管理は、各放送枠の管理者だけに与えられた作業である。メインメニュー画面において、端末操作者が「放送内容の管理」の処理を選択すると、制御部20は、図8のフローチャートに示すように、端末装置13の画面にログイン画面を表示させ、端末操作者に対し、登録済みのハンドルネームと、メールアドレスの入力を促す(ステップS10)。
【0042】
そして、端末操作者により情報が入力され、「ログイン」ボタンが操作されると、制御部20は、受信した入力情報に基づいてこの端末操作者が管理者となっている放送枠であって、放送開始時刻が現在時刻から30分以上後の放送枠を検索する(ステップS11)。この場合、制御部20は、曲制作者情報DMを参照して、入力されたハンドルネームとメールアドレスの組み合わせの曲制作者が存在するかを判断することにより、曲制作者の正当性を判断し、正当性が認められた場合に、放送管理情報DHからそのハンドルネームが管理者として登録されている放送枠を検索すればよい。なお、この方法に代えてハンドルネームの入力だけを要求し、放送管理情報DHを参照してそのハンドルネームが管理者として登録されている放送枠を検索するようにしてもよい。
【0043】
次に、制御部20は、放送枠が抽出されたか否かを判断し(ステップS12)、放送枠が抽出されなかった場合は、その旨を表示し(ステップS13)、その後、ステップS1のメインメニュー画面の表示処理に処理を移行する一方、放送枠が抽出された場合は、抽出した放送枠の内容を表示する(ステップS14)。
【0044】
図9は、ステップS14における表示画面の一例を示す図である。この表示画面は、図6および図7に示した表示画面の内容とほぼ同様であるため、異なる部分について説明する。この画面において、音データが格納される各トラックには、上述した視聴のためのチェックボックスCBに加えて、各トラックの音データの削除指示を行うためのチェックボックスCB1と、修正依頼を行うための「メール」ボタンBSが表示される。
【0045】
この表示画面においては、端末操作者によりいずれかのチェックボックスCB1にチェックが入れられると、制御部20は、そのトラックの音データを記憶部22から削除する処理を行う。また、端末操作者により「メール」ボタンBSが操作されると、制御部20は、曲制作者情報DMを参照して、そのトラックの音データの曲制作者のメールアドレスを検索して、その曲制作者宛のメール作成画面を表示する。これにより、管理者は、このメール作成画面にて修正依頼内容を書き込んで送信指示を行うことにより、修正依頼を行うことができる。この場合、上述したように、放送枠に新たに音データが登録された場合は、その旨が管理者に通知されるため、管理者は、修正された音データが新たに登録(アップロード)された後、修正前の音データを削除すればよい。
【0046】
また、この表示画面において、端末操作者により「メインメニューへ」ボタンが操作されると、制御部20は、端末装置13にメインメニュー画面を表示させる。
【0047】
このようにして、このネットワークコラボレーションシステム1においては、放送開始時刻の30分前までは、管理者が放送枠の内容を確認でき、その放送枠に登録された音データの削除や、修正依頼を行うことができるようになっている。なお、本実施形態では、放送枠の管理者以外の端末操作者は、上述したように、その放送枠への音データのアップロードを放送開始時刻の1時間前までしか行うことができない。このため、管理者は、放送開始時刻より1時間以上前に修正依頼を行うこととなる。
【0048】
(1.2.3) インターネット放送
次に、Webサーバ10のインターネット放送のための動作を説明する。前提として、Webサーバ10の制御部20は、放送管理情報DHを所定周期で参照することにより、放送開始時刻が間近に迫った放送枠の検出処理を行い、放送開始時刻が間近に迫った放送枠を検出すると、その放送枠の各トラックの音データを合成して放送用の楽曲データDmを生成し、放送開始時刻になるとストリーミング配信を行うようになされている。この音データの合成処理は、各トラックの音データに出力チャンネルをそれぞれ付加して1つのMIDIデータにする処理である。また、制御部20は、この音データの合成処理の際、各音データに付加されている再生開始時刻の情報に基づき、各音データが各々対応する再生開始時刻に再生が開始されるように合成する。このように、各音データに再生開始時刻時の情報を付加しておくことにより、各音データの再生開始時刻を任意に設定でき、多彩な共同制作曲を制作することが可能となるのである。
【0049】
メインメニュー画面において、端末操作者が「放送視聴」の処理を選択すると、制御部20は、図10のフローチャートに示すように、端末装置13の画面に放送チャンネル選択画面を表示させ、端末操作者に対して放送チャンネルの選択を促す(ステップS20)。そして、端末操作者によりいずれかの放送チャンネルが選択されると、制御部20は、視聴画面を端末装置13の画面に表示させる(ステップS21)。また、制御部20は、その放送チャンネルで配信中の楽曲データDmの送信先に端末装置13を含めることにより、端末装置13をストリーミング配信先に含めて配信する。これにより、端末装置13においては、放送中の楽曲データDmが再生され、端末操作者(リスナー)が視聴することができる。
【0050】
ここで、図11は、視聴画面の一例を示す図である。この視聴画面においては、配信中の放送枠の各トラックの音データの曲制作者名(ハンドルネーム(図11における「COMPOSER」))や、再生位置を示すバーBARが表示されると共に、音データの消音を指示するためのチェックボックスCB2が表示される。この画面では、チェックボックスCB2にチェックが入っている音データが再生されている場合を示している。そして、端末操作者の操作によりいずれかのチェックボックスCB2のチェックが外されると、端末装置13においては、そのチェックが外された音データの再生のみが中止される。これにより、リスナー(端末操作者)は、各トラックの音データのうち所望の音データの組み合わせで楽曲を視聴することもできるようになっている。
【0051】
以上説明したように、本実施形態に係るネットワークコラボレーションシステム1においては、Webサーバ10がインターネットを介して端末装置13〜16から放送枠の予約を受け付け、その放送枠の各トラックへの音データのアップロードを受け付けることにより、楽曲の共同制作の場を提供する。このため、従来の共同製作中の楽曲データを通信ネットワークを介して交換する方法に比して、容易に、かつ短時間で共同制作曲を制作することが可能となる。
また、Webサーバ10が放送枠の管理者を予め定めた選択基準に従って定め、その管理者の指示に基づき放送枠内のいずれかの音データの削除や修正依頼メールの送信を行うので、アップロードされた音データから構成される共同制作曲を、管理者が変更することもできる。これにより、共同制作曲の修正を簡易に行うことが可能となる。この結果、各端末装置13〜16の端末操作者が容易に放送対象の楽曲を共同して作成することが可能となるのである。
【0052】
(2) 変形例
本願発明は、上述した実施形態に限らず種々の態様にて実施することができる。例えば、以下のような変形実施が可能である。
【0053】
(2.1)
上述の実施形態では、共同制作曲の楽曲データをストリーミング配信する場合について述べたが、その楽曲データに映像データを付加して映像と音声のストリーミング配信を行ってもよい。この場合に付加する映像データは、予めWebサーバ10に記憶しておいたデータでもよいし、端末装置13〜16からアップロードされた映像データでもよい。
【0054】
具体的には、Webサーバ10が、端末装置13〜16から放送枠への音データのアップロードを受け付ける際、若しくは、音データのアップロードとは別に、端末装置13〜16から希望する放送枠への映像データのアップロードを受け付け、アップロードされた映像データを記憶部22のその時間枠に対応する領域(空いているトラック領域など)に格納し、その放送枠の時刻になると、この映像データについても読み出し、楽曲データDMと共に配信するようにすればよい。このようにすれば、楽曲と映像の総合的な共同制作を簡易に行うことが可能となる。つまり、本発明における配信対象のコンテンツには、楽曲データだけの場合に限らず、楽曲データと映像データの両方を含む場合もあり得るのである。
【0055】
(2.2)
上述の実施形態では、放送枠への音データのアップロードを放送開始時刻の1時間前までしか受け付けない場合について述べたが、アップロードをいつまで可能とするかは任意に決めればよい。同様に、放送枠にアップロードされた音データの削除や修正依頼を放送開始時刻の30分前までしか受け付けない場合について述べたが、いつまで可能とするかは任意に決めればよい。
また、アップロードの際に再生開始時刻を入力する場合について述べたが、放送枠の開始時刻から再生を開始する音データから共同制作曲を制作する場合は、再生開始時刻を入力しないようにしてもよい。
【0056】
(2.3)
上述の実施形態では、Webサーバ10は、複数の音データを1つの楽曲データDMに合成してストリーミング配信する場合について述べたが、Webサーバ10は複数の音データをそのまま別々のデータとして配信し、再生側の端末装置13〜16でミックスダウンして再生するようにしてもよい。この場合に配信される各音データには再生開始時刻の情報を含め、端末装置13〜16側で再生開始時刻を認識して、正しい再生開始時刻に各々が再生されるようにミックスダウンできるようにしてもよい。なお、音データは、MIDIデータに限らず、MSF(Music Studio File)、WAVなど様々なデータ形式を適用することができる。
【0057】
(2.4)
上述の実施形態では、共同制作を行う複数の放送枠にまたがる音データを受け付けること(アップロードするなど)はできなかったが、同一の端末操作者が放送時間がつながっている放送枠を複数予約した場合などは、その複数の放送枠を関連する放送枠とし、関連する放送枠の場合は放送枠をまたがる音データを受け付け、配信できるようにしてもよい。これにより、複数の放送枠にまたがる長時間の音データを受け付けることが可能となる。
【0058】
(2.5)
上述の実施形態では、音データの再生開始時刻を絶対時刻(12:00:00など)で入力する場合について述べたが、放送枠の開始時刻からの相対時間を入力するようにしてもよい。相対時間を使用すれば、放送枠内における各音データの時間管理が各端末操作者(管理者など)にとって容易となる。また、Webサーバ10が、予約された放送枠を一意に特定可能な識別情報IDを発行して、管理者などに通知するようにし、この識別情報IDを用いて管理者などがその放送枠を指定できるようにしてもよい。
【0059】
(2.6)
上述の実施形態では、コラボレーションのためのプログラムを予めWebサーバ10に格納しておく場合について述べたが、このプログラムを磁気記録媒体、光記録媒体、半導体記録媒体などのコンピュータが読み取り可能な記録媒体に格納し、コンピュータが記録媒体からこのプログラムを読み取って実行するようにしてもよい。また、このプログラムをネットワーク上のサーバからダウンロードできるようにしてもよい。
【0060】
【発明の効果】
上述したように本発明によれば、複数の端末装置の端末操作者によって容易に楽曲や映像のコンテンツを共同制作することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態に係るネットワークコラボレーションシステム1の構成を示す図である。
【図2】Webサーバ10の構成を示すブロック図である。
【図3】記憶部22の記憶内容の説明に供する図である。
【図4】放送管理情報DHを説明する図である。
【図5】Webサーバ10の動作を示すフローチャートである。
【図6】端末装置13に表示される表示画面を示す図である。
【図7】端末装置13に表示される表示画面を示す図である。
【図8】Webサーバ10の動作を示すフローチャートである。
【図9】端末装置13に表示される表示画面を示す図である。
【図10】Webサーバ10の動作を示すフローチャートである。
【図11】端末装置13に表示される表示画面を示す図である。
【符号の説明】
1……ネットワークコラボレーションシステム、10……Webサーバ、
11……経路制御装置、12……管理用端末、13〜16……端末装置、
20……制御部、21〜23……記憶部、24……入力制御部、
25……出力制御部、26……入出力制御部、DM……曲制作者情報、
DH……放送管理情報、Dm……楽曲データ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a collaboration method, a collaboration system, a server used for this system, and a program for co-producing music.
[0002]
[Prior art]
In recent years, with the spread of the Internet, a music environment in which various people can easily enjoy music at home is being prepared. For example, music playback software used in a personal computer (hereinafter, referred to as a "PC") has a function of playing back music data stored in the PC, and has access to a server designated in advance via the Internet. Some have a function of playing or downloading music data stored in the server. Some servers that provide this type of download service accept upload of music data created by amateurs and provide a download service for the music data.
[0003]
[Problems to be solved by the invention]
By the way, in the music industry, a plurality of people sometimes collaborate and compose music. If this kind of collaboration can be provided by using a communication network such as the Internet, it is considered that the enjoyment of collaboration can be enjoyed by more people and music communication can be developed.
[0004]
Conventionally, as a method of performing collaboration using a communication network, data of a song created by one song creator is transferred to another song creator via a communication network, thereby exchanging song data, and Co-production is being done.
[0005]
However, the method of exchanging music data being co-produced via a communication network takes time until the co-produced music is completed. Also, it is not easy for the person to modify the already created part of the song later. In addition, since it is necessary to transfer all pieces of music data being co-produced, there is also a problem that transmission and reception take a long time for music data having a long reproduction time.
[0006]
Accordingly, the present invention has been made in view of the above circumstances, and provides a collaboration method, a collaboration system, a server used for this system, and a program that can easily co-produce music and video contents. It is intended to be.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides a server which prompts a plurality of terminal devices connected via a communication network to input a time frame for distributing content, Prompting a plurality of terminal devices connected via the terminal to input sound data that is a part of the content to be distributed in the input time frame; and In the storage area of the storage means corresponding to the time frame, and when the server reaches the time of the time frame, a plurality of sound data stored in the storage area corresponding to the time frame from the storage means Reading out and distributing the same.
[0008]
According to this configuration, the server prompts a plurality of terminal devices to input sound data that is a part of the content, stores the input plurality of sound data in a predetermined area of the storage unit, and reads out the sound data at a predetermined time By distributing the contents, the contents to be distributed can be easily co-produced by the operators of the plurality of terminal devices.
[0009]
Also, the present invention provides a step in which the server prompts a plurality of terminal devices connected via the communication network to input a time frame for distributing the content, and the server establishes a connection via the communication network. Prompting a plurality of terminal devices to input sound data that is a part of the content to be distributed in the input time frame, and a reproduction start time of the sound data; and Storing the sound data and the reproduction start time of the sound data in storage means, and storing the plurality of sound data in a storage area corresponding to the time frame of the storage means. When the server reaches the time of the time frame, the server reads a plurality of sound data stored in a storage area corresponding to the time frame from the storage means, and each sound data corresponds to the sound data. Providing a collaboration method characterized by a step of delivering to play to the reproduction start time is started.
[0010]
According to this configuration, the server prompts the plurality of terminal devices to input sound data to be a part of the content and the reproduction start time of the sound data, and the input plurality of sound data and each sound data Is stored in a predetermined area of the storage means, read out at a predetermined time, and each sound data is distributed so that the reproduction is started at the corresponding reproduction start time. Content to be distributed can be easily co-produced. In addition, the reproduction start time of each sound data in the content can be made different.
[0011]
In the above configuration, the server may prompt a plurality of terminal devices connected via a communication network to input sound data that is a part of the content to be distributed in the input time frame. Prompting the plurality of terminal devices to input a transmission instruction for any one or more of the plurality of sound data stored in the storage area corresponding to the time frame of the storage means; Preferably, the method further comprises the step of reading the corresponding sound data from the storage unit based on the transmitted transmission instruction, and transmitting the read sound data to the terminal device that has input the transmission instruction. This allows the operators of the plurality of terminal devices to view the sound data stored as part of the content.
[0012]
Further, in the above configuration, the server determines the manager of the time frame according to a predetermined selection criterion, and the server identifies the manager to a terminal device operated by the manager. Prompting the user to input the identification information, the server storing the input identification information in the storage unit in association with the time frame, and a plurality of terminals connected via the communication network. Prompting the device to input identification information, and the server responding to the terminal device with the time frame of the storage means on condition that the input identification information matches the identification information. Prompting the user to input an instruction to edit the plurality of sound data stored in the recording area, and the server performs an editing process on the plurality of sound data based on the input editing instruction It may further include a step. This allows the manager to edit the sound data stored as part of the content.
[0013]
In the above configuration, the server may store the input identification information in the recording area corresponding to the time frame of the storage unit on the condition that the input identification information matches the identification information. In the step of prompting the user to input an instruction to edit a plurality of sound data, the terminal device may output one or more sounds of a plurality of sound data stored in a storage area corresponding to the time frame of the storage unit. It is preferable that the method further includes a step of prompting an input of a data transmission instruction, and a step of reading out corresponding sound data from the storage unit based on the input transmission instruction and transmitting the sound data to the terminal device. This allows the administrator to view the sound data stored as part of the content. In this case, the predetermined selection criterion may be such that an operator of the terminal device that has input the time frame is an administrator of the time frame.
[0014]
In the above configuration, the content may include video data. In this case, the server prompts a plurality of terminal devices connected via the communication network to input video data that is a part of the content to be distributed in the input time frame; and Storing one or more of the input video data in a storage area corresponding to the time frame of the storage means,
In the delivering step, when the time of the time frame has come, the server may further read the video data stored in the storage area corresponding to the time frame from the storage unit and deliver the video data together with the plurality of sound data. What should I do?
[0015]
The present invention also includes a plurality of terminal devices, and a server connected to the plurality of terminal devices via a communication network, wherein the server distributes content to the plurality of terminal devices. Means for prompting input of a time frame to be performed; means for prompting the plurality of terminal devices to input sound data that is a part of content to be distributed in the input time frame; and storing a plurality of sound data. A storage unit, a unit that stores the plurality of input sound data in a storage area corresponding to the time frame of the storage unit, and when the time of the time frame is reached, the storage unit corresponds to the time frame. Means for reading out and distributing a plurality of pieces of sound data stored in the storage area.
[0016]
According to this configuration, the server prompts the plurality of terminal devices to input sound data that is a part of the content, and stores the input plurality of sound data in a predetermined area of the storage unit. By having a means for reading out a plurality of sound data from the storage means at a predetermined time and distributing the same, the contents to be distributed can be easily co-produced by the operators of the plurality of terminal devices.
[0017]
The present invention also includes a plurality of terminal devices, and a server connected to the plurality of terminal devices via a communication network, wherein the server distributes content to the plurality of terminal devices. Means for prompting input of a time frame to be performed; means for prompting the plurality of terminal devices to input sound data that is a part of content to be distributed in the input time frame; and a reproduction start time of the sound data. And a plurality of sound data, storage means for storing the reproduction start time of the sound data, and a plurality of input sound data, means for storing the reproduction start time of the sound data in the storage means, Means for storing the plurality of sound data in a storage area corresponding to the time frame of the storage means, and when the time of the time frame is reached, the storage means stores the sound data in a storage area corresponding to the time frame. It reads 憶 plurality of sound data, to provide a collaboration system characterized by having a means for delivering to play to the reproduction start time each sound data each corresponding begins.
[0018]
According to this configuration, the server prompts the plurality of terminal devices to input sound data that is a part of the content, a unit that prompts the user to input the reproduction start time of the sound data, the input plurality of sound data, Means for storing the reproduction start time of the sound data in a predetermined area of the storage means, and reading a plurality of sound data from the storage means at a predetermined time and distributing each sound data so that reproduction is started at the corresponding reproduction start time. With this configuration, the content to be distributed can be easily co-produced by the operators of the plurality of terminal devices. In addition, the reproduction start time of each sound data in the content can be made different.
[0019]
The present invention is applied to the collaboration method and the collaboration system described above, as well as a server used in the collaboration system, a program for implementing the present invention distributed to general users via a telecommunications line, and the like. The program may be stored in a computer-readable recording medium such as a CD-ROM, a floppy disk, or an optical recording disk and distributed to general users.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below show one aspect of the present invention, and do not limit the present invention, and can be arbitrarily changed within the scope of the present invention.
[0021]
(1) Embodiment
(1.1) Configuration of the embodiment
FIG. 1 is a diagram showing a configuration of a network collaboration system 1 according to an embodiment of the present invention.
First, an outline of the network collaboration system 1 according to the present embodiment will be described.
The Web server 10 provides an environment in which music is co-produced on the Internet, and performs streaming distribution (so-called Internet broadcasting) of co-produced music (hereinafter referred to as co-produced music). The Web server 10 is connected to the Internet via a route control device (router) 11, and is connected to a management terminal 12 for managing the Web server 10 via an Ethernet (trademark) cable. . Note that the management terminal 12 may be connected to the Web server 10 via the Internet.
[0022]
Here, the co-produced tune in the present embodiment is a tune composed of a plurality of parts in which the tune (sound) of each part is produced by a different creator. It is needless to say that the same creator may be the creator of the music (sound) of two or more parts of the co-produced music. Further, in the present embodiment, an example in which the music data of the co-produced music is MIDI (Musical Instrument Digital Interface) data will be described. In the MIDI data, data for specifying an output channel is added to data of each part (track) (hereinafter, referred to as “sound data” for convenience of description), and reproduction control is performed on a reproduction side (sound source side) in units of parts (tracks). It is data that can be done.
[0023]
The terminal devices 13 to 16 are a PC (Personal Computer), a PDA (Personal Digital Assistants), a mobile phone, or the like used by a general user, a WWW browser and an application of a MIDI sound source are installed, and an ISP (Internet Service Provider) not shown. It is a computer that can be connected to the Internet via.
[0024]
In the network collaboration system 1, the terminal devices 13 to 16 are operated by a music creator or a listener of an Internet broadcast, activate a WWW browser and access the Web server 10, thereby transmitting sound data produced by the music creator. It uploads to the Web server 10 and plays back co-produced songs on the Internet.
[0025]
Here, data communication between the Web server 10 and each of the terminal devices 13 to 16 is performed based on a TCP / IP protocol, and is performed by a WWW browser of each of the terminal devices 13 to 16 according to HTTP (Hypertext Transfer Protocol). An HP (Home Page), which is a file described in HTML (Hypertext Markup Language) language, is browsed using a protocol. Although not shown, the Internet includes general mail servers such as a mail server, an SMTP server, and a POP server for realizing the exchange of e-mail between the Web server 10 and each of the terminal devices 13 to 16. There are Internet servers.
[0026]
FIG. 2 is a block diagram illustrating a configuration of the Web server 10.
In the Web server 10, the control unit 20 includes a CPU and the like, controls each unit of the Web server 10, stores or reads various data in the storage units 21 to 23, and searches for data stored in the storage units 21 to 23. And the like, distribution processing, and the like. The input control unit 24 demodulates data input from the terminal devices 13 to 16 via the Internet. The output control unit 25 modulates data output to the terminal devices 13 to 16 and the like. The input / output control unit 26 performs a communication process for transmitting and receiving data to and from the management terminal 12 via the LAN.
[0027]
The storage unit 21 stores a main program. The main program is read and executed by the control unit 20, and is a program for displaying various screens such as a main menu screen (a screen corresponding to an HP) on the terminal devices 13 to 16, and for uploading and downloading sound data. It comprises a program, a program for sending and receiving e-mails, a program for delivering co-produced music (Internet broadcasting), and the like.
[0028]
As shown in FIG. 3, a track area is allocated to the storage unit 22 for each of a plurality of broadcast frames (time frames) constituting each broadcast channel of the Internet broadcast, and sound data uploaded by a plurality of music creators is assigned. Are stored in each track area.
[0029]
The storage unit 23 stores music creator information DM and broadcast management information DH.
The music creator information DM is information about the music creator, and for example, table data in which the handle name of the music creator of the sound data and the mail address are stored in association with each other is applied.
The broadcast management information DH is information describing an administrator for each broadcast frame. For example, as shown in FIG. 4, for a broadcast frame of each broadcast channel, a date and time and a handle name of the administrator are assigned. The table data stored in association is applied. Here, the manager of a broadcast frame is a person who can delete or correct sound data registered in the broadcast frame. In the present embodiment, as a criterion for selecting a manager, a case will be described in which a song creator who first reserved a broadcast frame is set as a manager of the broadcast frame, but the selection criterion need not be limited to the above criterion. And various selection criteria can be applied.
[0030]
(1.2) Operation of the embodiment
Next, the operation of the Web server 10 in the present embodiment will be described. Hereinafter, for convenience of explanation, a case in which the terminal device 13 is accessing the Web server 10 will be described as an example.
First, when the terminal device 13 accesses the HP address (URL: Uniform Resource Locators) of the Web server 10 and establishes a communication link with the Web server 10, the control unit 20 of the Web server 10 performs the processing shown in the flowchart of FIG. Thus, the main menu screen is displayed on the screen of the terminal device 13 (step S1). The main menu screen is a screen that prompts the terminal operator to select a desired process from “broadcast reservation”, “broadcast content management”, and “broadcast viewing” which are the processes of the present embodiment. On such a main menu screen and various screens described below, a mouse cursor is displayed, and the terminal operator moves the mouse cursor to a display area corresponding to the desired processing and clicks the mouse to execute the desired processing. You can choose.
[0031]
(1.2.1) Broadcast reservation
When the terminal operator of the terminal device 13 selects the process of “broadcast reservation” on the main menu screen, the control unit 20 displays a broadcast reservation screen on the screen of the terminal device 13 and prompts the terminal operator to “ The user is prompted to select a desired process from "reservation for new broadcast frame" and "reservation for existing broadcast frame" (step S2).
[0032]
Here, when “reservation of a new broadcast frame” is selected, the control unit 20 refers to the broadcast management information DH to display the reservable date and time of each broadcast channel on the screen of the terminal device 13, and allows the terminal operator to On the other hand, the user is prompted to specify a broadcast frame, more specifically, to input a desired broadcast channel and broadcast date and time (step S3). In this type of input operation, the terminal operator moves the mouse cursor to a display area of an input box or a GUI (Graphical User Interface) and clicks the mouse, or operates a keyboard to input characters or buttons. An operation is performed.
[0033]
Then, when a desired broadcast frame (broadcast channel, broadcast date and time) is input by a terminal operator and a predetermined input completion operation (operation of a “send” button shown in FIG. 5) is performed, the control unit 20 starts inputting. (For example, a process of securing an area corresponding to the recording unit 22 and storing the date and time of the broadcast frame in the broadcast management information DH of the storage unit 23). Thereafter, an upload screen is displayed on the screen of the terminal device 13 (step S4).
[0034]
On the upload screen, an input box for inputting a handle name and an e-mail address of a song creator, an input box for inputting a storage location of sound data to be uploaded and a reproduction start time of the sound data, and an instruction for starting uploading are provided. The "Upload" button is displayed.
[0035]
Here, the reproduction start time of the sound data may be within the time range of the broadcast frame specified by the terminal operator (song creator). For example, the broadcast frame is set to be from 12:00:00 to 12:05:00. If the reservation is made in seconds, the time may be within the time range. In this case, when the length of the sound data is 2 minutes, if the reproduction start time is set to 12: 00: 00: 00, the reproduction end time becomes 12: 02: 00: 00, and the reproduction start time is set to 12:01. If the minute is 00 seconds, the reproduction end time is 12:03:00. Also, if two times, 12: 00: 02: 00 and 12:02:30, are input as the playback start time, the time between 12: 00: 02: 00 and 12:02:00, and 12:02:30 It will be reproduced between 12 seconds and 12:04:30.
[0036]
Then, when all information is input by the terminal operator on the upload screen and the “upload start” button is operated, the control unit 20 receives the input creator information and the specified sound data. The music creator information is added to the music creator information DM, and the sound data is stored in the record area of the corresponding broadcast frame in the storage unit 22 (step S5). The sound data is stored in the storage unit 22 with information on the reproduction start time added.
[0037]
The control unit 20 stores the input handle name in the column of the manager of the broadcast frame in the broadcast management information DH. When the process of storing the received data in step S4 is completed, the control unit 20 displays a message such as “broadcast reservation is completed” on the screen of the terminal device 13, and the terminal operator receives the broadcast reservation. Notify that the process is completed (step S6). At this time, the control unit 20 transmits an e-mail describing the date and time of the reserved broadcast frame using the input e-mail address, and thereby the contents of the reservation are stored in the terminal operator (the music creator who has become the administrator). ) (Step S7). In addition, on various screens other than the main menu screen, it is possible to return to the main menu screen at any time by a predetermined operation.
[0038]
On the other hand, when “reservation to an existing broadcast frame” is selected in step S2, the control unit 20 refers to the broadcast management information DH and refers to the broadcast channel whose broadcast start time is at least one hour later than the current time. The broadcast frame is displayed on the screen of the terminal device 13 to urge the terminal operator to make a selection (step S8). Then, when any of the broadcast frames is selected, the control unit 20 refers to the storage unit 22 and causes the terminal device 13 to display the contents of the broadcast frame on the screen as shown in an example in FIG. Step S9). This figure shows a case where sound data (song A) to be reproduced from 12:00 to 12:05:00 is stored in track 1 and no sound data is stored in track 2 and thereafter. . A check box CB is displayed on the track in which the sound data is stored, and when the check box CB is checked by the terminal operator, the control unit 20 transmits the data of the track to the terminal device 13. Thereby, the terminal operator of the terminal device 13 downloads and listens to the sound data of the music piece A registered in the broadcast frame (broadcast frame of the broadcast channel 12:00:00 to 12:55:00). By playing and recording the melody corresponding to the music A, it is possible to easily create the sound data of the music B desired to be added to the music.
[0039]
Then, when the terminal operator operates the “to upload screen” button to upload the created music B, the control unit 20 advances the process to step S4 and displays the upload screen. Subsequent processing is the same as the processing already described, and a description thereof will be omitted. However, in this case, in the e-mail transmission process of step S7, in addition to the e-mail addressed to the terminal operator who uploaded the e-mail, the e-mail addressed to the manager of the broadcast frame is created and transmitted. The administrator is also notified that the data has been added. In this way, the terminal operator of each of the terminal devices 13 to 16 can upload the sound data of the tune created by the terminal operator to a broadcast frame reserved by the terminal device or a broadcast frame created by another person.
[0040]
When a plurality of sound data are stored in the selected broadcast frame in step S9, for example, a screen shown in FIG. 7 is displayed. In this figure, track 1 stores sound data (song A) to be reproduced from 12:00 to 12:05:00, and track 2 reproduces sound data from 12:00:30 to 12:05:00. This shows a case where sound data (song B) is stored, and no sound data is stored after the track 3. In this case, when any one of the check boxes CB is checked, the control unit 20 transmits the sound data of the track to the terminal device 13, and when a plurality of check boxes CB are checked, the control unit 20 specifies. The sound data of the plurality of tracks is synthesized and transmitted to the terminal device 13. Thus, the terminal operator of the terminal device 13 can view the music to be broadcast itself or only the music of any part (track).
In this way, the Web server 10 co-produces music by prompting the terminal operators of any of the terminal devices 13 to 16 to create a broadcast frame and to upload sound data to the broadcast frame. It provides a place.
[0041]
(1.2.2) Management of broadcast contents
Next, management of broadcast contents will be described. The management of the broadcast contents is a task assigned only to the manager of each broadcast frame. When the terminal operator selects the process of “management of broadcast content” on the main menu screen, the control unit 20 displays a login screen on the screen of the terminal device 13 as shown in the flowchart of FIG. Prompts the user to input a registered handle name and a mail address (step S10).
[0042]
Then, when the information is input by the terminal operator and the “login” button is operated, the control unit 20 determines the broadcast frame in which the terminal operator is an administrator based on the received input information, A search is made for a broadcast frame whose broadcast start time is 30 minutes or more after the current time (step S11). In this case, the control unit 20 determines the legitimacy of the music creator by referring to the music creator information DM to determine whether there is a music creator of the combination of the input handle name and the mail address. However, when the validity is recognized, a broadcast frame whose handle name is registered as an administrator may be searched from the broadcast management information DH. Instead of this method, only the input of the handle name may be requested, and the broadcast frame in which the handle name is registered as the administrator may be searched by referring to the broadcast management information DH.
[0043]
Next, the control unit 20 determines whether or not a broadcast frame has been extracted (step S12). If a broadcast frame has not been extracted, the fact is displayed (step S13). While the process proceeds to the menu screen display process, if a broadcast frame is extracted, the contents of the extracted broadcast frame are displayed (step S14).
[0044]
FIG. 9 is a diagram illustrating an example of the display screen in step S14. Since this display screen is almost the same as the contents of the display screens shown in FIGS. 6 and 7, different parts will be described. In this screen, in addition to the above-described check box CB for viewing and listening, a check box CB1 for instructing deletion of sound data of each track, and a correction request for each track in which sound data is stored are provided. "BS" button BS is displayed.
[0045]
In this display screen, when one of the check boxes CB1 is checked by the terminal operator, the control unit 20 performs a process of deleting the sound data of the track from the storage unit 22. In addition, when the “mail” button BS is operated by the terminal operator, the control unit 20 refers to the music creator information DM to search for the music creator's mail address of the sound data of the track. Display the mail creation screen for the song creator. Thus, the administrator can make a correction request by writing the contents of the correction request on this mail creation screen and issuing a transmission instruction. In this case, as described above, when new sound data is registered in the broadcast frame, the effect is notified to the administrator, and the corrected sound data is newly registered (uploaded). After that, the sound data before correction may be deleted.
[0046]
When the terminal operator operates the “go to main menu” button on this display screen, control unit 20 causes terminal device 13 to display the main menu screen.
[0047]
In this way, in the network collaboration system 1, up to 30 minutes before the broadcast start time, the administrator can check the contents of the broadcast frame, and can delete or modify the sound data registered in the broadcast frame. Can be done. In this embodiment, as described above, a terminal operator other than the administrator of the broadcast frame can upload sound data to the broadcast frame only one hour before the broadcast start time. For this reason, the administrator makes a correction request at least one hour before the broadcast start time.
[0048]
(1.2.3) Internet broadcasting
Next, the operation of the Web server 10 for Internet broadcasting will be described. As a premise, the control unit 20 of the Web server 10 performs a process of detecting a broadcast frame whose broadcast start time is approaching by referring to the broadcast management information DH at a predetermined cycle, and performs a broadcast whose broadcast start time is approaching. When a frame is detected, sound data of each track in the broadcast frame is synthesized to generate music data Dm for broadcast, and streaming distribution is performed when the broadcast start time comes. The sound data synthesizing process is a process of adding an output channel to the sound data of each track to make one MIDI data. Further, at the time of the synthesis processing of the sound data, the control unit 20 controls the sound data to be reproduced at the corresponding reproduction start time based on the information of the reproduction start time added to each sound data. Combine. As described above, by adding the information of the reproduction start time to each sound data, the reproduction start time of each sound data can be set arbitrarily, and a variety of co-produced songs can be produced. .
[0049]
When the terminal operator selects the process of “broadcast viewing” on the main menu screen, the control unit 20 displays a broadcast channel selection screen on the screen of the terminal device 13 as shown in the flowchart of FIG. Is prompted to select a broadcast channel (step S20). Then, when one of the broadcast channels is selected by the terminal operator, the control unit 20 displays a viewing screen on the screen of the terminal device 13 (Step S21). Further, the control unit 20 includes the terminal device 13 in the transmission destination of the music data Dm being distributed on the broadcast channel, thereby distributing the terminal device 13 as a streaming distribution destination. As a result, in the terminal device 13, the music data Dm being broadcast is reproduced, and the terminal operator (listener) can view it.
[0050]
Here, FIG. 11 is a diagram illustrating an example of the viewing screen. On this viewing screen, the creator name (handle name (“COMPOSER” in FIG. 11)) of the sound data of each track of the broadcast frame being distributed, a bar BAR indicating the playback position, and the sound data are displayed. A check box CB2 for instructing to mute the sound is displayed. This screen shows a case where sound data whose check box CB2 is checked is being reproduced. Then, when any of the check boxes CB2 is unchecked by the operation of the terminal operator, in the terminal device 13, only the reproduction of the unchecked sound data is stopped. As a result, the listener (terminal operator) can also view the music using a combination of desired sound data among the sound data of each track.
[0051]
As described above, in the network collaboration system 1 according to the present embodiment, the Web server 10 receives the reservation of the broadcast frame from the terminal devices 13 to 16 via the Internet, and transmits the sound data to each track of the broadcast frame. Providing a place for co-production of music by accepting uploads. For this reason, compared to the conventional method of exchanging music data being co-produced via a communication network, it is possible to produce co-produced music easily and in a short time.
In addition, the Web server 10 determines the manager of the broadcast frame according to a predetermined selection criterion, and deletes any sound data in the broadcast frame or transmits a correction request mail based on the instruction of the manager. The administrator can change the co-produced song composed of the generated sound data. This makes it possible to easily correct the co-produced song. As a result, the terminal operators of the terminal devices 13 to 16 can easily create the music to be broadcast jointly.
[0052]
(2) Modification
The present invention is not limited to the embodiments described above, and can be implemented in various modes. For example, the following modified embodiments are possible.
[0053]
(2.1)
In the above-described embodiment, the case where the music data of the co-produced music is distributed by streaming has been described. However, video data may be added to the music data to perform the video and audio streaming distribution. The video data to be added in this case may be data stored in the Web server 10 in advance or video data uploaded from the terminal devices 13 to 16.
[0054]
Specifically, when the Web server 10 receives the upload of the sound data from the terminal devices 13 to 16 to the broadcast frame, or separately from the upload of the sound data, the Web server 10 transmits the sound data from the terminal devices 13 to 16 to the desired broadcast frame. The upload of the video data is received, the uploaded video data is stored in an area (such as an empty track area) corresponding to the time frame of the storage unit 22, and when the time of the broadcast frame comes, the video data is also read. , May be distributed together with the music data DM. This makes it possible to easily perform comprehensive co-production of music and video. That is, the content to be distributed in the present invention is not limited to the case of only music data, but may include both music data and video data.
[0055]
(2.2)
In the above-described embodiment, the case where the upload of the sound data to the broadcast frame is accepted only one hour before the broadcast start time has been described. However, how long the upload can be performed may be arbitrarily determined. Similarly, a case has been described where a request to delete or modify sound data uploaded to the broadcast frame is accepted only 30 minutes before the broadcast start time, but it is possible to arbitrarily determine how long it can be performed.
Also, the case where the reproduction start time is input at the time of upload has been described. However, in the case where a co-produced song is produced from sound data whose reproduction is started from the start time of the broadcast frame, the reproduction start time may not be input. Good.
[0056]
(2.3)
In the above-described embodiment, the case has been described where the Web server 10 combines a plurality of sound data into one piece of music data DM and performs streaming distribution. However, the Web server 10 distributes the plurality of sound data as separate data as they are. Alternatively, the terminal devices 13 to 16 on the playback side may mix and play back. In this case, each of the sound data distributed includes information on the reproduction start time, and the terminal devices 13 to 16 recognize the reproduction start time and mix down so that each can be reproduced at the correct reproduction start time. It may be. Note that the sound data is not limited to MIDI data, and various data formats such as MSF (Music Studio File) and WAV can be applied.
[0057]
(2.4)
In the above-described embodiment, it was not possible to accept (upload, etc.) sound data over a plurality of broadcast frames to be co-produced, but the same terminal operator reserved a plurality of broadcast frames to which the broadcast time was connected. In some cases, for example, the plurality of broadcast frames may be regarded as related broadcast frames, and in the case of the related broadcast frame, sound data over the broadcast frames may be received and distributed. This makes it possible to receive long-time sound data that spans a plurality of broadcast frames.
[0058]
(2.5)
In the above-described embodiment, the case where the reproduction start time of the sound data is input as an absolute time (12:00:00) is described, but a relative time from the start time of the broadcast frame may be input. If the relative time is used, the time management of each sound data within the broadcast frame becomes easy for each terminal operator (such as an administrator). Further, the Web server 10 issues an identification information ID capable of uniquely specifying the reserved broadcast frame, and notifies the administrator or the like, and the administrator or the like uses the identification information ID to identify the broadcast frame. You may enable it to be specified.
[0059]
(2.6)
In the above-described embodiment, a case has been described in which a program for collaboration is stored in the Web server 10 in advance. However, the program is stored in a computer-readable recording medium such as a magnetic recording medium, an optical recording medium, and a semiconductor recording medium. And the computer may read the program from a recording medium and execute the program. The program may be made downloadable from a server on a network.
[0060]
【The invention's effect】
As described above, according to the present invention, it is possible to easily co-produce music and video contents by terminal operators of a plurality of terminal devices.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a network collaboration system 1 according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration of the Web server 10.
FIG. 3 is a diagram provided for describing storage contents of a storage unit 22;
FIG. 4 is a diagram illustrating broadcast management information DH.
FIG. 5 is a flowchart showing the operation of the Web server 10.
6 is a diagram showing a display screen displayed on the terminal device 13. FIG.
FIG. 7 is a diagram showing a display screen displayed on the terminal device 13;
FIG. 8 is a flowchart showing the operation of the Web server 10.
FIG. 9 is a diagram showing a display screen displayed on the terminal device 13;
FIG. 10 is a flowchart showing an operation of the Web server 10.
11 is a diagram showing a display screen displayed on the terminal device 13. FIG.
[Explanation of symbols]
1 Network collaboration system 10 Web server
11: route control device, 12: management terminal, 13 to 16: terminal device,
20 control unit, 21 to 23 storage unit, 24 input control unit,
25: output control unit, 26: input / output control unit, DM: music creator information,
DH: broadcast management information, Dm: music data.

Claims (14)

サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促すステップと、
サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促すステップと、
サーバが、入力された複数の前記音データを記憶手段の前記時間枠に対応する記憶領域に記憶するステップと、
サーバが、前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して配信するステップと
を有することを特徴とするコラボレーション方法。
A step in which the server prompts a plurality of terminal devices connected via the communication network to input a time frame in which the content is distributed;
A server prompts a plurality of terminal devices connected via a communication network to input sound data that is a part of content to be distributed in the input time frame,
A step in which the server stores the input plurality of sound data in a storage area corresponding to the time frame of the storage unit;
A server reading out a plurality of pieces of sound data stored in a storage area corresponding to the time frame from the storage means when the time of the time frame is reached, and distributing the read data.
サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促すステップと、
サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データと、前記音データの再生開始時刻の入力を促すステップと、
サーバが、入力された複数の前記音データと、前記音データの再生開始時刻を記憶手段に記憶するステップであって、前記複数の音データについては、前記記憶手段の前記時間枠に対応する記憶領域に記憶するステップと、
サーバが、前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して、各音データが各々対応する前記再生開始時刻に再生が開始されるように配信するステップと
を有することを特徴とするコラボレーション方法。
A step in which the server prompts a plurality of terminal devices connected via the communication network to input a time frame in which the content is distributed;
A server prompts a plurality of terminal devices connected via a communication network to input sound data to be a part of the content to be distributed in the input time frame and a reproduction start time of the sound data. Steps and
A server storing the input plurality of sound data and a reproduction start time of the sound data in a storage unit, and storing the plurality of sound data in the storage unit corresponding to the time frame; Storing in an area;
When the server reaches the time of the time frame, the server reads a plurality of sound data stored in the storage area corresponding to the time frame from the storage means, and the sound data is reproduced at the corresponding reproduction start time. Delivering to be initiated.
サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促すステップにおいては、
前記複数の端末装置に対して、前記記憶手段の前記時間枠に対応する記憶領域に記憶された複数の音データのいずれか1つ以上の音データの送信指示の入力を促すステップと、
入力された送信指示に基づき、前記記憶手段から、対応する音データを読み出して前記送信指示を入力した端末装置に送信するステップと
をさらに有することを特徴とする請求項1または2に記載のコラボレーション方法。
In a step in which the server prompts a plurality of terminal devices connected via a communication network to input sound data that is a part of the content to be distributed in the input time frame,
Prompting the plurality of terminal devices to input a transmission instruction for any one or more sound data of the plurality of sound data stored in the storage area corresponding to the time frame of the storage unit;
3. The collaboration according to claim 1, further comprising reading out corresponding sound data from the storage unit based on the input transmission instruction, and transmitting the read sound data to the terminal device to which the transmission instruction has been input. Method.
サーバが、予め定めた選択基準に従って、前記時間枠の管理者を決定するステップと、
サーバが、前記管理者が操作する端末装置に対して、前記管理者を識別するための識別情報の入力を促すステップと、
サーバが、入力した前記識別情報を、前記時間枠と対応づけて記憶手段に記憶するステップと、
サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、識別情報の入力を促すステップと、
サーバが、入力された識別情報が前記識別情報と一致することを条件に、前記端末装置に対して、前記記憶手段の前記時間枠に対応する記録領域に記憶された前記複数の音データの編集指示の入力を促すステップと、
サーバが、入力された前記編集指示に基づき、前記複数の音データの編集処理を行うステップと
をさらに有することを特徴とする請求項1乃至3のいずれかに記載のコラボレーション方法。
A server determining a manager of the time frame according to a predetermined selection criterion;
Server, prompting a terminal device operated by the administrator to input identification information for identifying the administrator;
A step in which the server stores the input identification information in the storage unit in association with the time frame;
A step in which the server prompts a plurality of terminal devices connected via the communication network to input identification information;
A server edits the plurality of sound data stored in a recording area corresponding to the time frame of the storage unit with respect to the terminal device on condition that the input identification information matches the identification information. Prompting for instructions;
4. The collaboration method according to claim 1, further comprising: a server performing an editing process on the plurality of sound data based on the input editing instruction.
サーバが、入力された識別情報が前記識別情報と一致することを条件に、前記端末装置に対して、前記記憶手段の前記時間枠に対応する記録領域に記憶された前記複数の音データの編集指示の入力を促すステップにおいては、
前記端末装置に対して、前記記憶手段の前記時間枠に対応する記憶領域に記憶された複数の音データのいずれか1つ以上の音データの送信指示の入力を促すステップと、
入力された送信指示に基づき、前記記憶手段から、対応する音データを読み出して前記端末装置に送信するステップと
をさらに有することを特徴とする請求項4に記載のコラボレーション方法。
A server edits the plurality of sound data stored in a recording area corresponding to the time frame of the storage unit with respect to the terminal device on condition that the input identification information matches the identification information. In the step of prompting for input of the instruction,
Prompting the terminal device to input a transmission instruction for one or more sound data of a plurality of sound data stored in a storage area corresponding to the time frame of the storage unit;
5. The collaboration method according to claim 4, further comprising: reading out corresponding sound data from the storage unit based on the input transmission instruction, and transmitting the read sound data to the terminal device.
前記予め定めた選択基準は、前記時間枠の入力を行った端末装置の操作者を、前記時間枠の管理者とすることであることを特徴とする請求項4または5に記載のコラボレーション方法。6. The collaboration method according to claim 4, wherein the predetermined selection criterion is that an operator of the terminal device that has input the time frame is a manager of the time frame. 7. 前記配信するコンテンツは、映像データを含むことを特徴とする請求項1乃至6のいずれかに記載のコラボレーション方法。The collaboration method according to claim 1, wherein the content to be distributed includes video data. サーバが、通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる映像データの入力を促すステップと、
サーバが、入力された1つまたは複数の前記映像データを前記記憶手段の前記時間枠に対応する記憶領域に記憶するステップとをさらに備え、
前記配信するステップにおいては、サーバが、前記時間枠の時刻になると、前記記憶手段から前記時間枠に対応する記憶領域に記憶された前記映像データをさらに読み出し、前記複数の音データと共に配信することを特徴とする請求項7に記載のコラボレーション方法。
A server prompts a plurality of terminal devices connected via a communication network to input video data that is a part of the content to be distributed in the input time frame,
The server further comprising: storing one or more of the input video data in a storage area corresponding to the time frame of the storage unit,
In the delivering step, when the time of the time frame is reached, the server may further read the video data stored in the storage area corresponding to the time frame from the storage unit and deliver the video data together with the plurality of sound data. The collaboration method according to claim 7, wherein:
複数の端末装置と、
前記複数の端末装置と通信ネットワークを経由して接続されるサーバとから構成され、
前記サーバは、
前記複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促す手段と、
前記複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促す手段と、
複数の音データを記憶する記憶手段と、
入力された複数の前記音データを前記記憶手段の前記時間枠に対応する記憶領域に記憶させる手段と、
前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して配信する手段とを有することを特徴とするコラボレーションシステム。
A plurality of terminal devices;
A plurality of terminal devices and a server connected via a communication network,
The server comprises:
Means for prompting the plurality of terminal devices to input a time frame for distributing content;
A means for prompting the plurality of terminal devices to input sound data that is a part of the content to be distributed in the input time frame,
Storage means for storing a plurality of sound data;
Means for storing the input plurality of sound data in a storage area corresponding to the time frame of the storage means,
Means for reading out and distributing a plurality of pieces of sound data stored in a storage area corresponding to the time frame from the storage means at the time of the time frame.
複数の端末装置と、
前記複数の端末装置と通信ネットワークを経由して接続されるサーバとから構成され、
前記サーバは、
前記複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促す手段と、
前記複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データと、前記音データの再生開始時刻の入力を促す手段と、
複数の音データと、前記音データの再生開始時刻を記憶する記憶手段と、
入力された複数の前記音データと、前記音データの再生開始時刻を記憶手段に記憶させる手段であって、前記複数の音データについては、前記記憶手段の前記時間枠に対応する記憶領域に記憶させる手段と、
前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して、各音データが各々対応する前記再生開始時刻に再生が開始されるように配信する手段とを有することを特徴とするコラボレーションシステム。
A plurality of terminal devices;
A plurality of terminal devices and a server connected via a communication network,
The server comprises:
Means for prompting the plurality of terminal devices to input a time frame for distributing content;
For the plurality of terminal devices, sound data to be a part of the content to be distributed in the input time frame, and means for prompting the input of the reproduction start time of the sound data,
A plurality of sound data, storage means for storing a reproduction start time of the sound data,
A means for storing a plurality of input sound data and a reproduction start time of the sound data in a storage means, wherein the plurality of sound data are stored in a storage area corresponding to the time frame of the storage means. Means to cause
At the time of the time frame, a plurality of sound data stored in a storage area corresponding to the time frame is read from the storage unit, and reproduction is started at the reproduction start time corresponding to each sound data. And a means for distributing.
通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促す手段と、
通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促す手段と、
複数の音データを記憶する記憶手段と、
入力された複数の前記音データを前記記憶手段の前記時間枠に対応する記憶領域に記憶させる手段と、
前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して配信する手段と
を有することを特徴とするサーバ。
Means for prompting a plurality of terminal devices connected via a communication network to input a time frame for distributing content;
Means for prompting a plurality of terminal devices connected via a communication network to input sound data that is a part of the content to be distributed in the input time frame;
Storage means for storing a plurality of sound data;
Means for storing the input plurality of sound data in a storage area corresponding to the time frame of the storage means,
Means for reading out and distributing a plurality of sound data stored in a storage area corresponding to the time frame from the storage means at the time of the time frame.
通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促す手段と、
通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データと、前記音データの再生開始時刻の入力を促す手段と、
複数の音データと、前記音データの再生開始時刻を記憶する記憶手段と、
入力された複数の前記音データと、前記音データの再生開始時刻を記憶手段に記憶させる手段であって、前記複数の音データについては、前記記憶手段の前記時間枠に対応する記憶領域に記憶させる手段と、
前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して、各音データが各々対応する前記再生開始時刻に再生が開始されるように配信する手段と
を有することを特徴とするサーバ。
Means for prompting a plurality of terminal devices connected via a communication network to input a time frame for distributing content;
For a plurality of terminal devices connected via a communication network, sound data to be a part of the content to be distributed in the input time frame, and means for prompting the input of the reproduction start time of the sound data,
A plurality of sound data, storage means for storing a reproduction start time of the sound data,
A means for storing a plurality of input sound data and a reproduction start time of the sound data in a storage means, wherein the plurality of sound data are stored in a storage area corresponding to the time frame of the storage means. Means to cause
At the time of the time frame, a plurality of sound data stored in a storage area corresponding to the time frame is read from the storage unit, and reproduction is started at the reproduction start time corresponding to each sound data. And a means for distributing data as described above.
コンピュータに、通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促すステップと、
通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データの入力を促すステップと、
入力された複数の前記音データを記憶手段の前記時間枠に対応する記憶領域に記憶するステップと、
前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して配信するステップとを実行させるためのプログラム。
Prompting the computer to input a time frame for distributing the content to a plurality of terminal devices connected via the communication network;
Prompting a plurality of terminal devices connected via a communication network to input sound data that is a part of content to be distributed in the input time frame;
Storing the input plurality of sound data in a storage area corresponding to the time frame of storage means;
Reading out a plurality of sound data stored in a storage area corresponding to the time frame from the storage means at the time of the time frame and delivering the data.
コンピュータに、通信ネットワークを経由して接続された複数の端末装置に対して、コンテンツの配信を行う時間枠の入力を促すステップと、
通信ネットワークを経由して接続された複数の端末装置に対して、入力された前記時間枠に配信するコンテンツの一部となる音データと、前記音データの再生開始時刻の入力を促すステップと、
入力された複数の前記音データと、前記音データの再生開始時刻を記憶手段に記憶するステップであって、前記複数の音データについては、前記記憶手段の前記時間枠に対応する記憶領域に記憶するステップと、
前記時間枠の時刻になると、前記記憶手段から、前記時間枠に対応する記憶領域に記憶された複数の音データを読み出して、各音データが各々対応する前記再生開始時刻に再生が開始されるように配信するステップとを実行させるためのプログラム。
Prompting the computer to input a time frame for distributing the content to a plurality of terminal devices connected via the communication network;
For a plurality of terminal devices connected via a communication network, sound data to be a part of the content to be distributed in the input time frame, a step of prompting the input of the reproduction start time of the sound data,
Storing the input plurality of sound data and the reproduction start time of the sound data in a storage unit, and storing the plurality of sound data in a storage area corresponding to the time frame of the storage unit; Steps to
At the time of the time frame, a plurality of sound data stored in a storage area corresponding to the time frame is read from the storage unit, and reproduction is started at the reproduction start time corresponding to each sound data. So that the steps to distribute and execute the program.
JP2002201407A 2002-07-10 2002-07-10 Collaboration method, collaboration system, server and program Expired - Fee Related JP4042484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002201407A JP4042484B2 (en) 2002-07-10 2002-07-10 Collaboration method, collaboration system, server and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002201407A JP4042484B2 (en) 2002-07-10 2002-07-10 Collaboration method, collaboration system, server and program

Publications (2)

Publication Number Publication Date
JP2004045624A true JP2004045624A (en) 2004-02-12
JP4042484B2 JP4042484B2 (en) 2008-02-06

Family

ID=31707954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002201407A Expired - Fee Related JP4042484B2 (en) 2002-07-10 2002-07-10 Collaboration method, collaboration system, server and program

Country Status (1)

Country Link
JP (1) JP4042484B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008069037A1 (en) * 2006-12-01 2008-06-12 Megachips Corporation Content base and communication system
JP2010014823A (en) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> Musical piece information control device
JP2012073379A (en) * 2010-09-28 2012-04-12 Xing Inc Video information distribution system
WO2014136206A1 (en) * 2013-03-05 2014-09-12 パイオニア株式会社 Musical-performance-data correction device, musical-performance-data correction method, audio recording/playback device, computer program, and recording medium
JP2015084116A (en) * 2014-12-24 2015-04-30 日本電信電話株式会社 Online karaoke system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008069037A1 (en) * 2006-12-01 2008-06-12 Megachips Corporation Content base and communication system
JP2008139560A (en) * 2006-12-01 2008-06-19 Mega Chips Corp Content base and communications system
JP2010014823A (en) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> Musical piece information control device
JP2012073379A (en) * 2010-09-28 2012-04-12 Xing Inc Video information distribution system
WO2014136206A1 (en) * 2013-03-05 2014-09-12 パイオニア株式会社 Musical-performance-data correction device, musical-performance-data correction method, audio recording/playback device, computer program, and recording medium
JPWO2014136206A1 (en) * 2013-03-05 2017-02-09 パイオニア株式会社 Performance data correction device, performance data correction method, recording / playback device, computer program, and recording medium
JP2015084116A (en) * 2014-12-24 2015-04-30 日本電信電話株式会社 Online karaoke system

Also Published As

Publication number Publication date
JP4042484B2 (en) 2008-02-06

Similar Documents

Publication Publication Date Title
JP4162181B2 (en) Program creation / playback apparatus, program creation / playback method, and storage medium
JP2003076380A (en) Method of displaying videos of users&#39; own making as karaoke sing-along background videos with karaoke sing- along machines scattered in various places
JP2008160337A (en) Content-linked information indicator and indicating method
KR100803580B1 (en) Electronic music distribution service system and method using synchronous multimedia integration language format
JP4932119B2 (en) Data stream adaptation server
JP2010014823A (en) Musical piece information control device
JP2010146661A (en) Terminal device and content data processing method
JP4042484B2 (en) Collaboration method, collaboration system, server and program
JP2002335507A (en) Server equipment for program supplier and client equipment and method for reproduction
JP2003255956A (en) Music providing method and its system, and music production system
JP2003316367A (en) Contents recording and reproducing device
JP2003189276A (en) System for distributing streaming information capable of halfway reproduction
JP2003255933A (en) Collaboration music composing method of terminal device, music data transmitting method of server, terminal device, server, collaboration program, and recording medium
JP4356639B2 (en) Program creation / playback apparatus, program creation / playback method, and storage medium
JP5416953B2 (en) Electronics
GB2362487A (en) Program Reproduction System with Content-Related Information.
JP3535489B2 (en) Synchronous multimedia presentation editing method, editing program, editing server, and recording medium on which editing program is recorded
JP4661219B2 (en) CONTENT DISTRIBUTION DEVICE, CONTENT DISTRIBUTION METHOD, CONTENT DISTRIBUTION PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
JP4266151B2 (en) Distribution system, audio device, and continuous playback method
JP5320790B2 (en) Content distribution apparatus and program
JP5153521B2 (en) Data distribution device and data distribution program
JP2009017417A (en) Server, program and system for content distribution
JP2004112086A (en) Method and apparatus for accessing, and streaming media storage server
JP4151548B2 (en) Karaoke equipment
JP2004191515A (en) Contents distribution system, and equipment and method for contents reproduction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071105

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131122

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees