JP3812437B2 - System and program for providing music media composed of auto verbs and compositions via communication network - Google Patents
System and program for providing music media composed of auto verbs and compositions via communication network Download PDFInfo
- Publication number
- JP3812437B2 JP3812437B2 JP2001391244A JP2001391244A JP3812437B2 JP 3812437 B2 JP3812437 B2 JP 3812437B2 JP 2001391244 A JP2001391244 A JP 2001391244A JP 2001391244 A JP2001391244 A JP 2001391244A JP 3812437 B2 JP3812437 B2 JP 3812437B2
- Authority
- JP
- Japan
- Prior art keywords
- lyrics
- music
- client
- data
- melody
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、インターネット等の有線もしくは無線の通信ネットワークを利用してクライアントの希望に応じた自動作詞・作曲を行い、この自動作詞・作曲で生成した歌詞情報及び曲情報をCD等の物理的記憶媒体に記録して、該クライアントに提供できるようにしたシステム及びプログラムに関する。
【0002】
【従来の技術】
コンピュータ等を用いた自動作曲の分野において、ユーザが入力した所望の作曲パラメータに基づいて自動的に作曲を行う自動作曲装置若しくは自動作曲用プログラムが公知である。また、ユーザが所望の作詞パラメータを設定・入力することで、その設定・入力に基づいて自動的に作詞を行う自動作詞又は作詞支援装置若しくはプログラムも公知である。このような自動作曲装置等を使用すれば、専門の音楽的技術及び知識を有さずとも簡単に作曲・作詞を行えるので、特にアマチュア音楽家にとって大変便利であるが、専用の装置又はプログラムを購入しなければならない、という不利がある。一方、このような自動作曲装置等を用いてユーザ自らが作詞・作曲した楽曲をCD(コンパクトディスク)等の物理的記憶媒体に記録することで、オリジナルCDを作成し、アマチュア音楽ライフを楽しむことが可能である。しかし、その場合CDライタ等の専用の書き込み装置が別途必要であったため、誰でもが気軽にできるわけではなかった。すなわち、仮に自動作曲装置及び作詞支援装置等を所有していて簡単に自作楽曲の作成を行えたとしても、CD等の物理的記憶媒体に収録することが叶わなぬユーザにとっては、簡易な作曲の楽しみも低減してしまう。要するに、自動作曲装置や作詞支援装置等にて行う簡易な自作楽曲の生成というのは娯楽的側面の強いものであるから、専用の装置を多数取り揃えることなしに、より手軽に誰にでも実施できる方が好ましい。
【0003】
【発明の解決しようとする課題】
この発明は上述の点に鑑みてなされたもので、誰でも手軽に作詞作曲を行うことができ、更に、作成した楽曲が収録された例えばCD等の物理的記憶媒体の作成を簡易に行うことができるようにしようとするものである。
【0004】
【課題を解決する手段】
本発明に係る通信ネットワークを介して自動作詞・作曲された音楽媒体を提供するシステムは、通信ネットワークを介してクライアントに接続されるサーバ装置からなり、該サーバ装置が、前記通信ネットワークを介して前記クライアントから作詞パラメータを受信し、該受信した作詞パラメータに基づき自動作詞する自動作詞手段と、前記通信ネットワークを介して前記クライアントから作曲パラメータを受信し、該受信した作曲パラメータに基づき自動作曲する自動作曲手段と、前記自動作詞手段及び前記自動作曲手段で生成した歌詞情報及び曲情報を、前記クライアントに固有の創作楽曲のファイルとして物理的記録媒体に記録する手段と、前記クライアントから前記創作楽曲のファイルを記録した前記物理的記録媒体の配送先の指定を受け付ける手段と、を具備することを特徴とする。
【0005】
本発明によれば、ユーザ(クライアント)は、該サーバにアクセスし所望の作詞及び作曲パラメータを設定・入力するだけでよい。後はサーバ装置で、自動作詞及び自動作曲を行い、生成した歌詞情報及び曲情報を、該ユーザ(クライアント)に固有の創作楽曲のファイルとして物理的記録媒体(例えばCD等)に記録し、該ユーザ(クライアント)から該創作楽曲のファイルを記録した該物理的記録媒体の配送先の指定を受け付ける。このようにして作成された該ユーザに固有の創作楽曲を記録した記録媒体は、郵送或いは宅配便等適宜の手段でユーザに渡される。従って各ユーザ(クライアント)では、自動作曲装置若しくは自動作曲用プログラム、及び自動作詞又は作詞支援装置若しくはプログラム、及びCDライタ等の専用の書き込み装置を所持することなく、手軽に作詞作曲を行うことができ、更に、作成した楽曲が収録された例えばCD等の物理的記録媒体の作成を簡易に行うことができるようになる。
【0006】
本発明は、装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することもできるし、また、コンピュータプログラム又はDSP等のプロセッサのプログラムの形態で実施することもでき、更にはそのようなプログラムを記憶したプログラム記憶媒体の形態で実施することもできる。
【0007】
【発明の実施形態】
以下、添付図面を参照して本発明の一実施例について説明する。
本発明に係るサーバ装置は通信ネットワークに接続され、複数のクライアント端末(ユーザ)が該通信ネットワークを介して該サーバ装置にアクセス可能である。このサーバ装置は、作詞エンジン(自動作詞手段又は自動作詞プログラム)と作曲エンジン(自動作曲手段又は自動作曲プログラム)を具備している。該サーバ装置と接続したクライアント端末において、ユーザが所望の歌詞生成データ(作詞パラメータ)及び曲生成データ(作曲パラメータ)を入力することで、この入力に基づいてサーバ装置にて作詞エンジンと作曲エンジンとにより自動的に作詞及び作曲が行われる。サーバ装置としては、サーバ用の高性能コンピュータを使用することができ、また、作詞エンジン及び作曲エンジンで生成した歌詞情報及び曲情報を1つの曲のファイルとして所定の物理的記憶媒体(例えばCD)に記録する書き込み手段(例えばCDライタ)を備える。一方、クライアント端末としては、パーソナルコンピュータあるいはその他任意の通信端末を用いてよく、少なくともサーバ装置と双方向的通信を行うことができ且つ音声情報(楽曲等を含む何らかの音の情報)を送受信できさえすればどのようなものであってもよく、例えば携帯電話等でもよい。
【0008】
まず、本実施例に係るサーバ装置又はクライアント端末として使用可能なコンピュータ10を含むシステムのハード構成例について図1を参照して説明する。図において、コンピュータ10は、マイクロプロセッサユニット(CPU)1、リードオンリーメモリ(ROM)2、ランダムアクセスメモリ(RAM)3を含む。CPU1はコンピュータ10全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介して、ROM2、RAM3、A/D変換回路4、検出回路5、表示回路6、音源回路7、効果回路7A、外部記憶装置8、MIDIインターフェース9及び通信インターフェース11が接続されている。更に、CPU1には、タイマ割り込み処理(インタラプト処理)における割り込み時間や各種時間を計時するタイマ1Aが接続されている。
【0009】
ROM2はCPU1により実行あるいは参照される各種プログラムや各種データ等を格納するものである。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは実行中のプログラムやそれに関連するデータを一時的に記憶するメモリ等として使用されるものである。A/D変換回路4にはマイクロフォン4Aが接続されている。クライアント端末においては、ユーザは該マイクロフォン4Aを介して歌唱音声を入力できる。そうすれば、後述するように、自動作詞した歌詞の歌唱音声信号をユーザの生音声で入力することができる。サーバ装置においては、こうしたA/D変換回路4及びマイクロフォン4Aは不要である。検出回路5には、マウス、テンキー、キーボード等を含む入力操作子5Aが接続されている。クライアント端末においては、ユーザ所望の歌詞パラメータ及び作曲パラメータの設定入力は入力操作子5Aで行う。表示回路6はCPU1の制御に従って各種情報をディスプレイ6Aに表示させるものである。ディスプレイ6Aは液晶表示パネル(LCD)やCRT等から構成される。
【0010】
音源回路7は、データ及びアドレスバス1Dを経由して与えられる楽音データに基づいて複数チャンネルで楽音信号を発生可能である。音源回路7から発生させられた楽音信号は、効果回路7Aで所定の効果を付与された後、アンプやスピーカなどを含むサウンドシステム7Bから発音される。音源回路7における楽音信号発生方式は、波形メモリ、FM、物理モデル、高調波合成、フォルマント合成、アナログシンセサイザ方式、アナログシンセサイザシミュレイション等の従来から知られるいかなる方式を用いてもよく、また専用のハードウェアを用いて構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。なお、音源回路7は、サーバ装置においては必須であるが、クライアント端末においては具備していなくてもよい。音源回路7は、演奏データに基づく楽器音の楽音信号を発生する機能(以下、「楽器音音源」という)を少なくとも有する。なお、後述するように、自動作詞した歌詞の歌唱音声信号をサーバ装置の側で自動生成する場合は、サーバ装置の音源回路7は、演奏データ及び歌詞データに基づく歌唱音声の楽音信号を発生する機能(以下、「歌唱音源」という)を更に有するものとする。
【0011】
MIDIインターフェース(MIDI I/F)9は、外部に対するMIDI規格の演奏データの入出力を行うもので、これを介して外部のMIDI機器12と接続する。コンピュータ10(サーバ装置又はクライアント端末)は通信インターフェース11を介して通信ネットワークXに接続され、他のコンピュータ13(例えばクライアント端末に対するサーバ装置、又はサーバ装置に対するクライアント端末)との間で通信し、各種情報の送受信を行う。
【0012】
外部記憶装置8は、ハードディスク(HDD)、フレキシブルディスク又はフロッピー(登録商標)ディスク(FDD)、コンパクトディスク(CD−ROM)、磁気ディスク(MO)、DVD(Digital Versatile Diskの略)、磁気メモリ等の何れか1又は複数であってよい。サーバ装置においては、外部記憶装置8として、少なくとも、作詞エンジン及び作曲エンジンで生成した情報を1つの曲のファイルとして着脱式の物理的記憶媒体に記録する書き込み装置(例えばCDライター、DVDライター等)を含む。
【0013】
次に、この実施例に従う自動作曲からCD作成までの動作手順の一例を図2及び図3のフローチャートに沿って説明する。図2及び図3において、左側のフロー(S1〜S12)に或るクライアント端末側の動作手順例を示し、右側のフロー(S13〜S21)にサーバ装置の側の動作手順例を示す。なお、図示の都合上図2と図3に分けてフローチャートが描かれているが、夫々のA部同士及びB部同士が接続される一つのフローからなる。当該動作開始にあたってクライアント端末は、通信ネットワークを介してURLなどのアドレス入力に従って該サーバ装置にアクセスし、該サーバ装置(以下、単にサーバという)に接続する。サーバは、クライアント端末に対して所定の初期画面を送信し、クライアント端末のディスプレイ6Aに表示させる。なお、後述するように、所定のユーザ登録手続きを済ませたユーザに対して識別情報(ユーザID)を付与し、このユーザIDを確認した上でこのサーバのサイトを利用許可するようにする場合は、この初期画面においてユーザIDを入力させるものとし、ID照合によって利用許可されたユーザのクライアント端末との間で以下の処理が行われる。
【0014】
クライアント側のステップS1では、クライアント端末において所望の作詞パラメータを設定・入力し、通信ネットワークを介してサーバへ送信する。この作詞パラメータ(すなわち歌詞生成用データ)としては、例えば文章断片や単語等(具体的な例としては「出会い」、「橋の上」等々といった単語等)を任意に設定・入力してよい。サーバ側のステップS13では、送信された作詞パラメータを通信ネットワークを介して受信し、作詞エンジンにて該受信した作詞パラメータに基づき自動作詞する。この作詞エンジンとしては公知又は未公開の適宜のものを用いてよいため、その具体的説明は省略する。ステップS14では、前記作詞エンジンにて生成した歌詞をテキストデータの形式でクライアント端末に送信して、ユーザに自動作詞した歌詞を確認させる。クライアント側のステップS2では、クライアント端末においてサーバから前記歌詞テキストデータを受信して、ディスプレイ6Aにて該歌詞テキストデータに基づく歌詞を表示する。次のステップS3では表示された歌詞でよいかどうかの確認を行う。ユーザは、生成された歌詞に不満があれば(ステップS3の「NO」)、ステップS1に戻り、再度作詞パラメータの設定・入力(曲全体又は一部分)を行い、サーバにて上記ステップS13,S14を再度行わせる。ユーザは、満足行く結果が得られるまでこうした作詞パラメータの変更を繰り返してサーバに自動作詞処理を何度も行わせることができる。なお、本実施例において作詞パラメータの設定(及び変更)とは、パラメータの設定のみならず、直接的な歌詞文字入力を含んでいてよい。すなわち、実際にユーザ自らが作詞を行いこれを入力すること、あるいはユーザ自らがサーバにて生成された歌詞に対して字句の変更修正、付け足し、削除等を行うことを含んでいてよい。
【0015】
かくして歌詞生成が完成すると(ステップS3の「YES」)、次にクライアント側のステップS4では、クライアント端末は、作曲パラメータ(すなわち曲生成用データ)を設定・入力して、これをサーバに送信する。ユーザは、この作曲パラメータとして、例えばリズムのスタイル、シンコペーションの有無、ピッチダイナミクス等の各種の音楽条件を適宜設定・入力する。サーバ側のステップS15では、クライアント端末から送信された作曲パラメータを受信し、作曲エンジンにて該受信した作曲パラメータに基づき、メロディと伴奏の演奏データを生成(自動作曲)する。この作曲エンジンとしては公知又は未公開の適宜のものを用いてよいため、その具体的説明は省略する。ステップS16では、生成した楽曲(メロディと伴奏)の演奏データをクライアント端末に送信する。この時、サーバから出力する楽曲演奏データの形式は、オーディオデータ若しくはMIDIデータの何れであってもよく、MIDIデータの場合、送受信するデータ量は少なくなるが、クライアント端末側にMIDI音源を備える必要がある。また、オーディオデータを送受信するにあたっては、MP3方式等任意のデータ圧縮形式でデータ圧縮したオーディオデータを送受信するようにするとよい。クライアント端末のステップS5では、クライアント端末において、サーバから前記楽曲演奏データを受信し、受信した楽曲演奏データに基づき、自動作曲された楽曲の再生・発音を行う。次のステップS6では、ユーザは再生された楽曲を聴いて、これでよいかどうかの確認を行う。ユーザは、自動作曲された楽曲に不満があれば(ステップS6の「NO」)、ステップS4に戻り、再度作曲パラメータの設定・入力(曲全体又は一部分)を行い、サーバにて上記ステップS15,S16を再度行わせる。ユーザは、満足行く結果が得られるまでこうした作曲パラメータの変更を繰り返してサーバに自動作曲処理を何度も行わせることができる。なお、本実施例において作曲パラメータの設定(及び変更)とは、直接的な音符情報等の入力を含んでいてよい。すなわち、ユーザ自らが部分的に音高、音長、強弱等を修正することを含んでいてよい。ユーザが自動作曲された楽曲に満足した場合はステップS6の「YES」から図3のステップS7に進む。勿論、生成完了した楽曲(メロディと伴奏)の演奏データ及び歌詞テキストデータはサーバにて一時保存されており、後述するように、CD等の記録媒体に書き込むことができる。
【0016】
なお、図2では、ステップS1〜S3、S13〜S14の処理を先に実行して自動作詞を行った後に、ステップS4〜S6、S15〜S16の処理を実行して自動作曲するようになっているが、この順番はどちらからであってもよく、ユーザが任意に選択できるようにしてもよい。
また、上述の自動作詞・自動作曲の過程において決定される歌詞の音節数とメロディの音符数とは、略々合致していることが好ましいので、歌詞を先に生成した場合は、生成された歌詞の音節数を作曲エンジンに供給し、これをメロディの音符数として作曲パラメータに自動的に含めて自動作曲処理がなされるようにするとよい。逆に、メロディを先に生成した場合は、生成したメロディの音符数を作詞エンジンに供給し、これを歌詞の音節数として作詞パラメータに自動的に含めて自動作詞処理がなされるようにするとよい。勿論、これに限らず歌詞の音節数とメロディの音符数を別々に設定・入力しておいて、後で数合わせして調整するようにしてもよい。
【0017】
図3において、クライアント端末のステップS7では、生成された楽曲(歌詞、メロディ、伴奏)を物理的記録媒体に記録する際の記録形式設定画面がクライアント端末にて表示され、ユーザに所望の記録形式を選択するように促す。この記録形式設定画面の一表示例を図4に示す。図4において、メロディの記録形式として、大別してオーディオデータ形式による記録とMIDIデータ形式による記録とが表示され、ユーザに何れか一方を選択するように促す。ユーザは、マウスクリック等で、何れか一方の形式を選択する。更に、オーディオデータ形式とMIDIデータ形式の双方において、メロディの音源として、(1)「楽器音」、(2)「自分の歌」、(3)「機械に歌わせる」、の3通りの音源が表示され、ユーザは所望の音源に対応するラジオボタンをクリックすることで音源の選択を行う。
【0018】
オーディオデータ形式で「楽器音」を選択することは、上記生成された楽曲のメロディを適宜の楽器音の音色で演奏したオーディオデータで記録媒体に記録させることを意味する。オーディオデータ形式で「自分の歌」を選択することは、上記生成された楽曲のメロディをユーザ自身の歌詞歌唱音声のオーディオデータで記録媒体に記録させることを意味する。オーディオデータ形式で「機械に歌わせる」を選択することは、上記生成された楽曲のメロディを機械で合成した歌詞歌唱音声のオーディオデータで記録媒体に記録させることを意味する。
MIDIデータ形式で「楽器音」を選択することは、上記生成された楽曲のメロディを適宜の楽器音の音色のMIDIデータで記録媒体に記録させることを意味する。MIDIデータ形式で「自分の歌」を選択することは、上記生成された楽曲のメロディをユーザ自身の歌詞歌唱音声のオーディオデータで記録媒体に記録させることを意味する。MIDIデータ形式で「機械に歌わせる」を選択することは、上記生成された楽曲のメロディを歌詞歌唱音声合成用のMIDIデータで記録媒体に記録させることを意味する。
【0019】
図4の例では、選択されたラジオボタンが中黒丸でマークされており、オーディオデータ形式で、「自分の歌」をメロディ音源として使用するように記録形式が設定されている。図4の設定画面下方に表示されたチェックボックス「歌詞データつき」は、楽曲データのファイルに歌詞テキストデータを付加するか否かをマウスクリック等でオン/オフ選択するものであり、図4の例では、歌詞テキストデータを付加するように設定されている。なお、上記生成された楽曲の伴奏については、オーディオデータ形式が選択された場合はオーディオデータ信号で記録され、MIDIデータ形式が選択された場合はMIDIデータ信号で記録される。
【0020】
図3のフローに戻って、クライアント側のステップS8では、上記のようにユーザが選択した記録形式を示す設定情報をサーバに対して送信する。サーバ側のステップS17ではクライアント端末から送信された設定情報を受信する。一方、クライアント端末側のステップS9では、ユーザの選択した記録用メロディの音源が「自分の歌」かどうかの確認を行い、「自分の歌」が選択されている場合はステップS9の「YES」から次のステップS10に進む。ステップS10では、クライアント端末のディスプレイ6A上に上記生成した歌詞テキストを表示し且つ上記生成された楽曲の再生・発音を行い、ユーザがこれを視聴しつつマイクロフォン4Aを介して該楽曲のメロディをユーザ自身の歌詞歌唱音声で入力することで、該入力された歌詞歌唱音声に基づく歌唱音声信号をクライアント端末において一旦記録する。勿論、歌詞歌唱音声を発声するユーザは、作詞及び作曲パラメータを入力したユーザと必ずしも同一人である必要はなく、例えば歌の上手な人に替わりに歌ってもらってもよい。同様に、作詞及び作曲パラメータを入力、修正するユーザは必ずしも同一人である必要はなく、複数人で手分けして行ってもよい。次にステップS11では、記録した歌唱音声信号(オーディオ信号)をサーバに対して送信する。その後ステップS12に進む。クライアント端末からサーバへ歌唱音声信号を送信する転送形式としては、クライアント端末内にて一旦全部記録した後にオーディオファイルとしてまとめて転送されるものでもよいし、少しづつストリーム転送される形式であってもよい。
一方、メロディの音源として「楽器音」あるいは「機械に歌わせる」が選択されている場合は、ステップS9の「NO」からステップS12にジャンプする。なお、メロディの音源として「楽器音」あるいは「機械に歌わせる」が選択されている場合は、ユーザによる所望の音色設定等を受け付けて、サーバに送信するる処理等がなされてよいが、図3では便宜上これらを省略する。
【0021】
一方、サーバ側のステップS18では、ステップS17で受信した記録形式設定情報に基づきユーザによって選択したメロディの音源が「自分の歌」かどうかの確認を行う。「自分の歌」が選択されている場合はステップS18のYESから次のステップS19に進み、クライアント側の前記ステップS11の処理によりクライアント端末から送信された歌唱音声信号を受信し、受信した歌唱音声信号を一時保存する。その後ステップS20に進む。一方、メロディの音源として「楽器音」あるいは「機械に歌わせる」が選択されている場合は、ステップS18のNOからステップS20にジャンプする。
【0022】
サーバ側のステップS20では、前記ステップS17で受信した記録形式設定情報に基づく記録形式で、サーバにて一時保存されている前記生成完了した楽曲(メロディと伴奏)の演奏データ及び歌詞テキストデータに基づく曲情報及び歌詞情報を、当該ユーザ(クライアント)に固有の創作楽曲のファイルとしてCD等の物理的記憶媒体に記録する。記録形式としてオーディオデータ形式が選択された場合においてサーバ側のステップS20で行われる処理の概要を機能ブロック図で示すと図5のようである。一方、記録形式としてMIDIデータ形式が選択された場合においてサーバ側のステップS20で行われる処理の概要を機能ブロック図で示すと図6のようである。
【0023】
先ず、図5を参照して「自分の歌」をメロディ音源として使用する場合の処理について説明する。ブロック20は自動作曲エンジン(図2のステップS15に相当)を示し、ブロック22は該作曲エンジンで自動作曲された楽曲のMIDIメロディデータを示し、ブロック23は該作曲エンジンで自動作曲された楽曲のMIDI伴奏データを示す。ブロック30は、MIDI伴奏データに基づき伴奏再生処理を行うMIDI音源を示し、上記生成された楽曲の伴奏のオーディオ信号を発生する。ブロック27は図3のステップS19で保存した歌唱音声信号を示し、これが上記生成された楽曲のメロディを歌唱音声で表現したオーディオ信号に相当する。「自分の歌」をメロディ音源として使用する場合は、セレクタ(ブロック31)でブロック27からの歌唱音声信号を選択し、これとブロック30で再生された伴奏のオーディオ信号とをミキサー(ブロック32)においてミキシングする。このミキシングは、メロディの歌唱音声信号と伴奏のオーディオ信号とを同期させて行う。こうして、自動作曲した楽曲のメロディを自動作詞した歌詞の歌唱音声で演奏し、且つ該自動作曲した楽曲の伴奏を楽器音で演奏してなるオーディオファイルが作成される(ブロック34)。
ブロック21は自動作詞エンジン(図2のステップS13に相当)を示し、ブロック24は該作詞エンジンで自動作詞された歌詞のテキストデータ(電子的ディジタルテキストデータ)を示す。図4の記録形式設定画面にて「歌詞データつき」コマンドボタンがオンされた時は、ブロック33のセレクタでこの歌詞テキストデータを選択し、ブロック34で上記自動作曲した楽曲のオーディオファイルを作成する際に該オーディオファイルに添付する。このようにして、作成したオーディオファイルをCDライタ等の書き込み装置にてCD等の物理的記録媒体に書き込み(ブロック35)、ユーザの作成した楽曲の歌詞情報及び曲情報を記録した記録媒体を作成する(ブロック36)。このようにCD等の記録媒体に記録する歌詞情報は、歌詞歌唱音声という形態で曲情報の一部(メロディ)と結合した情報からなっていてもよいし、あるいは、電子的ディジタルテキストデータの形態からなっていてもよいし、さらには、特に図示しないが紙媒体に印刷した可視的文字形態からなっていてもよい。
【0024】
次にメロディの音源として「楽器音」を使用する場合について説明する。ブロック25はメロディ音源として使用する楽器音の音色を設定する処理を示し、この音色設定は前述のようにユーザが任意に行えるようにしてもよいし、あるいはサーバで所定音色に設定するようにしてもよい。ブロック28は、自動作曲された楽曲のMIDIメロディデータ(ブロック22)とブロック25で設定された音色に基づきメロディ再生処理を行うMIDI音源を示し、該楽曲のメロディのオーディオ信号を該設定された楽器音色で発生する。「楽器音」をメロディ音源として使用する場合は、セレクタ(ブロック31)でブロック28からの楽器音色のメロディのオーディオ信号を選択し、これとブロック30で再生された伴奏のオーディオ信号とをミキサー(ブロック32)においてミキシングする。このミキシングは、メロディのオーディオ信号と伴奏のオーディオ信号とを同期させて行う。こうして、自動作曲した楽曲のメロディと伴奏を夫々所定の楽器音で演奏してなるオーディオファイルが作成される(ブロック34)。このオーディオファイルに対する歌詞テキストデータの付加は前述と同様に選択的になされる。この作成されたオーディオファイルは前述と同様にCD等の記憶媒体に書き込まれる。
【0025】
次に、メロディの音源として「機械に歌わせる」を使用する場合について説明する。ブロック26はメロディ音源として使用する合成歌唱音声の音色を設定する処理を示し、この音色設定は前述のようにユーザが任意に行えるようにしてもよいし、あるいはサーバで所定音色に設定するようにしてもよい。この歌唱音色としては、例えば男声、女声、テナー、バリトン、ソプラノ、アルト等の歌声声質が設定される。ブロック29は、自動作曲された楽曲のMIDIメロディデータ(ブロック22)と、ブロック26で設定された歌唱音色と、自動作詞された歌詞のテキストデータ(ブロック24)とに基づき、メロディ歌唱音声合成処理を行うMIDI音源を示し、該楽曲のメロディ歌唱音声のオーディオ信号を発生する。すなわち、自動作詞された歌詞の歌を、自動作曲された楽曲のメロディで、機械に歌わせた合成歌唱音声のオーディオ信号が発生される。この場合は、セレクタ(ブロック31)でブロック29からの合成歌唱音声のメロディのオーディオ信号を選択し、これとブロック30で再生された伴奏のオーディオ信号とをミキサー(ブロック32)においてミキシングする。このミキシングは、メロディのオーディオ信号と伴奏のオーディオ信号とを同期させて行う。こうして、自動作曲した楽曲のメロディを合成歌唱音声で演奏し、その伴奏を所定の楽器音で演奏してなるオーディオファイルが作成される(ブロック34)。このオーディオファイルに対する歌詞テキストデータの付加は前述と同様に選択的になされる。この作成されたオーディオファイルは前述と同様にCD等の記憶媒体に書き込まれる。
【0026】
次に、記録形式としてMIDIデータ形式が選択された場合について、図6を参照して説明する。なお、図5を参照して上述したオーディオデータ形式の場合と重複するものは上記を援用し説明を省略する。この場合は、MIDIデータの形式でファイルを生成するため、MIDI伴奏データとMIDIメロディデータをオーディオデータに変換する必要がないので、図5のブロック28,29,30のようなMIDI音源及びブロック32のミキサーは不要である。
【0027】
まず、メロディの音源として「自分の歌」を使用する場合について説明すると、クライアントから送信されたオーディオデータ形式の歌唱音声信号(ブロック27)がセレクタ(ブロック38)を介して選択され、作曲エンジン(ブロック20)で自動作曲された楽曲のMIDI伴奏データ(ブロック23)と組み合わせて、自動作詞・作曲した楽曲のMIDIファイルを作成する(ブロック39)。この場合該MIDIファイル中には、オーディオ歌唱音声信号とMIDI伴奏データとを同期して再生できるように適宜の同期データを含ませるとよい。このMIDIファイルに対する歌詞テキストデータの付加は前述と同様に選択的になされる。歌詞テキストデータの付加はMIDIファイルに対して該テキストデータをテキストメタイベントで埋め込むようにしてよい。この作成されたMIDIファイルは前述と同様にCD等の記憶媒体に書き込まれる(ブロック35,36)。
【0028】
次にメロディの音源として「楽器音」を使用する場合について説明する。この場合は、自動作曲された楽曲のMIDIメロディデータ(ブロック22)に対して、ブロック25で設定されたメロディ用の楽器音色を示す楽器音色データを付加して、MIDIメロディデータセットを構成する。これをセレクタ(ブロック38)を介して選択し、作曲エンジン(ブロック20)で自動作曲された楽曲のMIDI伴奏データ(ブロック23)と組み合わせて、自動作詞・作曲した楽曲のMIDIファイルを作成する(ブロック39)。このMIDIファイルに対する歌詞テキストデータの付加は前述と同様に選択的になされる。この作成されたMIDIファイルは前述と同様にCD等の記憶媒体に書き込まれる(ブロック35,36)。
【0029】
次にメロディの音源として「機械に歌わせる」を使用する場合について説明する。この場合は、自動作曲された楽曲のMIDIメロディデータ(ブロック22)に対して、ブロック26で設定されたメロディ用の合成歌唱音声の音色を示す歌唱音色データを付加し、更に、ブロック37の処理によって作成した歌詞に対応する音節データを付加して、音節データ付きのMIDIメロディデータセットを構成する。これをセレクタ(ブロック38)を介して選択し、作曲エンジン(ブロック20)で自動作曲された楽曲のMIDI伴奏データ(ブロック23)と組み合わせて、自動作詞・作曲した楽曲のMIDIファイルを作成する(ブロック39)。ブロック37では、自動作詞された歌詞のテキストデータ(ブロック24)に基づき、MIDIメロディデータ(ブロック22)の各ノートイベントに対応づけて歌詞の音節データを作成し、該MIDIメロディデータに付加する。クライアント端末での再生時においては、クライアント端末側に設けた歌唱音源により、このMIDIメロディデータセットにおけるMIDIメロディデータと音節データ及び歌唱音色データとに基づき、当該歌詞を当該メロディで歌唱している音声信号が合成される。よって、この場合はクライアント端末側に歌唱音源が必要となる。MIDIファイルに対する歌詞テキストデータの付加は前述と同様に選択的になされる。この作成されたMIDIファイルは前述と同様にCD等の記憶媒体に書き込まれる(ブロック35,36)。
【0030】
図3のフローに戻ると、クライアント端末側のステップS12では、前記サーバ側のステップS20の処理を経て作成された物理的記憶媒体の配送先を指定・入力して、入力した配送先の指定をサーバに送信してこれを通知する。配送先としては、例えばユーザ自宅住所等任意の場所を指定することができ、また人に贈呈する場合は贈呈先の住所等を指定してよい。サーバ側のステップS21では、クライアントから送信された配送先の指定を受信し、該受信したクライアント指定の配送先に宛てて前記作成した記録媒体を、郵送或いは宅配便等適宜の手段で、物理的に発送する。なお、作成された記録媒体を発送することなく、サーバ側の受け渡し窓口にユーザが出向いてこれを受け取るようにしてもよい。その場合クライアント側のステップS12で「窓口受取」を選択できるようにする。
【0031】
このようにして、ユーザは、サーバにアクセスして簡単なパラメータ設定の入力をするだけで、手軽に作詞作曲を行うことができ且つその曲に対して好みにより自前の歌を入れ、更に、作成した楽曲が収録された例えばCD等の物理的記憶媒体の作成を簡易に行うことができ、郵送或いは宅配便等適宜の手段で物理的に配送されたCD等の記憶媒体を得ることができる。
なお、クライアント端末において、希望する記録媒体の種類(例えばCD、DVD、MD等)を指定できるようにしてもよい。また、サーバにおいて、記憶媒体のジャケットとして例えば曲の題名及び適宜の写真、イラスト、ライナーノート等を含む付加的印刷物を製作して、ユーザに配送する記憶媒体に付加するようにしてもよい。その場合、作成する付加的印刷物の内容は、ユーザが予め作成した完成品情報をサーバに送信するようにしてもよいし、あるいはユーザが写真、イラスト等一部の材料を用意してこれをサーバに送信し、サーバ側でこれに基づき適宜編集して作成するようにしてもよいし、あるいはサーバ側において自動作成済みの歌詞等に基づき全面的に自動作成するようにしてもよい。このように、ジャケット等を記憶媒体に付加することで、例えば、より本格的なCD等を製作することができる。
なお、サーバにおいて各クライアント毎に作成した楽曲の情報を蓄積するデータベースを具え、或るクライアントの固有の創作楽曲が複数曲分貯まった後に、これを1記憶媒体(例えばCD1枚)に書き込むようにして該クライアントに発送するようにしてもよい。
【0032】
本発明の変形例として、所定のクライアント登録手続きを済ませたクライアント(ユーザ)に対して識別情報(クライアントID)を付与し、クライアントIDを有するクライアント(ユーザ)だけがこのサーバのサイトを利用できるようにしてよい。この場合は、サーバは、各クライアントを識別するためのID毎に各クライアントにおける作詞作曲についての嗜好傾向等に関する情報等のようなクライアント情報を多数蓄積してなるデータベースを具備する。クライアント(ユーザ)が初めて当該サーバを利用する際に、先ずクライアント登録手続きを行い、クライアントIDの付与を受ける。この時、サーバは、クライアント好みの音楽ジャンル等の音楽的嗜好に関する情報等をクライアントに申告させ、データベースに登録する。サイト利用に際して、サーバは、クライアントに対して、クライアントIDを入力するように要求して、各クライアントを識別する。上述した自動作詞及び自動作曲を行う際、サーバは、識別したクライアントの音楽的嗜好情報等に基づき、その識別したクライアントについて特有の自動作詞・作曲を行うようにしてよい。そうすれば、入力された作詞・作曲パラメータに対して各クライアントの好み等に応じた固有の作詞・作曲結果をもたらすことができる。例えば、或るクライアントAと別のクライアントBが、同じ作詞パラメータを入力したとしても、その結果得られる歌詞内容は、クライアントAに対して歌詞内容C、クライアントBに対して歌詞内容C’という具合に、前記データベースに蓄積されたクライアント情報に基づいて各クライアント毎に夫々違ったものにすることができ、個々のクライアントに対して各人の個性・好みを反映したユニークな楽曲創作を行える。
【0033】
【発明の効果】
以上のように本発明によれば、誰でも極めて手軽に作詞作曲を行うことができ、更に、創作した楽曲が収録されたCD等の物理的記憶媒体の製作を簡易に行えるという優れた効果を奏する。
【図面の簡単な説明】
【図1】 本発明の一実施例に係るサーバ装置又はクライアント端末として使用可能なコンピュータを含むシステムのハード構成例を示すブロック図。
【図2】 同実施例に係るサーバル装置及びクライアント端末側における、自動作曲からCD作成までの処理例の一部を示すフローチャート。
【図3】 図2のフローチャートの続きの部分を示すフローチャート。
【図4】 同実施例において、クライアント端末のディスプレイに表示される記録形式設定画面の一表示例を示す図。
【図5】 同実施例において、生成した楽曲を物理的記憶媒体に書き込む処理の概要を示す機能ブロック図であり、記録形式がオーディオデータ形式による場合の機能ブロック図。
【図6】 同実施例において、生成した楽曲を物理的記憶媒体に書き込む処理の概要を示す機能ブロック図であり、記録形式がMIDIデータ形式による場合の機能ブロック図。
【符号の説明】
1 CPU
2 ROM
3 RAM
4 A/D変換回路
5 検出回路
6 表示回路
7 音源回路
8 外部記憶装置
9 MIDIインターフェース
10 コンピュータ(サーバ装置又はクライアント)
11 通信インターフェース[0001]
BACKGROUND OF THE INVENTION
The present invention uses a wired or wireless communication network such as the Internet to perform autoverbs / compositions according to the client's wishes, and stores the lyrics information and music information generated by the autoverbs / compositions in a physical storage such as a CD. The present invention relates to a system and a program that are recorded on a medium and can be provided to the client.
[0002]
[Prior art]
In the field of automatic composition using a computer or the like, an automatic composition apparatus or automatic composition program that automatically composes music based on desired composition parameters input by a user is known. There are also known auto-synchronization devices, lyrics support devices, or programs in which a user sets and inputs desired lyrics parameters and automatically performs lyrics based on the settings and inputs. If you use such an automatic music composition device etc., you can easily compose and write lyrics without having specialized musical skills and knowledge, so it is very convenient especially for amateur musicians, but you can purchase a dedicated device or program There is a disadvantage that you have to do. On the other hand, by recording music written and composed by the user himself / herself on a physical storage medium such as a CD (compact disc) using such an automatic music device, an original CD can be created and an amateur music life can be enjoyed. Is possible. However, in that case, a dedicated writing device such as a CD writer is required separately, so not everyone can easily do it. In other words, even if you own an automatic composition device and a song-writing support device and you can easily create your own composition, it is easy for a user who cannot record on a physical storage medium such as a CD. Will also reduce the enjoyment. In short, since the creation of simple self-made music performed by an automatic music composition device or song-writing support device has a strong entertainment aspect, it can be carried out by anyone more easily without having a large number of dedicated devices. Is preferred.
[0003]
[Problem to be Solved by the Invention]
The present invention has been made in view of the above points. Anyone can easily compose a song, and can easily create a physical storage medium such as a CD on which the created song is recorded. Is trying to be able to.
[0004]
[Means for solving the problems]
A system for providing an autoverb / composed music medium via a communication network according to the present invention comprises a server device connected to a client via a communication network, and the server device is connected to the client via the communication network. Auto-synchronizing means for receiving song parameters from the client and receiving the song parameters from the client via the communication network and receiving the song parameters from the client via the communication network. Means, and the lyrics information and the song information generated by the auto verb means and the auto song means are physically recorded as a file of a creative song unique to the client. Record Means for recording on a medium; From the client The physical recording medium on which the original music file is recorded Means for accepting designation of the delivery destination of It is characterized by that.
[0005]
According to the present invention, the user (client) only needs to access the server to set and input desired lyrics and composition parameters. After that, the server device performs automatic verbs and automatic music, and the generated lyric information and music information is physically recorded as a file of original music unique to the user (client). Record Recorded on a medium (eg CD) Then, the user (client) receives designation of the delivery destination of the physical recording medium on which the file of the creative music is recorded. . A record of the music created in this way that is unique to the user. Record The media is delivered to the user by appropriate means such as mail or courier. Ru . Therefore, each user (client) can easily compose a song without having a dedicated writing device such as an automatic composition device or an automatic composition program, an automatic verb or a lyrics support device or program, and a CD writer. In addition, physical records such as CDs that contain the created music Record It becomes possible to easily create a medium.
[0006]
The present invention can be configured and implemented not only as an apparatus invention but also as a method invention, or in the form of a computer program or a processor program such as a DSP. Further, it can be implemented in the form of a program storage medium storing such a program.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
The server device according to the present invention is connected to a communication network, and a plurality of client terminals (users) can access the server device via the communication network. This server device comprises a song engine (auto verb means or auto song program) and a composition engine (auto song means or auto song program). In the client terminal connected to the server device, the user inputs desired lyrics generation data (song parameter) and song generation data (music composition parameter), and based on this input, the server device creates a song engine and a song engine. Automatically composes and composes music. As the server device, a high-performance computer for a server can be used, and the lyrics information and the song information generated by the song engine and the song composition engine are stored as a single song file in a predetermined physical storage medium (for example, a CD). Writing means (for example, a CD writer) for recording. On the other hand, as a client terminal, a personal computer or any other communication terminal may be used. At least two-way communication with a server device can be performed and voice information (information of any sound including music) can be transmitted and received. Anything may be used, for example, a mobile phone or the like.
[0008]
First, a hardware configuration example of a system including a
[0009]
The
[0010]
The
[0011]
A MIDI interface (MIDI I / F) 9 is used to input / output MIDI performance performance data to / from the outside, and is connected to an
[0012]
The
[0013]
Next, an example of an operation procedure from the automatic song to the CD creation according to this embodiment will be described with reference to the flowcharts of FIGS. In FIGS. 2 and 3, an example of an operation procedure on a client terminal side is shown in the left flow (S1 to S12), and an example of an operation procedure on the server device side is shown in the right flow (S13 to S21). Note that, for convenience of illustration, the flowcharts are illustrated separately in FIGS. 2 and 3, but are composed of a single flow in which the A parts and the B parts are connected to each other. At the start of the operation, the client terminal accesses the server device according to an address input such as a URL via the communication network, and connects to the server device (hereinafter simply referred to as a server). The server transmits a predetermined initial screen to the client terminal and displays it on the
[0014]
In step S1 on the client side, desired lyrics parameters are set and input at the client terminal, and transmitted to the server via the communication network. As the lyrics parameter (ie, data for generating lyrics), for example, a sentence fragment, a word, etc. (specific examples, such as a word such as “meeting”, “bridge”, etc.) may be arbitrarily set and input. In step S13 on the server side, the transmitted lyric parameter is received via the communication network, and the lyric engine performs an automatic verb based on the received lyric parameter. As the lyrics engine, a known or unpublished appropriate one may be used, and a specific description thereof will be omitted. In step S14, the lyrics generated by the lyrics engine are transmitted to the client terminal in the form of text data, and the user is allowed to confirm the lyrics that have been automatically entered. In step S2 on the client side, the lyrics text data is received from the server at the client terminal, and the lyrics based on the lyrics text data are displayed on the
[0015]
Thus, when the lyric generation is completed (“YES” in step S3), the client terminal then sets and inputs the composition parameters (that is, data for generating the tune) in step S4 on the client side, and transmits this to the server. . The user appropriately sets and inputs various music conditions such as a rhythm style, the presence or absence of syncopation, and pitch dynamics as the composition parameters. In step S15 on the server side, the composition parameters transmitted from the client terminal are received, and the performance data of the melody and accompaniment is generated (automatic composition) based on the received composition parameters by the composition engine. As this composition engine, a publicly known or unpublished appropriate one may be used, and a specific description thereof will be omitted. In step S16, performance data of the generated music (melody and accompaniment) is transmitted to the client terminal. At this time, the format of the music performance data output from the server may be either audio data or MIDI data. In the case of MIDI data, the amount of data to be transmitted / received is reduced, but it is necessary to provide a MIDI sound source on the client terminal side. There is. In transmitting / receiving audio data, audio data compressed in an arbitrary data compression format such as the MP3 method may be transmitted / received. In step S5 of the client terminal, the client terminal receives the music performance data from the server, and plays / sounds the automatically tuned music based on the received music performance data. In the next step S6, the user listens to the reproduced music and confirms whether or not this is acceptable. If the user is dissatisfied with the automatically tuned song (“NO” in step S6), the user returns to step S4 to set and input the composition parameters again (entire or part of the song), and the server performs the above steps S15, S15, S16 is performed again. The user can repeat the change of the composition parameters until a satisfactory result is obtained, and can cause the server to perform the automatic composition process many times. In the present embodiment, the setting (and changing) of the composition parameter may include input of direct note information or the like. In other words, the user himself / herself may partially correct the pitch, tone length, strength, and the like. If the user is satisfied with the automatically tuned music, the process proceeds from “YES” in step S6 to step S7 in FIG. Of course, the performance data and lyric text data of the generated music (melody and accompaniment) are temporarily stored in the server and can be written on a recording medium such as a CD as will be described later.
[0016]
In FIG. 2, after performing the processes of steps S1 to S3 and S13 to S14 to perform auto verbs, the processes of steps S4 to S6 and S15 to S16 are performed to perform automatic music. However, this order may be from either, and the user may arbitrarily select it.
In addition, it is preferable that the number of syllables of the lyrics and the number of notes of the melody determined in the process of the above-mentioned autoverb / autonomous music are substantially matched, so if the lyrics were generated first, The number of syllables of the lyrics may be supplied to the composition engine, and this may be automatically included in the composition parameters as the number of notes of the melody so that the automatic composition processing is performed. Conversely, if the melody is generated first, the number of notes of the generated melody is supplied to the lyrics engine, and this is automatically included in the lyrics parameter as the number of syllables of the lyrics so that autoverb processing is performed. . Of course, the present invention is not limited to this, and the number of syllables of the lyrics and the number of notes of the melody may be set and input separately, and the numbers may be adjusted later.
[0017]
In FIG. 3, in step S7 of the client terminal, a recording format setting screen for recording the generated music (lyrics, melody, accompaniment) on the physical recording medium is displayed on the client terminal, and the recording format desired by the user is displayed. Prompt to select. One display example of this recording format setting screen is shown in FIG. In FIG. 4, the recording format of the melody is roughly divided into recording in the audio data format and recording in the MIDI data format, and prompts the user to select one of them. The user selects one of the formats with a mouse click or the like. Furthermore, in both audio data format and MIDI data format, there are three types of sound sources: (1) “instrument sound”, (2) “your song”, and (3) “make the machine sing”. Is displayed, and the user selects a sound source by clicking a radio button corresponding to the desired sound source.
[0018]
Selecting “instrument sound” in the audio data format means that the melody of the generated music is recorded on the recording medium with the audio data played with the tone color of the appropriate instrument sound. Selecting “your song” in the audio data format means that the melody of the generated music is recorded on the recording medium with the audio data of the user's own lyrics singing voice. Selecting “Make the machine sing” in the audio data format means that the melody of the generated music is recorded on the recording medium with the audio data of the lyrics singing voice synthesized by the machine.
Selecting “instrument sound” in the MIDI data format means that the melody of the generated music is recorded on a recording medium with MIDI data of the appropriate tone of the instrument sound. Selecting “your song” in the MIDI data format means that the melody of the generated music is recorded on the recording medium as audio data of the user's own lyrics song voice. Selecting “Make the machine sing” in the MIDI data format means that the melody of the generated music is recorded on a recording medium as MIDI data for lyric singing voice synthesis.
[0019]
In the example of FIG. 4, the selected radio button is marked with a solid black circle, and the recording format is set so that “your song” is used as the melody sound source in the audio data format. The check box “with lyrics data” displayed at the bottom of the setting screen in FIG. 4 is used to select whether or not to add lyrics text data to the music data file with a mouse click or the like. In the example, it is set to add lyrics text data. The generated musical accompaniment is recorded as an audio data signal when the audio data format is selected, and is recorded as a MIDI data signal when the MIDI data format is selected.
[0020]
Returning to the flow of FIG. 3, in step S8 on the client side, setting information indicating the recording format selected by the user as described above is transmitted to the server. In step S17 on the server side, the setting information transmitted from the client terminal is received. On the other hand, in step S9 on the client terminal side, it is confirmed whether or not the sound source of the recording melody selected by the user is “my song”. If “my song” is selected, “YES” in step S9. To go to the next step S10. In step S10, the generated lyric text is displayed on the
On the other hand, if “instrument sound” or “make the machine sing” is selected as the sound source of the melody, the process jumps from “NO” in step S9 to step S12. If “instrument sound” or “make the machine sing” is selected as the sound source of the melody, a process of receiving a desired timbre setting by the user and transmitting it to the server may be performed. In FIG. 3, these are omitted for convenience.
[0021]
On the other hand, in step S18 on the server side, it is confirmed whether or not the sound source of the melody selected by the user based on the recording format setting information received in step S17 is “my song”. When “My Song” is selected, the process proceeds from YES in Step S18 to the next Step S19, receives the singing voice signal transmitted from the client terminal by the processing in Step S11 on the client side, and receives the received singing voice. Save the signal temporarily. Thereafter, the process proceeds to step S20. On the other hand, when “instrument sound” or “make the machine sing” is selected as the sound source of the melody, the process jumps from NO in step S18 to step S20.
[0022]
In step S20 on the server side, in the recording format based on the recording format setting information received in step S17, based on the performance data and lyric text data of the generated music (melody and accompaniment) temporarily stored in the server. The music information and the lyric information are recorded on a physical storage medium such as a CD as a file of a creative music unique to the user (client). FIG. 5 is a functional block diagram showing an outline of the processing performed in step S20 on the server side when the audio data format is selected as the recording format. On the other hand, when the MIDI data format is selected as the recording format, an outline of the processing performed in step S20 on the server side is shown in a functional block diagram as shown in FIG.
[0023]
First, referring to FIG. 5, a process in the case of using “your song” as a melody sound source will be described.
[0024]
Next, a case where “instrument sound” is used as a sound source of a melody will be described.
[0025]
Next, a case where “Make a machine sing” is used as a melody sound source will be described.
[0026]
Next, the case where the MIDI data format is selected as the recording format will be described with reference to FIG. In addition, the same thing as the case of the audio data format described above with reference to FIG. In this case, since the file is generated in the MIDI data format, it is not necessary to convert the MIDI accompaniment data and the MIDI melody data into audio data. Therefore, the MIDI sound source such as
[0027]
First, a case where “my song” is used as a sound source of a melody will be described. A singing voice signal (block 27) in an audio data format transmitted from a client is selected via a selector (block 38), and a composition engine ( In combination with the MIDI accompaniment data (block 23) of the piece of music that has been automatically tuned in block 20), a MIDI file of the tune and the music that has been composed is created (block 39). In this case, the MIDI file may include appropriate synchronization data so that the audio singing voice signal and the MIDI accompaniment data can be reproduced in synchronization. The addition of the lyric text data to the MIDI file is selectively performed as described above. The lyric text data may be added to the MIDI file by embedding the text data in a text meta event. The created MIDI file is written to a storage medium such as a CD as described above (
[0028]
Next, a case where “instrument sound” is used as a sound source of a melody will be described. In this case, the MIDI melody data set indicating the musical instrument timbre for melody set in
[0029]
Next, a case where “Make a machine sing” is used as a melody sound source will be described. In this case, singing timbre data indicating the timbre of the synthesized singing voice for melody set in
[0030]
Returning to the flow of FIG. 3, in step S12 on the client terminal side, the delivery destination of the physical storage medium created through the processing in step S20 on the server side is designated and entered, and the designated delivery destination is designated. Notify this by sending it to the server. As a delivery destination, for example, an arbitrary place such as a user's home address can be specified, and when presenting to a person, an address of the gift destination may be specified. In step S21 on the server side, the designation of the delivery destination transmitted from the client is received, and the created recording medium addressed to the received delivery destination designated by the client is physically sent by appropriate means such as mail or courier. Ship to. Note that the user may go to the delivery window on the server side and receive it without sending the created recording medium. In that case, “window reception” can be selected in step S12 on the client side.
[0031]
In this way, the user can easily compose a song by simply accessing the server and inputting simple parameter settings, and can add his own song to the song according to their preference. For example, a physical storage medium such as a CD in which the recorded music is recorded can be easily created, and a storage medium such as a CD physically delivered by an appropriate means such as mail or courier can be obtained.
Note that the client terminal may be able to specify a desired type of recording medium (for example, CD, DVD, MD, etc.). Further, in the server, an additional printed matter including, for example, a song title and appropriate photographs, illustrations, liner notes, etc., may be produced as a storage medium jacket and added to the storage medium to be delivered to the user. In that case, the contents of the additional printed matter to be created may be sent to the server as finished product information created in advance by the user, or the user prepares some materials such as photographs and illustrations as a server. And may be created by appropriately editing on the basis of this on the server side, or may be automatically created entirely based on lyrics or the like that have been automatically created on the server side. In this way, by adding a jacket or the like to the storage medium, for example, a more serious CD or the like can be manufactured.
It should be noted that the server has a database for storing information on the music created for each client, and after a plurality of music pieces unique to a certain client have been stored, it is written to one storage medium (for example, one CD). To the client.
[0032]
As a modification of the present invention, identification information (client ID) is given to a client (user) who has completed a predetermined client registration procedure, and only a client (user) having a client ID can use the site of this server. You can do it. In this case, the server includes a database that stores a large amount of client information such as information on preference tendency for song composition in each client for each ID for identifying each client. When a client (user) uses the server for the first time, a client registration procedure is first performed and a client ID is given. At this time, the server informs the client of information related to the musical preference such as the music genre preferred by the client and registers it in the database. When using the site, the server requests the client to input a client ID and identifies each client. When performing the above-described automatic verbs and automatic musical composition, the server may perform a specific automatic verb / composition for the identified client based on the musical preference information of the identified client. By doing so, it is possible to provide unique lyrics / composition results corresponding to the preferences of each client for the input lyrics / composition parameters. For example, even if a client A and another client B input the same lyrics parameters, the lyrics content obtained as a result is, for example, the lyrics content C for the client A and the lyrics content C ′ for the client B. In addition, each client can be made different based on the client information stored in the database, and unique music creation reflecting each person's personality and preference can be performed for each client.
[0033]
【The invention's effect】
As described above, according to the present invention, anyone can compose a song very easily, and further, it is possible to easily produce a physical storage medium such as a CD on which the created song is recorded. Play.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a hardware configuration example of a system including a computer that can be used as a server device or a client terminal according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a part of a processing example from automatic music to CD creation on the serval apparatus and client terminal side according to the embodiment;
FIG. 3 is a flowchart showing a continuation of the flowchart of FIG. 2;
FIG. 4 is a view showing a display example of a recording format setting screen displayed on the display of the client terminal in the embodiment.
FIG. 5 is a functional block diagram showing an outline of processing for writing a generated music piece to a physical storage medium in the embodiment, and a functional block diagram when a recording format is an audio data format;
FIG. 6 is a functional block diagram showing an outline of a process for writing the generated music piece to the physical storage medium in the embodiment, and a functional block diagram when the recording format is a MIDI data format;
[Explanation of symbols]
1 CPU
2 ROM
3 RAM
4 A / D conversion circuit
5 Detection circuit
6 Display circuit
7 Sound source circuit
8 External storage device
9 MIDI interface
10 Computer (server device or client)
11 Communication interface
Claims (2)
前記通信ネットワークを介して前記クライアントから作詞パラメータを受信し、該受信した作詞パラメータに基づき自動作詞する自動作詞手段と、
前記通信ネットワークを介して前記クライアントから作曲パラメータを受信し、該受信した作曲パラメータに基づき自動作曲する自動作曲手段と、
前記自動作詞手段及び前記自動作曲手段で生成した歌詞情報及び曲情報を、前記クライアントに固有の創作楽曲のファイルとして物理的記録媒体に記録する手段と、
前記クライアントから前記創作楽曲のファイルを記録した前記物理的記録媒体の配送先の指定を受け付ける手段と、
を具備することを特徴とするシステム。A server device connected to a client via a communication network,
Auto verb means for receiving lyrics parameters from the client via the communication network, and for auto verbs based on the received lyrics parameters;
Automatic composition means for receiving composition parameters from the client via the communication network and performing automatic composition based on the received composition parameters;
And means for recording the physical record medium as a file unique creation music lyrics information and music information generated by said automatic lyrics means and the automatic composition means, to the client,
Means for accepting designation of a delivery destination of the physical recording medium in which the file of the creative music is recorded from the client ;
The system characterized by comprising .
前記通信ネットワークを介して前記クライアントから作詞パラメータを受信し、該受信した作詞パラメータに基づき自動作詞するステップと、
前記通信ネットワークを介して前記クライアントから作曲パラメータを受信し、該受信した作曲パラメータに基づき自動作曲するステップと、
前記各ステップで生成した歌詞情報及び曲情報を、前記クライアントに固有の創作楽曲のファイルとして物理的記録媒体に記録するステップと、
前記クライアントから前記創作楽曲のファイルを記録した前記物理的記録媒体の配送先の指定を受け付けるステップと、
を具備する。A program executed on a computer of a server device connected to a client via a communication network,
Receiving lyrics parameters from the client via the communication network and performing autoverbs based on the received lyrics parameters;
Receiving composition parameters from the client via the communication network and performing automatic composition based on the received composition parameters;
And recording the lyrics information and music information generated in each step, the physical record medium as a file unique creation music to the client,
Receiving designation of a delivery destination of the physical recording medium in which the file of the creative music is recorded from the client;
It comprises.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001391244A JP3812437B2 (en) | 2001-12-25 | 2001-12-25 | System and program for providing music media composed of auto verbs and compositions via communication network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001391244A JP3812437B2 (en) | 2001-12-25 | 2001-12-25 | System and program for providing music media composed of auto verbs and compositions via communication network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003195866A JP2003195866A (en) | 2003-07-09 |
JP3812437B2 true JP3812437B2 (en) | 2006-08-23 |
Family
ID=27598891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001391244A Expired - Fee Related JP3812437B2 (en) | 2001-12-25 | 2001-12-25 | System and program for providing music media composed of auto verbs and compositions via communication network |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3812437B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004063945A1 (en) * | 2003-01-06 | 2004-07-29 | Masterwriter, Inc. | An information management system plus |
JP5439994B2 (en) * | 2009-07-10 | 2014-03-12 | ブラザー工業株式会社 | Data collection / delivery system, online karaoke system |
JP6693176B2 (en) * | 2016-03-01 | 2020-05-13 | ヤマハ株式会社 | Lyrics generation device and lyrics generation method |
CN111512359B (en) | 2017-12-18 | 2023-07-18 | 字节跳动有限公司 | Modularized automatic music making server |
-
2001
- 2001-12-25 JP JP2001391244A patent/JP3812437B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003195866A (en) | 2003-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5827990A (en) | Karaoke apparatus applying effect sound to background video | |
JP4500730B2 (en) | Karaoke device and electronic sample device | |
US20150317391A1 (en) | Media playable with selectable performers | |
JP2007178584A (en) | Music data distributing method and device | |
JP3812437B2 (en) | System and program for providing music media composed of auto verbs and compositions via communication network | |
JP2022164934A (en) | Program, method, electronic apparatus, and musical performance data display system | |
KR20010000888A (en) | Method for playing musical instruments and learning music based on the Internet and system therefor | |
JP3979510B2 (en) | Online karaoke system | |
JPH0417000A (en) | Karaoke device | |
JP3974069B2 (en) | Karaoke performance method and karaoke system for processing choral songs and choral songs | |
JP3180470B2 (en) | Karaoke equipment | |
JP2001306070A (en) | Device and method for sequence data file processing and storage medium | |
JP2979897B2 (en) | Karaoke equipment | |
JPH09230879A (en) | Karaoke device | |
JPH06202676A (en) | Karaoke contrller | |
JP4924040B2 (en) | Electronic musical instruments and programs | |
JP2005189878A (en) | Music player, music playing method, and program | |
Carpenter | Technology in the music classroom | |
JP4263263B2 (en) | Reservation terminal that can reserve desired songs in the karaoke device by adding user's favorite performance orders | |
JP2548723Y2 (en) | Music playback device | |
JP2004354803A (en) | Music playback device | |
JP2006162915A (en) | Music reproducing apparatus | |
JP4858174B2 (en) | Electronic musical instruments and programs | |
JP3376661B2 (en) | Karaoke equipment | |
JPH09152881A (en) | Reproducing method for chorus sound of communication karaoke device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060124 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060522 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100609 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |