JP2007121935A - Method and system for editing music material - Google Patents
Method and system for editing music material Download PDFInfo
- Publication number
- JP2007121935A JP2007121935A JP2005317278A JP2005317278A JP2007121935A JP 2007121935 A JP2007121935 A JP 2007121935A JP 2005317278 A JP2005317278 A JP 2005317278A JP 2005317278 A JP2005317278 A JP 2005317278A JP 2007121935 A JP2007121935 A JP 2007121935A
- Authority
- JP
- Japan
- Prior art keywords
- music
- attribute
- music material
- identifier
- file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、音楽素材編集方法に関する。 The present invention relates to a music material editing method.
各種楽器の演奏音から得た複数の音楽素材を合成して1つの合奏曲を創作できるようにした作曲支援システムが提案されている(音楽素材の合成技術については、特許文献1等を参照)。この種のシステムの多くは、各種音楽素材のオーディオデータを集めたデータベースを有している。そして、楽曲の創作を行うユーザは、データベースから所望の音楽素材を選択して並べることにより自らの創作イメージに合致する楽曲を作り上げることができるようになっている。
上述した作曲支援システムを利用した創作の自由度を高めるには、様々な音色、リズム、テンポ、キーの楽音を収録して得た音楽素材を集めてデータベースの記憶内容を充実させることが必要である。しかしながら、データベースに記憶する音楽素材のレパートリーが膨大になればなるほど、その中からユーザの創作イメージに合致する音楽素材を探すのに多くの労力が強いられるという問題も生じ得る。
本発明は、このような背景の下に案出されたものであり、楽曲の創作に用いる音楽素材を纏めたデータベースより、ユーザのイメージに最もマッチする音楽素材を迅速且つ確実に抽出できるような仕組みを提供することを目的とする。
In order to increase the degree of freedom of creation using the composition support system described above, it is necessary to enrich the stored contents of the database by collecting music materials obtained by recording musical sounds of various tones, rhythms, tempos, and keys. is there. However, as the repertoire of music materials stored in the database becomes enormous, there may be a problem that much effort is required to search for music materials that match the user's creative image.
The present invention has been devised under such a background, and it is possible to quickly and reliably extract music material that best matches the user's image from a database of music materials used for creating music. The purpose is to provide a mechanism.
本発明の好適な態様である音楽素材編集方法は、音楽素材の素材識別子と、その音楽素材のオーディオ信号を表す音楽素材データとを夫々含んだ各ピースファイルを記憶すると共に、合奏曲の一部又は全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データとを夫々含んだ各コネクトファイルを記憶するファイル記憶手段と、音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、操作子とを備えるシステムを用いた音楽素材編集方法であって、音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力工程と、前記検索キー入力工程にて入力された属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索工程と、前記出力された各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示工程と、前記音楽素材合成指示工程にて選択された複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積工程と、前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録工程と、再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択工程と、前記再生対象選択工程にて選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出工程と、前記読出工程にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力工程とを有する。 A music material editing method according to a preferred embodiment of the present invention stores each piece file including a material identifier of a music material and music material data representing an audio signal of the music material, and a part of an ensemble Alternatively, the material identifier of the synthetic music material, which is the music material obtained by combining the music materials to be performed continuously or in parallel during the time length corresponding to the entire performance section, and the performance content of the synthetic music material, File storage means for storing each connect file including material composition management data represented as one or a plurality of columns composed of material identifiers of music materials to be played in succession or in parallel, and material identifiers of the music materials And a music material editing method using a system comprising attribute storage means for storing attribute data representing the attributes of the music material in association with each other, and an operator. A search key input step for inputting one or a plurality of attributes as a material search key in accordance with the operation of the operator, and an attribute data representing an attribute common to the attribute input in the search key input step A search step of reading the material identifier stored in the attribute storage means, and outputting the read material identifier as a search result, and performing continuously or continuously for a certain length of time from each of the output material identifiers A music material composition instruction step of selecting material identifiers of a plurality of music materials to be operated according to the operation of the operation element, and inputting attributes of a composite music material obtained by collecting the plurality of selected music materials according to the operation of the operation element; A material identifier unique to the synthetic music material obtained by collecting a plurality of music materials selected in the music material synthesis instruction step, and the selection A connect file that generates material composition management data representing the plurality of material identifiers as one or a plurality of columns and stores a new connect file including the generated material identifier and material composition management data in the file storage means An accumulation step; an attribute registration step of associating the generated material identifier with attribute data representing the input attribute and storing the attribute data in the attribute storage means; and operating the operator with a synthetic music material to be played back A connection target including a reproduction target selection step selected according to the method and a material identifier of the synthetic music material selected in the reproduction target selection step is read from the file storage means, and a series of material composition management data included in the read connect file represents The piece file stored in the file storage means in association with each of the material identifiers is read. And a signal output step of outputting an audio signal obtained by connecting, mixing, or both of the audio signals represented by the music material data included in the piece file read in the reading step And have.
この態様において、前記属性データは、音楽素材の属性の一つであるオーディオ波形の特徴を表すデータであり、前記検索キー入力工程は、音楽素材のキーとする音声又は楽音を所定の収音デバイスを介して入力する工程を有し、前記検索工程は、前記入力された音声又は楽音のオーディオ波形の特徴を解析し、その解析の結果に近い属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出す工程を有してもよい。 In this aspect, the attribute data is data representing characteristics of an audio waveform that is one of the attributes of music material, and the search key input step includes a predetermined sound collecting device that uses a sound or a musical sound as a key of the music material The search step analyzes the characteristics of the audio waveform of the input voice or musical sound and stores it in the attribute storage means in association with attribute data close to the result of the analysis. There may be a step of reading the material identifier.
本発明の別の好適な態様である音楽素材編集システムは、音楽素材の素材識別子と、その音楽素材のオーディオ信号を表す音楽素材データとを夫々含んだ各ピースファイルを記憶すると共に、合奏曲の一部又は全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データとを夫々含んだ各コネクトファイルを記憶するファイル記憶手段と、音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、操作子と、音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力手段と、前記検索キー入力手段が入力した属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索手段と、前記出力した各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示手段と、前記音楽素材合成指示手段が選択した複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積手段と、前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録手段と、再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択手段と、前記再生対象選択手段が選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出手段と、前記読出手段にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力手段とを備える。 A music material editing system according to another preferred embodiment of the present invention stores piece files each including a material identifier of a music material and music material data representing an audio signal of the music material, The material identifier of the composite music material, which is the music material obtained by combining the music materials to be played continuously or in parallel during the length of time corresponding to a part or all of the performance section, and the performance contents of the composite music material A file storage means for storing each connect file each including material composition management data represented as one or a plurality of columns comprising material identifiers of the music materials to be played in succession or in parallel; One or more attributes used as attribute storage means storing attribute identifiers and attribute data representing the attributes of the music material in association with each other, an operator, and a search key for the music material A search key input means for inputting in accordance with the operation of the recording operator, and a material identifier stored in the attribute storage means in association with attribute data representing an attribute common to the attribute input by the search key input means is read and read A search means for outputting a material identifier as a search result, and material identifiers of a plurality of music materials to be played continuously or continuously for a certain length of time among the output material identifiers according to the operation of the operator A music material composition instruction means for inputting an attribute of a composite music material obtained by combining the plurality of selected music materials according to the operation of the operator, and a plurality of music materials selected by the music material composition instruction means. The material identifier unique to the synthetic music material obtained by combining and the plurality of selected material identifiers are displayed as one or more columns. Connected file storage means for generating material composition management data and storing a new connect file including the created material identifier and material composition management data in the file storage means, the created material identifier and the input attribute Attribute registering means for associating attribute data representing the attribute data with the attribute storage means, reproduction target selection means for selecting a synthetic music material to be reproduced according to the operation of the operator, and reproduction target selection means A connect file including the material identifier of the selected synthetic music material is read from the file storage means, and stored in the file storage means in association with each of a series of material identifiers represented by the material composition management data included in the read connect file. Read means for reading the piece file, and piece file read by the read means Audio signal represented by each piece of music material data included in the file is connected, mixed, or both, and a signal output means for outputting an audio signal obtained by performing both.
本発明によると、楽曲の創作に用いる音楽素材を纏めたデータベースより、ユーザのイメージに最もマッチする音楽素材を迅速且つ確実に抽出することができる。 According to the present invention, it is possible to quickly and reliably extract a music material that most closely matches the user's image from a database in which music materials used for music composition are collected.
(第1実施形態)
本願発明の第1実施形態について説明する。
本実施形態は、複数の楽器パートからなる合奏曲の創作を行う各ユーザに対して以下の2つのサービスを提供することを特徴とする。
(1)音楽素材収録サービス
このサービスは、各種楽器から得た比較的短いフレーズの楽音(以下、この楽音を「音楽素材」と呼ぶ)のデータファイルとそれらの音楽素材毎に指定された属性(ジャンル、雰囲気、楽器種別など)の登録要求を各ユーザから受け付け、それらのデータファイルと属性とを纏めてサーバ装置のデータベースに蓄積するサービスである。
(2)音楽素材編集サービス
このサービスは、楽曲の創作を行うユーザから検索キーとなる属性の指定を受け付けてその属性を有する音楽素材をデータベースから検索し、検索された音楽素材をユーザの編集操作に従って連結し及びミキシングしていくことによってオリジナルの合奏曲を創作させるサービスである。
(First embodiment)
A first embodiment of the present invention will be described.
This embodiment is characterized in that the following two services are provided to each user who creates an ensemble composed of a plurality of instrument parts.
(1) Music material recording service This service provides data files of relatively short phrases (hereinafter referred to as “music material”) obtained from various musical instruments and attributes designated for each music material ( This is a service that accepts registration requests for each category (genre, atmosphere, instrument type, etc.) from each user and accumulates the data files and attributes in a database of the server device.
(2) Music material editing service This service accepts designation of an attribute as a search key from a user who creates a song, searches a database for a music material having the attribute, and edits the searched music material by a user It is a service that creates original ensembles by connecting and mixing according to.
図1は、本実施形態にかかる音楽素材編集システムの全体構成を示すブロック図である。本システムは、音楽素材管理サーバ装置10と端末装置20をネットワーク30を介して接続してなる。図には端末装置20を1つしか記していないが、複数の端末装置20を有してもよい。図に示すように、音楽素材管理サーバ装置10は、各種制御を行うCPU11、ワークエリアを提供するRAM12、IPL(Initial Program Loader)を記憶したROM13、通信インターフェース14、ハードディスク15などを備える。
ハードディスク15は、音楽素材データベース15a、属性管理データベース15b、及び音楽素材管理プログラム15cを記憶する。
FIG. 1 is a block diagram showing the overall configuration of the music material editing system according to the present embodiment. In this system, a music material
The
音楽素材データベース15aは、各々が1つの音楽素材と対応する複数のレコードの集合体である。このデータベースを構成する1つのレコードは、「素材識別子」、「ピースファイル」、及び「コネクトファイル」の3つのフィールドを有している。「素材識別子」のフィールドには、各音楽素材を固有に識別する識別子である素材IDが記憶される。また、「ピースファイル」のフィールドにはピースファイルが、「コネクトファイル」のフィールドにはコネクトファイルが夫々記憶される。ここで、これらの両フィールドに夫々記憶されるピースファイルとコネクトファイルについて概説しておく。
The
図2(a)に示すように、ピースファイルには、音楽素材データ、再生時間長データ、素材ID、及びユーザIDが内包される。音楽素材データは、音楽素材のオーディオ信号をエンコードして得た符号列を表すデータである。再生時間長データは音楽素材の再生時間長を表すデータであり、「1小節」、「1/2小節」、「1/4小節」、「2小節」といったように、合奏曲の1小節の長さを基準とする相対値によって音楽素材の再生時間長を表す。素材IDは、音楽素材を識別する識別子であり、その内容は「素材識別子」のフィールドに記憶された同IDと一致する。ユーザIDは、ユーザを識別する識別子である。 As shown in FIG. 2A, the piece file includes music material data, reproduction time length data, material ID, and user ID. The music material data is data representing a code string obtained by encoding an audio signal of music material. The playback time length data is data representing the playback time length of the music material, such as “1 bar”, “1/2 bar”, “1/4 bar”, “2 bar”, etc. The reproduction time length of the music material is represented by a relative value based on the length. The material ID is an identifier for identifying the music material, and its content matches the ID stored in the “material identifier” field. The user ID is an identifier for identifying the user.
図2(b)に示すように、コネクトファイルには、素材合成管理データ、再生時間長データ、素材ID、及びユーザIDが内包される。再生時間長データ、素材ID、ユーザIDの内容はピースファイルと同様なので再度の説明を割愛する。素材合成管理データは、楽曲の全部又は一部の演奏区間に相当する時間長の間に連続して又は並行して演奏される音楽素材の演奏内容を、それらの音楽素材の素材IDより成る1つ又は2つの列として表したシーケンスデータである。
ピースファイル及びコネクトファイルは、冒頭に示した音楽素材収録サービス及び音楽素材編集サービスを利用する端末装置20からの要求に応じて生成されるが、その生成手順の詳細は後の動作説明の項で説明する。
As shown in FIG. 2B, the connect file includes material composition management data, reproduction time length data, material ID, and user ID. Since the contents of the reproduction time length data, material ID, and user ID are the same as those of the piece file, description thereof will be omitted. The material composition management data includes the performance contents of music materials that are played continuously or in parallel during the length of time corresponding to all or part of the performance section of the music, and is composed of the material IDs of those music materials. Sequence data represented as one or two columns.
The piece file and the connect file are generated in response to a request from the
図1において、属性管理データベース15bは、各々が1つの音楽素材と対応する複数のレコードの集合体である。図3に示すように、このデータベースを構成する1つのレコードは、「素材識別子」、「第1属性(ジャンル)」、「第2属性(雰囲気)」、及び「第3属性(楽器種別)」の4つのフィールドを有している。「素材識別子」のフィールドには、各音楽素材の素材IDが記憶される。「第1属性(ジャンル)」のフィールドには、「ロック」、「ポップス」、「ジャズ」、「クラシック」、「ダンス」、「民族音楽」、「その他」といったジャンルの属性を表す第1属性データが記憶される。「第2属性(雰囲気)」のフィールドには、「元気な」、「都会的な」、「クリーンな」、「激しい」、「静かな」といった雰囲気の属性を表す第2属性データが記憶される。「第3属性(楽器種別)」のフィールドには、「ドラム」、「ギター」、「バス」、「キーボード」、「パーカッション」、「トランペット」といった楽器種別の属性を表す第3属性データが記憶される。後の動作説明の項で詳述するように、これら「第1属性(ジャンル)」、「第2属性(雰囲気)」、「第3属性(楽器種別)」のフィールドに記憶されるべき各属性は、音楽素材収録サービスを利用するユーザが自らの音楽素材を音楽素材管理サーバ装置10に収録する際に併せて指定することになっている。
音楽素材管理プログラム15cは、本実施形態に特有の機能をCPU11に付与するプログラムである。
In FIG. 1, the attribute management database 15b is an aggregate of a plurality of records each corresponding to one music material. As shown in FIG. 3, one record constituting this database includes “material identifier”, “first attribute (genre)”, “second attribute (atmosphere)”, and “third attribute (instrument type)”. There are four fields. The material ID of each music material is stored in the “material identifier” field. In the field of “first attribute (genre)”, a first attribute representing attributes of a genre such as “rock”, “pops”, “jazz”, “classic”, “dance”, “ethnic music”, “others”. Data is stored. In the “second attribute (atmosphere)” field, second attribute data representing atmosphere attributes such as “energetic”, “urban”, “clean”, “violent”, “quiet” is stored. The In the “third attribute (instrument type)” field, third attribute data representing attributes of the instrument type such as “drum”, “guitar”, “bass”, “keyboard”, “percussion”, “trumpet” is stored. Is done. Each attribute to be stored in the fields of “first attribute (genre)”, “second attribute (atmosphere)”, and “third attribute (instrument type)”, as will be described in detail later in the operation description section. Is specified when a user using the music material recording service records his / her own music material in the music material
The music
端末装置20は、CPU21、RAM22、ROM23、操作子であるマウス24、コンピュータディスプレイ25、通信インターフェース26、オーディオインターフェース27、スピーカ28、ハードディスク29などを備える。
ハードディスク29は、音楽素材編集プログラム29aを記憶する。このプログラム29aは、本実施形態に特徴的な機能をCPU21に付与するプログラムである。
The
The
次に、本実施形態の動作を説明する。
本実施形態の動作は、音楽素材収録処理と音楽素材編集処理とに大別することができる。ユーザが自らの端末装置20を起動すると、CPU21は、メインメニュー画面をコンピュータディスプレイ25に表示させる。この画面の上段には「利用するサービスを選択してください」という内容の文字列が表示され、その下には、「音楽素材収録サービス」、「音楽素材編集サービス」と夫々記したボタンが表示される。そして、「音楽素材収録サービス」のボタンが選択されると音楽素材収録処理が、「音楽素材編集サービス」のボタンが選択されると音楽素材編集処理が夫々実行される。
Next, the operation of this embodiment will be described.
The operation of this embodiment can be roughly divided into music material recording processing and music material editing processing. When the user activates his / her
図4及び図5は、音楽素材収録処理を示すフローチャートである。
メインメニュー画面の「音楽素材収録サービス」と記したボタンが選択されると、端末装置20のCPU21は、ユーザID入力画面をコンピュータディスプレイ25に表示させる(S100)。ユーザID入力画面の上段には、「ユーザIDを入力してください」という文字列が表示され、その下には、ユーザIDの入力欄が表示される。この画面を参照したユーザは、自らのユーザIDを入力欄に入力する。
4 and 5 are flowcharts showing the music material recording process.
When the button labeled “Music material recording service” on the main menu screen is selected, the
ユーザIDが入力されると、端末装置20のCPU21は、そのユーザIDをRAM22に記憶した後、音楽素材収録サービスの提供を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S110)。
メッセージを受信した音楽素材管理サーバ装置10のCPU11は、素材入力要求画面の表示データを端末装置20へ送信する(S120)。
表示データを受信した端末装置20のCPU21は、素材入力要求画面をコンピュータディスプレイ25に表示させる(S130)。この画面の上段には、「音楽素材のオーディオ信号を入力してください」という内容の文字列が表示される。
画面を参照したユーザは、自らが所有する楽器のうちの1つを端末装置20のオーディオインターフェース27に接続する。そして、自らが創作する合奏曲で登場する音楽素材、或いは自身や他のユーザの創作する合奏曲で頻繁に登場するであろう汎用性の高い音楽素材をその楽器を用いて演奏する。
When the user ID is input, the
CPU11 of the music material
The
The user who refers to the screen connects one of the musical instruments owned by the user to the
端末装置20のCPU21は、オーディオインターフェース27を介して楽器から供給されてくるオーディオ信号をRAM22に記憶する(S140)。
オーディオ信号の供給が止まると、CPU21は、RAM22に記憶されたオーディオ信号の再生時間長を計測し、その再生時間長を表す再生時間長データを生成してRAM22に記憶する(S150)。例えば、計測した再生時間長が1小節分の長さであれば「1小節」を表す再生時間長データが生成され、1/2小節分であれば「1/2小節」を表す再生時間長データが生成されることになる。
The
When the supply of the audio signal is stopped, the
CPU21は、RAM22に記憶してあるオーディオ信号をエンコードすることによって得た音楽素材データ、ステップ150で生成した再生時間長データ、及びユーザIDを音楽素材管理サーバ装置10へ送信する(S160)。
音楽素材データ、再生時間長データ、及びユーザIDを受信した音楽素材管理サーバ装置10のCPU11は、新たな素材IDを生成する(S170)。
CPU11は、端末装置20から受信した音楽素材データ、再生時間長データ、及びユーザIDと、ステップ170で生成した素材IDとを含んだ新たなピースファイルを生成する(S180)。
The
The
The
続いて、CPU11は、音楽素材データベース15aに新たなレコードを追加する(S190)。
CPU11は、ステップ190で追加したレコードの「素材識別子」のフィールドにステップ170で生成した素材IDを記憶し、また、そのレコードの「ピースファイル」のフィールドにステップ180で生成したピースファイルを記憶する(S200)。更に、ステップ190で追加したレコードの「コネクトファイル」のフィールドに「Null」のデータを記憶する(S210)。なお、後述する音楽素材編集処理においては、新たに生成したコネクトファイルがこの「コネクトファイル」のフィールドに記憶される一方で、「ピースファイル」のフィールドに「Null」のデータが記憶されることになる。
Subsequently, the
The
続いて、CPU11は、属性入力要求画面の表示データを端末装置20へ送信する(S220)。
表示データを受信した端末装置20のCPU21は、属性入力要求画面をコンピュータディスプレイ25に表示させる(S230)。この画面の上段には、「収録した音楽素材の属性を入力してください」という内容の文字列が表示される。その下には、音楽素材のジャンルを入力する第1属性入力欄、雰囲気を入力する第2属性入力欄、楽器種別を入力する第3属性入力欄が表示される。
Subsequently, the
The
画面を参照したユーザは、自らの楽器により演奏した音楽素材のジャンル、雰囲気、楽器種別のうちの少なくとも一つの属性を属性入力要求画面の入力欄に入力する。
属性が属性入力要求画面に入力されると、端末装置20のCPU21は、入力されたジャンルを表す第1属性データ、雰囲気を表す第2属性データ、及び楽器種別を表す第3属性データを音楽素材管理サーバ装置10へ送信する(S240)。
属性データを受信した音楽素材管理サーバ装置10のCPU11は、属性管理データベース15bに新たなレコードを追加する(S250)。
The user who refers to the screen inputs at least one attribute of the genre, atmosphere, and instrument type of the music material played by his / her instrument in the input field of the attribute input request screen.
When the attribute is input to the attribute input request screen, the
The
CPU11は、ステップ250で追加したレコードの「素材識別子」のフィールドにステップ170で生成した素材IDを記憶すると共に、「第1属性(ジャンル)」、「第2属性(雰囲気)」、及び「第3属性(楽器種別)」のフィールドに端末装置20から受信した各属性データを夫々記憶する(S260)。
CPU11は、ステップ170で生成した素材IDを所定の雛形に埋め込んで得たピースファイル登録完了通知画面の表示データを端末装置20へ送信する(S270)。
The
The
表示データを音楽素材管理サーバ装置10から受信した端末装置20のCPU21は、ピースファイル登録完了通知画面をコンピュータディスプレイ25に表示させる(S280)。この画面の上段には、「新しい音楽素材がピースファイルとして登録されました。音楽素材の素材IDは次の通りです。」という内容の文字列が表示され、その下には、素材IDが表示される。画面の下段には、「別の音楽素材を収録する」及び「メインメニューに戻る」と夫々記したボタンが表示される。この画面を参照することによって新たに収録された音楽素材の素材IDを了解したユーザは、いずれかのボタンを選択する。
「別の音楽素材を登録する」のボタンが選択されると、ステップ130に戻り、CPU21は、素材入力要求画面をコンピュータディスプレイ25に表示させる。
「メインメニューに戻る」のボタンが選択されると、CPU21は、メインメニュー画面をコンピュータディスプレイ25に再び表示させる。
The
When the “Register another music material” button is selected, the process returns to step 130, and the
When the “return to main menu” button is selected, the
ユーザは、オーディオインターフェース27に接続する楽器を適宜切り替えながら、自らが創作する合奏曲で登場する各楽器パートの音楽素材や、或いは自身や他のユーザの創作する合奏曲で頻繁に登場するであろう汎用性の高い音楽素材を素材入力要求画面の案内に従って順次収録していく。
各ユーザが音楽素材収録サービスを通じて自らが収録した音楽素材をその属性と対応付けて登録して行くことにより、多種多様な属性を持つ音楽素材が音楽素材管理サーバ装置10の音楽素材データベース15aに蓄積され、更に、それらの検索キーとなる属性データが属性管理データベース15bに登録されることになる。
The user frequently appears in the musical material of each instrument part appearing in the ensemble created by himself or in the ensemble created by himself or another user while appropriately switching the instruments connected to the
As each user registers the music material recorded by the user through the music material recording service in association with the attribute, the music material having various attributes is accumulated in the
図6乃至図8は、音楽素材編集処理を示すフローチャートである。
メインメニュー画面の「音楽素材編集サービス」と記したボタンが選択されると、端末装置20のCPU21は、ユーザID入力画面をコンピュータディスプレイ25に表示させる(S300)。この画面を参照したユーザは、自らのユーザIDを入力欄に入力する。
6 to 8 are flowcharts showing the music material editing process.
When the button labeled “Music material editing service” on the main menu screen is selected, the
ユーザIDが入力されると、端末装置20のCPU21は、そのユーザIDをRAM22に記憶した後、音楽素材編集サービスの提供を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S310)。
メッセージを受信した音楽素材管理サーバ装置10のCPU11は、編集画面の表示データを端末装置20へ送信する(S320)。
When the user ID is input, the
CPU11 of the music material
表示データを受信した端末装置20のCPU21は、編集画面をコンピュータディスプレイ25に表示させる(S330)。
図9は、編集画面である。
編集画面の上段には音楽素材提示欄50が設けられ、画面の下段には音楽素材合成欄60が設けられている。音楽素材提示欄50には、属性を検索キーとして検索された複数の音楽素材の素材IDがリストとして表示されるようになっている。また、この提示欄の右端には素材IDの表示範囲を上下に移動させるためのスクロールバー51が設けられている。音楽素材合成欄60は第1トラック61と第2トラック62の2つのトラックを有している。これらのトラックの各々には、ユーザの操作に従って音楽素材提示欄50から選択された音楽素材の素材IDを内包するバー(以下、このバーを「素材IDバー」と呼ぶ)が入力されるようになっている。また、音楽素材合成欄60の下端には、トラックの表示範囲を左右に移動させるためのスクロールバー63が設けられている。更に、音楽素材合成欄60の右側には、「合成」及び「再生」と夫々記したボタンが表示されている。
CPU21 of the
FIG. 9 is an editing screen.
A music
編集画面が表示されると、ユーザは、その音楽素材提示欄50上の任意の位置にマウスポインタを置いてマウス24の左ボタンをダブルクリックする。
このダブルクリック操作が行われると、端末装置20のCPU21は、属性入力画面を編集画面上の別ウィンドウとして表示させる(S340)。
図10は、属性入力画面である。
属性入力画面の上段には、「音楽素材の検索キーとする属性を入力して下さい。」という内容の文字列が表示される。その下には、ジャンル属性入力欄81、雰囲気属性入力欄82、及び楽器種別属性入力欄83が表示される。
属性入力画面が表示されると、ユーザは、音楽素材の検索キーとする属性を同画面の一つ以上の入力欄に入力する。
When the editing screen is displayed, the user places the mouse pointer at an arbitrary position on the music
When this double-click operation is performed, the
FIG. 10 is an attribute input screen.
In the upper part of the attribute input screen, a character string of “Please enter an attribute to be used as a search key for music material” is displayed. Below that, a genre
When the attribute input screen is displayed, the user inputs an attribute as a search key for music material in one or more input fields on the screen.
入力欄に属性が入力されると、端末装置20のCPU21は、ジャンル属性入力欄81に入力された属性を表す第1属性データ、雰囲気属性入力欄82に入力された属性を表す第2属性データ、楽器種別属性入力欄83に入力された属性を表す第3属性データを音楽素材管理サーバ装置10へ送信する(図6のS350)。
属性データを受信した音楽素材管理サーバ装置10のCPU11は、それらの属性データと属性管理データベース15bの各レコードの「第1属性(ジャンル)」、「第2属性(雰囲気)」、「第3属性(楽器種別)」のフィールドの記憶内容とを順次照合することによって、端末装置20から受信したものとの共通性がより高い属性データを記憶した所定数(例えば「10」)のレコードを特定する(S360)。
CPU11は、ステップ360で特定した各レコードの「素材識別子」のフィールドに記憶された素材IDを読み出し、それらの素材IDを端末装置20へ送信する(S370)。
When an attribute is input in the input field, the
The
The
端末装置20のCPU21は、音楽素材管理サーバ装置10から受信した各素材IDを編集画面の音楽素材提示欄50に表示させる(S380)。
音楽素材提示欄50に素材IDが表示されると、ユーザは、その提示欄の任意の素材IDにマウスポインタを置いてマウス24の左ボタンをドラッグし、マウスポインタを音楽素材合成欄60のトラックに移動させてドロップする。
The
When the material ID is displayed in the music
編集画面の音楽素材提示欄50に素材IDが表示された状態でこのドラッグアンドドロップ操作が行われると、端末装置20のCPU21は、ドラッグによって選択された素材IDを音楽素材管理サーバ装置10へ送信する(図7のS390)。
素材IDを受信した音楽素材管理サーバ装置10のCPU11は、その素材IDを「素材識別子」のフィールドに記憶したレコードを音楽素材データベース15aから特定する(S400)。
CPU11は、ステップ400で特定したレコードの「コネクトファイル」のフィールドに記憶されたファイルに含まれる再生時間長データを抽出し、再生時間長データが記憶されてない場合には、更に「ピースファイル」のフィールドに記憶されたファイルに含まれる再生時間長データを抽出し、その再生時間長データを端末装置20へ送信する(S410)。
When this drag and drop operation is performed in a state where the material ID is displayed in the music
The
The
端末装置20のCPU21は、音楽素材管理サーバ装置10から受信した再生時間長データをRAM22に記憶する(S420)。そして、その再生時間長データが示す時間長に応じた横幅を有する素材IDバーを素材IDがドロップされたトラック上の位置に表示させる(S430)。
編集画面の音楽素材合成欄60に素材IDバーが表示された後、ユーザが再びダブルクリック操作を行うと、ステップ340乃至ステップ380の一連の処理が繰り返され、ユーザの入力した各種属性を検索キーとして検索された所定数の音楽素材の素材IDが音楽素材提示欄50に表示される。また、検索結果として音楽素材提示欄50に表示された素材IDの一つについてドラックアンドドロップ操作を行うと、ステップ390乃至ステップ430の処理が繰り返され、音楽素材合成欄60のトラックに新たな素材IDバーが順次形成されていく。
The
After the material ID bar is displayed in the music
図11は、ユーザによる各操作とそれらの操作に応じてトラック内に形成される素材IDバーの一例である。
この図において、1回目の操作では、検索キーを「ドラム」とする検索を行った後、その検索の結果として音楽素材提示欄50に表示された各素材IDの中から素材ID「A」をドラッグして第1トラック61の先頭の位置でドロップしている。これにより、「ドラム」の属性と対応付けられていた音楽素材の一つが、1/2小節の長さに相当する横幅の素材IDバー「A」として第1トラック61に形成される。
2回目の操作では、検索キーを変えた再検索を行わないまま、音楽素材提示欄50に表示された各素材IDの中から素材ID「B」をドラックして第1トラック61の素材IDバー「A」の右隣の位置でドロップしている。これにより、「ドラム」の属性と対応付けられれていた別の音楽素材の一つが、1/2小節の長さに相当する横幅の素材IDバー「B」として素材IDバー「A」の右隣に形成される。
3回目の操作では、検索キーを「ギター」とする検索を行った後、その検索の結果として音楽素材提示欄50に表示された各素材IDの中から素材ID「C」をドラッグして第2トラック62の先頭の位置でドロップしている。これにより、「ギター」の属性と対応付けられていた音楽素材の一つが、1小節の長さに相当する横幅の素材IDバー「C」として第2トラック62に形成される。
FIG. 11 is an example of each operation by the user and a material ID bar formed in the track in accordance with those operations.
In this figure, in the first operation, after searching for “drum” as the search key, the material ID “A” is selected from the material IDs displayed in the music
In the second operation, the material ID “B” is dragged from the material IDs displayed in the music
In the third operation, after searching for “guitar” as the search key, the material ID “C” is dragged from the material IDs displayed in the music
図に示す一連の操作によると、「ドラム」と「ギター」の1小節分の演奏内容をそれぞれ表す素材IDバーの配列が音楽素材合成欄60の両トラックに夫々形成されることになる。
以降の説明では、図11における素材IDバー「A」と素材IDバー「B」の関係のように、連続して演奏されるべき音楽素材の素材IDを音楽素材合成欄60の同じトラックに並べるドラッグアンドドロップ操作を適宜「連結編集操作」と呼び、素材IDバー「A」及び「B」と素材IDバー「C」の関係のように、同時期に並行して演奏されるべき音楽素材の素材IDを音楽素材合成欄60の別々のトラックに並置するドラッグアンドドロップ操作を適宜「ミキシング編集操作」と呼ぶ。
According to the series of operations shown in the figure, an array of material ID bars each representing the performance content of one measure of “drum” and “guitar” is formed on both tracks in the music
In the following description, the material IDs of the music materials to be played continuously are arranged on the same track in the music
ユーザは、各種操作を駆使して音楽素材合成欄60の一方又は両方のトラックに所望の時間長(例えば1小節)分の素材IDバーの配列を形成した後、同合成欄の左隣の「合成」と記したボタン又は「再生」と記したボタンを選択する。
図6において、「再生」のボタンが選択されると、後述する再生処理がサブルーチンとして実行される。
また、「合成」のボタンが選択されると、端末装置20のCPU21は、音楽素材合成欄60の各トラックに形成された素材IDの配列をシーケンスデータ化して素材合成管理データを生成する(図7のS440)。
The user uses various operations to form an array of material ID bars for a desired length of time (for example, one bar) on one or both tracks in the music
In FIG. 6, when the “playback” button is selected, a playback process described later is executed as a subroutine.
When the “composite” button is selected, the
続いて、CPU21は、音楽素材合成欄60のトラックに形成された一連の素材IDと対応する音楽素材の再生時間長の総計を表す再生時間長データを生成してRAM22に記憶する(S450)。
CPU21は、ステップ440で生成した素材合成管理データ、ステップ450で生成した再生時間長データ、及びユーザIDを音楽素材管理サーバ装置10へ送信する(S460)。
素材合成管理データ、再生時間長データ、及びユーザIDを受信した音楽素材管理サーバ装置10のCPU11は、新たな素材IDを生成する(S470)。
Subsequently, the
The
The
CPU11は、端末装置20から受信した素材合成管理データ、再生時間長データ、及びユーザIDを含んだ新たなコネクトファイルを生成する(S480)。
続いて、CPU11は、音楽素材データベース15aに新たなレコードを追加する(S490)。
CPU11は、ステップ490で追加したレコードの「素材識別子」のフィールドにステップ470で生成した素材IDを記憶すると共に、そのレコードの「コネクトファイル」のフィールドにステップ480で生成したコネクトファイルを記憶する(S500)。更に、ステップ490で追加したレコードの「ピースファイル」のフィールドに「Null」のデータを記憶する(S510)。
The
Subsequently, the
The
音楽素材管理サーバ装置10のCPU11は、属性入力要求画面の表示データを端末装置20へ送信する(S520)
表示データを受信した端末装置20のCPU21は、属性入力要求画面をコンピュータディスプレイ25に表示させる(S530)。この画面の上段には、「合成した音楽素材の属性を入力してください」という内容の文字列が表示される。その下には、音楽素材のジャンルを入力する第1属性入力欄、雰囲気を入力する第2属性入力欄、楽器種別を入力する第3属性入力欄が表示される。
The
The
画面を参照したユーザは、自らが合成した音楽素材のジャンル、雰囲気、楽器種別のうちの少なくとも一つの属性を属性入力要求画面の入力欄に入力する。なお、「ドラム」と「ギター」などといった複数の楽器種別の素材IDバーを音楽素材合成欄60のトラックに形成した状態で、「合成」を選択した場合、それらの全ての楽器種別を第3属性入力欄に入力しておくことが望ましい。
属性が属性入力要求画面に入力されると、端末装置20のCPU21は、入力されたジャンルを表す第1属性データ、雰囲気を表す第2属性データ、及び楽器種別を表す第3属性データを音楽素材管理サーバ装置10へ送信する(S540)。
The user who refers to the screen inputs at least one attribute of the genre, atmosphere, and instrument type of the music material synthesized by the user in the input field of the attribute input request screen. If “synthesize” is selected in a state where the material ID bars of a plurality of instrument types such as “drum” and “guitar” are formed on the track of the music
When the attribute is input to the attribute input request screen, the
属性データを受信した音楽素材管理サーバ装置10のCPU11は、属性管理データベース15bに新たなレコードを追加する(S550)。
CPU11は、ステップ550で追加したレコードの「素材識別子」のフィールドにステップ470で生成した素材IDを記憶すると共に、「第1属性(ジャンル)」、「第2属性(雰囲気)」、及び「第3属性(楽器種別)」のフィールドに端末装置20から受信した各属性データを夫々記憶する(S560)。
CPU11は、ステップ470で生成した素材IDを所定の雛形に埋め込んで得たコネクトファイル登録完了通知画面の表示データを端末装置20へ送信する(S570)。
The
The
The
端末装置20のCPU21は、コネクトファイル登録完了通知画面をコンピュータディスプレイ25に表示させる(S580)。この画面の上段には、「新しい音楽素材がピースファイルとして登録されました。音楽素材の素材IDは次の通りです。」という内容の文字列が表示され、その下には、素材IDが表示される。
The
以上説明した処理について、具体例を参照して更に詳述する。
図12は、編集画面を介した操作の一例を示す図である。
なお、ここでの説明は、「ドラム」の属性と対応付けられた1/4小節分の音楽素材「A」と「B」のピースファイル、「ギター」の属性と対応付けられた1/4小節分の音楽素材「C」、「D」、「E」の音楽素材のピースファイル、「バス」の属性と対応付けられた1/2小節分の音楽素材「F」と「G」のピースファイル、及び「キーボード」の属性と対応付けられた2小節分の音楽素材「H」のピースファイルが音楽素材データベース15aに蓄積されているものとして行う。
The processing described above will be further described in detail with reference to a specific example.
FIG. 12 is a diagram illustrating an example of an operation via the editing screen.
The description here is about 1/4 measure music files “A” and “B” corresponding to the “drum” attribute, and 1/4 corresponding to the “guitar” attribute. Piece files of music material “C”, “D”, “E” for the bars, and pieces of music material “F” and “G” for 1/2 bars associated with the attribute of “bus” The processing is performed on the assumption that a piece file of music material “H” corresponding to the file and the attribute of “keyboard” is stored in the
図を参照すると、1回目の操作(連結編集操作)において、ユーザは、「ドラム」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「A」と「B」の素材IDバーを「A」→「A」→「A」→「B」の順番で第1トラック61に形成させてから「合成」のボタンを選択している。これにより、素材IDを「AAAB」と1列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「I」と対応付けて音楽素材データベース15aに蓄積される。
2回目の操作(連結編集操作)において、ユーザは、「ギター」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「C」と「D」の素材IDバーを「C」→「C」→「C」→「D」の順番で第1トラック61に形成させてから「合成」のボタンを選択している。これにより、素材IDを「CCCD」と1列に並べた素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「J」と対応付けて音楽素材データベース15aに蓄積される。
Referring to the figure, in the first operation (concatenated editing operation), the user performs a search using the instrument type attribute of “drum” as a search key, and then selects the music material “A” selected from the search results. And “B” material ID bars are formed on the
In the second operation (concatenated editing operation), the user performs a search using the instrument type attribute of “guitar” as a search key, and then selects the music materials “C” and “D” selected from the search results. The material ID bar is formed on the
3回目の操作(連結編集操作)において、ユーザは、「ギター」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「C」と「E」の素材IDバーを「C」→「C」→「C」→「E」の順番で第1トラック61に形成させてから「合成」のボタンを選択している。これにより、素材IDを「CCCE」と一列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「K」と対応付けて音楽素材データベース15aに蓄積される。
4回目の操作(連結編集操作及びミキシング編集操作)において、ユーザは、「ドラム」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「I」の素材IDバーを「I」→「I」の順番で第1トラック61に形成させ、更に「バス」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「F」と「G」の素材IDバーを「F」→「F」→「F」→「G」の順番で第2トラック62に形成させてから「合成」のボタンを選択している。これにより、素材IDを「II」と「FFFG」の2列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「L」と対応付けて音楽素材データベース15aに蓄積される。
In the third operation (concatenated editing operation), the user performs a search using the instrument type attribute of “guitar” as a search key, and then selects the music materials “C” and “E” selected from the search results. After the material ID bar is formed on the
In the fourth operation (concatenated editing operation and mixing editing operation), the user performs a search using the instrument type attribute of “drum” as a search key, and then selects the music material “I” selected from the search results. A material ID bar is formed on the
5回目の操作(ミキシング編集操作)において、ユーザは、「キーボード」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「H」の素材IDバーを第1トラック61に形成させ、「ドラム」及び「バス」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「L」の素材IDバーを第2トラック62に形成させてから「合成」のボタンを選択している。これにより、素材IDを「H」と「L」の2列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「M」と対応付けて音楽素材データベース15aに蓄積される。
6回目の操作(ミキシング編集操作)において、ユーザは、「キーボード」、「ドラム」、及び「バス」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「M」の素材IDバーを第1トラック61に形成させ、更に、「ギター」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「J」と「K」の素材IDバーを「J」→「K」の順番で第2トラック62に形成させてから「合成」のボタンを選択している。これにより、素材IDを「M」と「JK」の2列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「N」と対応付けて音楽素材データベース15aに蓄積される。
In the fifth operation (mixing editing operation), the user performs a search using the instrument type attribute of “keyboard” as a search key, and then displays the material ID bar of the music material “H” selected from the search results. The
In the sixth operation (mixing editing operation), the user performs a search using the instrument type attributes of “keyboard”, “drum”, and “bass” as search keys, and then selects the music selected from the search results A material ID bar of the material “M” is formed on the
以上の6回の操作により、キーボード、ドラム、バス、ギターの4つの楽器パートを有する合奏曲の2小節分の演奏内容が1つのコネクトファイル「N」として取り纏められることになる。
なお、この例では、6回の操作のすべてにおいて楽器種別属性のみを検索キーとした音楽素材の検索を行っているが、ジャンル属性や雰囲気属性を検索キーとすることによって更なる絞り込み検索を行うことも可能である。
Through the above six operations, the performance contents of two measures of an ensemble having four instrument parts, keyboard, drum, bass, and guitar, are collected as one connect file “N”.
In this example, the music material is searched using only the instrument type attribute as the search key in all six operations. However, further refined search is performed using the genre attribute and atmosphere attribute as the search key. It is also possible.
図13及び図14は、再生処理を示すフローチャートである。この処理は、音楽素材編集処理のサブルーチンとして実行されるものである。
ステップ330で表示された編集画面の「再生」のボタンが選択されると、端末装置20のCPU21は、同画面の音楽素材合成欄60に入力されている各素材IDの配列を示す素材合成管理データを生成し、生成した素材合成管理データを音楽素材管理サーバ装置10へ送信する(S600)。
素材合成管理データを受信した音楽素材管理サーバ装置10のCPU11は、ユーザIDをRAM12に記憶すると共にマルチトラックシーケンス領域をRAM12の一部に確保する(S610)。このマルチトラックシーケンス領域は、第1乃至第4の4つのトラックを有するバッファである。
13 and 14 are flowcharts showing the reproduction process. This process is executed as a subroutine of the music material editing process.
When the “play” button on the editing screen displayed in step 330 is selected, the
The
CPU11は、素材合成管理データが示す素材IDの配列をマルチトラックシーケンス領域のトラックの1つに書込む(S620)。ここで、音楽素材管理サーバ装置10から送信されてくる素材合成管理データが素材IDの1つの配列だけを表すものであるときはその配列がマルチトラックシーケンス領域の第1トラックに書込まれ、2つの配列を表すものであるときはそれらの配列が同領域の第1トラックと第2トラックに夫々書込まれる。
CPU11は、ステップ620でマルチトラックシーケンス領域に書込まれた一連の素材IDのうちの1つを処理対象として特定する(S630)。
続いて、音楽素材データベース15aに記憶されたレコードの中から「素材識別子」のフィールドがステップ630で特定した素材IDと合致するレコードを特定する(S640)。
The
The
Subsequently, the record in which the “material identifier” field matches the material ID identified in
CPU11は、ステップ640で特定したレコードの「ピースファイル」のフィールドにピースファイルが記憶されているか判断する(S650)。「ピースファイル」のフィールドに「Null」が記憶されていなければこのステップの判断結果は「Yes」ということになり、「Null」が記憶されていればこのステップの判断結果は「No」ということになる。
ステップ650においてピースファイルが記憶されていると判断したCPU11は、そのピースファイルに含まれる音楽素材データを読み出し、ステップ630で特定した素材IDと置き換える(S660)。
ステップ660を実行したCPU11は、ステップ630に戻り、別の素材IDを処理対象として以降の処理を実行する。
The
The
CPU11 which performed step 660 returns to step 630, and performs subsequent processing by making another material ID into a processing target.
ステップ650においてピースファイルが記憶されていないと判断したCPU11は、ステップ640で特定したレコードの「コネクトファイル」のフィールドのコネクトファイルに含まれる素材合成管理データを読み出す(S670)。
CPU11は、ステップ670で読み出した素材合成管理データが素材IDの1つの配列を表すものであるかそれとも2つの配列を表すものであるか判断する(S680)。
ステップ680において素材合成管理データが素材IDの1つの配列を表すものであると判断したCPU11は、その配列をステップ630で特定した素材IDと置き換える(S690)。つまり、処理対象として特定された1つの音楽素材の素材IDから、その音楽素材を得るべく連結編集された複数の音楽素材の素材IDの配列を復元する。
The
The
The
ステップ680において素材合成管理データが素材IDの2つの配列を表すものであると判断したCPU11は、その一方の配列をステップ630で特定した素材IDと置き換えると共に、他方の配列を未だ素材IDの書込みがないマルチトラックシーケンス領域のトラック(以下、「空きトラック」と呼ぶ)に書込む(S700)。つまり、処理対象として特定された1つの音楽素材の素材IDから、その音楽素材を得るべくミキシング編集された複数の音楽素材の素材IDの配列を復元する。
ステップ690又はステップ700を実行したCPU11は、マルチトラックシーケンス領域の各トラックに書込まれた素材IDの全てが音楽素材データに置き換えられたか判断する(S710)。
ステップ710において、素材IDの一部が音楽素材データに置き換えられていないと判断したCPU11は、ステップ630に戻り、その素材IDを処理対象として特定してから以降の処理を実行する。
The
CPU11 which performed step 690 or step 700 judges whether all the material IDs written in each track of the multitrack sequence area have been replaced with music material data (S710).
In step 710, the
ステップ710において、素材IDの全てが音楽素材データに置き換えられたと判断したCPU11は、音楽素材データが書込まれているマルチトラックシーケンス領域のトラックの1つを処理対象として特定する(S720)。
CPU11は、ステップ720で特定したトラックに書込まれている一又は複数の音楽素材データを、その音楽素材データをデコードして得たオーディオ信号と置き換える(S730)。
ステップ730を実行したCPU11は、トラックに書込まれた全ての音楽素材データがオーディオ信号と置き換えられたか判断する(S740)。
In step 710, the
The
CPU11 which performed step 730 judges whether all the music material data written in the track | truck were replaced with the audio signal (S740).
ステップ740において、一部のトラックに書込まれた音楽素材データがオーディオ信号と置き換えられていないと判断したCPU11は、ステップ720に戻り、そのトラックを処理対象としてから以降の処理を実行する。
ステップ740において、トラックに書込まれた全ての音楽素材データがオーディオ信号に置き換えられたと判断したCPU11は、第1トラック以外のトラックに書き込まれているオーディオ信号を第1トラックへミキシングする(S750)。
In step 740, the
In step 740, the
CPU11は、第1トラックにミキシングされたオーディオ信号をエンコードして得た音楽素材データを端末装置20へ送信する(S760)。
端末装置20のCPU21は、音楽素材管理サーバ装置10から受信した音楽素材データをRAM22に記憶する(S770)。
CPU11は、RAM22に記憶した音楽素材データをエンコードして得たオーディオ信号をスピーカ28へ供給する(S780)。これにより、合奏曲の楽音がスピーカ28から放音される。
The
The
The
以上説明した処理について、具体例を参照して更に詳述する。
図15及び図16は、素材合成管理データが音楽素材管理サーバ装置10へ送信されてから新たなピースファイルが得られるまでのマルチトラックシーケンス領域の状態の遷移を示す図である。
なお、ここでの説明は、図12に示す5回目の操作(ミキシング編集操作)を行った段階で「再生」のボタンが選択され、素材ID「H」と「L」を2列に配列した素材合成管理データが音楽素材管理サーバ装置10へ送信されているものとして行う。
The processing described above will be further described in detail with reference to a specific example.
15 and 16 are diagrams showing the transition of the state of the multitrack sequence area from when the material composition management data is transmitted to the music material
In the description here, the “play” button is selected when the fifth operation (mixing editing operation) shown in FIG. 12 is performed, and the material IDs “H” and “L” are arranged in two rows. This is performed assuming that the material composition management data is transmitted to the music material
図15を参照すると、マルチトラックシーケンス領域がRAM12に確保された直後に到来するステップ620では、そのシーケンス領域の第1トラックに素材ID「H」が、第2トラックに素材ID「L」が夫々書込まれる(状態1)。
その後、素材ID「H」及び「L」を処理対象としてステップ630以降の処理が実行されることになるが、素材ID「H」は、対応するピースファイルを有しているので、ステップ650の判断結果は「YES」となり、ステップ660にてそのピースファイルに含まれる音楽素材データhと置き換えられることになる(状態2)。
一方、素材ID「L」は、対応するピースファイルを有していないので、ステップ650の判断結果は「NO」となり、対応するピースファイルが見つかるまでステップ670以降のループが繰り返されることになる。各ループが実行された状態を詳述すると、まず、第2トラックの素材ID「L」が素材ID「II」に置き換えられ、空きトラックである第3トラックに素材ID「FFFG」が書込まれる(状態3)。
Referring to FIG. 15, in step 620 that comes immediately after the multi-track sequence area is secured in the
Thereafter, the processing after
On the other hand, since the material ID “L” does not have a corresponding piece file, the determination result in step 650 is “NO”, and the loop after step 670 is repeated until the corresponding piece file is found. The state in which each loop is executed will be described in detail. First, the material ID “L” of the second track is replaced with the material ID “II”, and the material ID “FFFG” is written in the third track which is an empty track. (State 3).
更に、第2トラックの素材ID「I」は、素材ID「AAAB」に夫々置き換えられる(状態4)。
そして、最終的には、素材ID「A」に対応するコネクトファイルの音楽素材データa及び素材ID「B」に対応するコネクトファイルの音楽素材データbが第2トラックへ「aaabaaab」の順番で書込まれ、また、素材ID「F」に対応するコネクトファイルの音楽素材データf及び素材ID「G」に対応するコネクトファイルの音楽素材データgが第3トラックに「fffg」の順番で書込まれることになる(図16の状態5)。
素材IDの全てが音楽素材データに置き換えられると、ステップ720乃至ステップ740にてそれらの音楽素材データがエンコードされたオーディオ信号と置き換えられ(状態6)、更にステップ750では、全てのトラックのオーディオ信号が第1トラックにミキシングされる(状態7)。
そして、第1トラックにミキシングされた1チャネルのオーディオ信号がピースファイルの音楽素材データとして端末装置20へ送信され、同装置20のスピーカ28から3トラック分の楽音が同時期に放音されることになる。
Further, the material ID “I” of the second track is replaced with the material ID “AAAB” (state 4).
Finally, the music material data a of the connect file corresponding to the material ID “A” and the music material data b of the connect file corresponding to the material ID “B” are written to the second track in the order “aaabaab”. In addition, the music material data f of the connect file corresponding to the material ID “F” and the music material data g of the connect file corresponding to the material ID “G” are written in the order of “fffg” on the third track. (State 5 in FIG. 16).
When all the material IDs are replaced with the music material data, the music material data is replaced with the encoded audio signal at step 720 to step 740 (state 6), and further at step 750, the audio signals of all the tracks are replaced. Are mixed into the first track (state 7).
Then, a 1-channel audio signal mixed into the first track is transmitted to the
以上説明した本実施形態によると、音楽素材収録サービスを利用する各ユーザは、自らが創作する合奏曲で登場する各楽器パートの音楽素材や、或いは自身や他のユーザの創作する合奏曲で頻繁に登場するであろう汎用性の高い音楽素材をその属性と共に音楽素材管理サーバ装置10のデータベースに登録することができる。また、音楽素材編集サービスを利用するユーザは、ジャンル、雰囲気、楽器種別などの任意の属性を検索キーとして音楽素材の検索を行い、その検索結果の中から選択した音楽素材を各種編集操作を通じて合成していくことにより、自らの創作イメージに合致する合奏曲を効率的に創作することができる。
According to the present embodiment described above, each user who uses the music material recording service frequently uses music material of each instrument part that appears in the ensemble created by himself or an ensemble created by himself or another user. Can be registered in the database of the music material
(第2実施形態)
本願発明の第2実施形態について説明する。
第1実施形態の音楽素材編集サービスにおいては、編集画面の別ウィンドウとして表示される属性入力画面の各入力欄にユーザが属性を入力すると、その属性を検索キーとして音楽素材の検索が行われるようになっていた。これに対し、本実施形態では、ユーザが自らの楽器により演奏したフレーズそのものを検索キーとして音楽素材の検索を行う。
本実施形態に係る音楽素材編集システムは、音楽素材管理サーバ装置10の属性管理データベース15bのデータ構造を除いて、第1実施形態と同様のハードウェア構成となっている。
(Second Embodiment)
A second embodiment of the present invention will be described.
In the music material editing service of the first embodiment, when a user inputs an attribute in each entry field of the attribute input screen displayed as a separate window of the editing screen, the music material is searched using the attribute as a search key. It was. On the other hand, in this embodiment, the music material is searched using the phrase itself played by the user with his / her instrument as a search key.
The music material editing system according to the present embodiment has the same hardware configuration as that of the first embodiment, except for the data structure of the attribute management database 15b of the music material
図17は、属性管理データベース15bのデータ構造図である。図に示すように、このデータベースを構成する1つのレコードは、「素材識別子」、「第1属性(ジャンル)」、「第2属性(雰囲気)」、「第3属性(楽器種別)」に加えて、「第4属性(波形特徴)」のフィールドを有している。この「第4属性(波形特徴)」のフィールドには、音楽素材のオーディオ波形の特徴を表す特徴パラメータが記憶される。後の動作説明の項で詳述するように、この「第4属性(波形特徴)」のフィールドに記憶される特徴パラメータは、ユーザが収録した音楽素材のオーディオ波形を解析することによって取得される。 FIG. 17 is a data structure diagram of the attribute management database 15b. As shown in the figure, one record constituting this database includes “material identifier”, “first attribute (genre)”, “second attribute (atmosphere)”, and “third attribute (instrument type)”. And a field of “fourth attribute (waveform feature)”. In the field of “fourth attribute (waveform feature)”, a feature parameter representing the feature of the audio waveform of the music material is stored. As will be described in detail later in the description of the operation, the feature parameter stored in the “fourth attribute (waveform feature)” field is obtained by analyzing the audio waveform of the music material recorded by the user. .
次に、本実施形態の動作を説明する。
本実施形態の動作は、音楽素材収録処理と音楽素材編集処理とに大別することができる。
図18は、本実施形態の音楽素材収録処理を示すフローチャートである。図においては、ステップ260を実行した後の内容が図5と異なる。
図に示すステップ260にて属性データを記憶した音楽素材管理サーバ装置10のCPU11は、ステップ160にて端末装置20から送信されてきた音楽素材データが表すオーディオ信号に所定の解析処理を施すことにより、そのオーディオ波形の特徴を表す特徴パラメータを取得する(S261)。
続いて、CPU11は、ステップ250にて追加したレコードの「第4属性(波形特徴)」のフィールドへステップ261で取得した特徴パラメータを記憶する(S262)。
特徴パラメータが記憶された後、図5に示すステップ270以降と同様の処理が実行される。
Next, the operation of this embodiment will be described.
The operation of this embodiment can be roughly divided into music material recording processing and music material editing processing.
FIG. 18 is a flowchart showing the music material recording process of the present embodiment. In the figure, the contents after executing step 260 are different from those in FIG.
The
Subsequently, the
After the feature parameters are stored, processing similar to that after step 270 shown in FIG. 5 is executed.
図19は、本実施形態における音楽素材編集処理を示すフローチャートである。図においては、ステップ340乃至ステップ360の内容が図8と異なる。
図6に示すステップ340において、音楽素材管理サーバ装置10のCPU11は、属性入力画面を編集画面上の別ウィンドウとして表示させるが、この属性入力画面には、「音楽素材の検索キーとする属性を入力して下さい。」という内容の文字列に加えて、「実際の演奏音を検索キーとする場合は、オーディオインターフェースに接続した楽器から演奏音を入力してください。」という内容の文字列が表示される。
属性入力画面を参照したユーザは、音楽素材の検索キーとする属性を同画面の一つ以上の入力欄に入力するか、オーディオインターフェース27に接続した楽器を演奏することにより、検索キーとなる演奏音を入力する。
入力欄に属性が入力されると、図6に示すステップ350以降と同様の処理が実行される。
一方、演奏音が入力されると、端末装置20のCPU21は、その演奏音のオーディオ信号をエンコードして得た音楽素材データを音楽素材管理サーバ装置10へ送信する(S351)。
FIG. 19 is a flowchart showing music material editing processing in the present embodiment. In the figure, the contents of steps 340 to 360 are different from those in FIG.
In step 340 shown in FIG. 6, the
The user who has referred to the attribute input screen inputs an attribute to be used as a search key for the music material into one or more input fields on the screen, or plays a musical instrument connected to the
When an attribute is entered in the input field, processing similar to that in
On the other hand, when the performance sound is input, the
音楽素材データを受信した音楽素材管理サーバ装置10のCPU11は、受信した音楽素材データをエンコードして得たオーディオ信号を解析することにより、そのオーディオ波形の特徴を表す特徴パラメータを取得する(S352)。
続いて、CPU11は、ステップ352で取得した特徴パラメータと属性管理データベース15bの各レコードの「第4属性(波形特徴)」のフィールドの記憶内容とを順次照合することによって、検索キーとして演奏された演奏音の波形の特徴により近い特徴パラメータを記憶した所定数(例えば「10」)のレコードを特定する(S361)。
レコードが特定されると、図7に示すステップ370以降と同様の処理が実行され、検索キーとして入力された演奏音により近い音楽素材が検索結果として提示されることになる。
The
Subsequently, the
When the record is specified, the same processing as that after step 370 shown in FIG. 7 is executed, and the music material closer to the performance sound input as the search key is presented as the search result.
本実施形態によると、音楽素材の検索キーとして楽器の演奏音を用いることができるので、音楽素材編集サービスを利用するユーザは、自らの創作イメージに合致する合奏曲をより効率的に創作することができる。 According to this embodiment, since the performance sound of an instrument can be used as a search key for music material, a user using a music material editing service can more efficiently create an ensemble that matches his creation image. Can do.
(他の実施形態)
本実施形態は、種々の変形実施が可能である。
第1実施形態では、ジャンル、雰囲気、楽器種類の3つの属性を検索キーとして音楽素材の検索が行われるようになっていたが、拍子、テンポ、スケール、小節数などの他の属性を検索キーとして検索を行えるようにしてもよい。
上記実施形態では、編集画面の音楽素材合成欄60が第1トラック61と第2トラック62の2つのトラックを有していたが、より多くのトラックを設けてもよい。この変形例によれば、より多くの音楽素材の素材IDの並びをミキシング編集操作によって一度に合成することができる。また、音楽素材管理サーバ装置10のRAM12に確保されるマルチトラックシーケンス領域は4つのトラックを有していたが、より多くのトラック数を有していてもよい。
上記実施形態の音楽素材収録サービスにおいては、端末装置20のオーディオインターフェース27と接続した楽器をユーザ自らが演奏することによって音楽素材のオーディオ信号を取得していたが、オーディオインターフェース27に音源を接続し、その音源を制御することによって音楽素材のオーディオ信号を取得してもよい。
上記実施形態の再生処理では、マルチトラックシーケンス領域の各トラックに書込まれた音楽素材データをオーディオ信号に置き換えた後、それらのオーディオ信号を第1トラックにミキシングしてから端末装置20へ提供していたが、端末装置20が2つのチャネルのオーディオ信号を処理可能であれば、2つのチャネルのオーディオ信号にミキシングしてから端末装置20へ提供してもよい。或いは、マルチトラックシーケンス領域の各トラックに書き込まれている音楽素材データの楽器パートを端末装置20にまず提示し、それらのうちからユーザが選択した2つの楽器パートのオーディオ信号だけを端末装置20へ提供するようにしてもよい。
上記実施形態は、複数のユーザによる利用を想定して音楽素材管理サーバ装置10をネットワーク30上に設置し、そのサーバ装置がユーザの端末装置20からの要求に応じて音楽素材収録サービスと音楽素材編集サービスの両サービスを提供する態様を説明したが、スタンドアロンのコンピュータ装置によってこれらの両サービスを提供してもよい。
第2実施形態では、楽器の楽音そのものを検索キーとして音楽素材の検索を行っていたが、人間の発した音声を検索キーとして音楽素材の検索を行なってもよい。
(Other embodiments)
This embodiment can be modified in various ways.
In the first embodiment, the music material is searched using the three attributes of genre, atmosphere, and instrument type as search keys, but other attributes such as time signature, tempo, scale, and number of bars are searched. The search may be performed as follows.
In the above embodiment, the music
In the music material recording service of the above embodiment, the audio signal of the music material is acquired by the user himself / herself playing a musical instrument connected to the
In the reproduction processing of the above embodiment, after the music material data written in each track of the multi-track sequence area is replaced with an audio signal, the audio signal is mixed with the first track and then provided to the
In the above embodiment, the music material
In the second embodiment, the music material is searched using the musical tone itself as a search key. However, the music material may be searched using a human voice as a search key.
10…音楽素材管理サーバ装置、11,21…CPU、12,22…RAM、13,33…ROM、14,26…通信インターフェース、15,29…ハードディスク、20…端末装置、24…マウス、25…コンピュータディスプレイ、27…オーディオインターフェース、28…スピーカ、30…ネットワーク、50…音楽素材提示欄、51,63…スクロールバー、60…音楽素材合成欄
DESCRIPTION OF
Claims (3)
音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、
操作子と
を備えるシステムを用いた音楽素材編集方法であって、
音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力工程と、
前記検索キー入力工程にて入力された属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索工程と、
前記出力された各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示工程と、
前記音楽素材合成指示工程にて選択された複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積工程と、
前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録工程と、
再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択工程と、
前記再生対象選択工程にて選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出工程と、
前記読出工程にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力工程と
を有する音楽素材編集方法。 Each piece file including the material identifier of the music material and the music material data representing the audio signal of the music material is stored, and continued for a length of time corresponding to part or all of the performance section of the ensemble. The material identifier of the synthetic music material that is the music material obtained by combining the music materials to be performed in parallel or in parallel, and the performance content of the synthetic music material, the material identifier of each music material to be played in succession or in parallel File storage means for storing each connect file including material composition management data represented as one or a plurality of columns,
Attribute storage means for storing material identifiers of music materials and attribute data representing attributes of the music materials in association with each other;
A music material editing method using a system including an operator,
A search key input step of inputting one or more attributes as a search key for music material in accordance with the operation of the operator;
A search step of reading a material identifier stored in the attribute storage means in association with attribute data representing a common attribute with the attribute input in the search key input step, and outputting the read material identifier as a search result;
From the output material identifiers, a material identifier of a plurality of music materials to be played continuously or continuously for a certain length of time is selected according to the operation of the operator, and the plurality of selected music materials are selected. A music material composition instruction step for inputting the attributes of the composite music material obtained in a collective manner according to the operation of the operator;
A material identifier unique to a synthetic music material obtained by collecting a plurality of music materials selected in the music material composition instruction step, and a material representing the selected material identifiers as one or a plurality of columns A connect file accumulating step for generating a composition management data and storing a new connect file including the generated material identifier and material composition management data in the file storage means;
An attribute registration step of associating the generated material identifier with attribute data representing the input attribute and storing the attribute data in the attribute storage unit;
A reproduction target selection step of selecting a synthetic music material to be reproduced according to the operation of the operation element;
A connect file including the material identifier of the synthetic music material selected in the reproduction target selection step is read from the file storage means and associated with each of a series of material identifiers represented by the material composition management data included in the read connect file. A reading step of reading the piece file stored in the file storage means;
A music material comprising: a signal output step of outputting an audio signal obtained by connecting, mixing, or both of audio signals represented by each piece of music material data included in the piece file read in the reading step Editing method.
前記属性データは、音楽素材の属性の一つであるオーディオ波形の特徴を表すデータであり、
前記検索キー入力工程は、
音楽素材のキーとする音声又は楽音を所定の収音デバイスを介して入力する工程を有し、
前記検索工程は、
前記入力された音声又は楽音のオーディオ波形の特徴を解析し、その解析の結果に近い属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出す工程を有する
音楽素材編集方法。 The music material editing method according to claim 1,
The attribute data is data representing the characteristics of an audio waveform that is one of the attributes of music material,
The search key input step includes:
A step of inputting voice or musical sound as a key of music material through a predetermined sound collecting device;
The search step includes
A music material editing method comprising: analyzing characteristics of an audio waveform of the input voice or musical sound, and reading a material identifier stored in the attribute storage means in association with attribute data close to the result of the analysis.
音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、
操作子と、
音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力手段と、
前記検索キー入力手段が入力した属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索手段と、
前記出力した各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示手段と、
前記音楽素材合成指示手段が選択した複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積手段と、
前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録手段と、
再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択手段と、
前記再生対象選択手段が選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出手段と、
前記読出手段にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力手段と
を備える音楽素材編集システム。 Each piece file including the material identifier of the music material and the music material data representing the audio signal of the music material is stored, and continued for a length of time corresponding to part or all of the performance section of the ensemble. The material identifier of the synthetic music material that is the music material obtained by combining the music materials to be performed in parallel or in parallel, and the performance content of the synthetic music material, the material identifier of each music material to be played in succession or in parallel File storage means for storing each connect file including material composition management data represented as one or a plurality of columns,
Attribute storage means for storing material identifiers of music materials and attribute data representing attributes of the music materials in association with each other;
An operator,
Search key input means for inputting one or more attributes as search keys for music material according to the operation of the operator;
A search means for reading out a material identifier stored in the attribute storage means in association with attribute data representing an attribute common to the attribute input by the search key input means, and outputting the read material identifier as a search result;
From the output material identifiers, a material identifier of a plurality of music materials to be played continuously or continuously for a certain length of time is selected according to the operation of the operator, and the selected plurality of music materials are collected. Music material composition instruction means for inputting the attribute of the synthetic music material obtained in accordance with the operation of the operator,
A material identifier unique to a synthetic music material obtained by collecting a plurality of music materials selected by the music material composition instruction means, and a material composition management representing the selected material identifiers as one or a plurality of columns Connect file storage means for generating data and storing a new connect file including the generated material identifier and material composition management data in the file storage means;
Attribute registration means for associating and storing the generated material identifier and attribute data representing the input attribute in the attribute storage means;
Reproduction target selection means for selecting a synthetic music material to be reproduced according to the operation of the operation element;
The connect file including the material identifier of the synthetic music material selected by the reproduction target selection unit is read from the file storage unit, and is associated with each of a series of material identifiers represented by the material composition management data included in the read connect file. Reading means for reading the piece file stored in the file storage means;
Music material comprising: signal output means for outputting an audio signal obtained by connecting, mixing, or both of audio signals represented by music material data included in the piece file read by the reading means Editing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005317278A JP4670591B2 (en) | 2005-10-31 | 2005-10-31 | Music material editing method and music material editing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005317278A JP4670591B2 (en) | 2005-10-31 | 2005-10-31 | Music material editing method and music material editing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007121935A true JP2007121935A (en) | 2007-05-17 |
JP4670591B2 JP4670591B2 (en) | 2011-04-13 |
Family
ID=38145815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005317278A Expired - Fee Related JP4670591B2 (en) | 2005-10-31 | 2005-10-31 | Music material editing method and music material editing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4670591B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010008518A (en) * | 2008-06-24 | 2010-01-14 | Sony Computer Entertainment Inc | Music production apparatus, method of producing music, and program |
JP2010243892A (en) * | 2009-04-08 | 2010-10-28 | Yamaha Corp | Sound search device and program |
JP2010271398A (en) * | 2009-05-19 | 2010-12-02 | Yamaha Corp | Sound material retrieval device |
WO2011151919A1 (en) * | 2010-06-04 | 2011-12-08 | パイオニア株式会社 | Performance data presentation system |
WO2011155062A1 (en) * | 2010-06-11 | 2011-12-15 | パイオニア株式会社 | Performance generation system |
CN102354498A (en) * | 2011-08-17 | 2012-02-15 | 深圳市茁壮网络股份有限公司 | Method, device and system for processing mixed sound |
JP2012247957A (en) * | 2011-05-26 | 2012-12-13 | Yamaha Corp | Data retrieval device and program |
JP2013076941A (en) * | 2011-09-30 | 2013-04-25 | Xing Inc | Musical piece playback system and device and musical piece playback method |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149243A (en) * | 1992-11-12 | 1994-05-27 | Yamaha Corp | Electronic musical instrument |
JPH09230880A (en) * | 1996-02-26 | 1997-09-05 | Yamaha Corp | Karaoke device |
JPH11109970A (en) * | 1997-09-30 | 1999-04-23 | Kawai Musical Instr Mfg Co Ltd | Electronic musical instrument |
JP2001109471A (en) * | 1999-10-12 | 2001-04-20 | Nippon Telegr & Teleph Corp <Ntt> | Music retrieval device, music retrieval method and recording medium recording music retrieval program |
JP2001296865A (en) * | 2000-04-10 | 2001-10-26 | Mudix Inc | Music management database system and music cooperative production support system |
JP2002258844A (en) * | 2001-03-05 | 2002-09-11 | Yamaha Corp | Musical sound playing device |
JP2003224630A (en) * | 2001-10-05 | 2003-08-08 | Motorola Inc | Mobile wireless communication handset with sound mixer and method therefor |
JP2004117632A (en) * | 2002-09-25 | 2004-04-15 | Matsushita Electric Ind Co Ltd | Play list generator, music player, music delivery system, method therefor, program, and recording medium |
JP2004171019A (en) * | 1998-09-09 | 2004-06-17 | Yamaha Corp | Automatic composing device and memory medium |
JP2004279756A (en) * | 2003-03-17 | 2004-10-07 | Yamaha Corp | Device and program for using content related to sound or musical sound |
JP2005241876A (en) * | 2004-02-25 | 2005-09-08 | Yamaha Corp | Performance control data generating device, music material data distribution server, and program |
JP2007525779A (en) * | 2003-07-03 | 2007-09-06 | トムソン ライセンシング | Method for patrol in audio document set using graphical interface and receiver for patrol by the method |
-
2005
- 2005-10-31 JP JP2005317278A patent/JP4670591B2/en not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149243A (en) * | 1992-11-12 | 1994-05-27 | Yamaha Corp | Electronic musical instrument |
JPH09230880A (en) * | 1996-02-26 | 1997-09-05 | Yamaha Corp | Karaoke device |
JPH11109970A (en) * | 1997-09-30 | 1999-04-23 | Kawai Musical Instr Mfg Co Ltd | Electronic musical instrument |
JP2004171019A (en) * | 1998-09-09 | 2004-06-17 | Yamaha Corp | Automatic composing device and memory medium |
JP2001109471A (en) * | 1999-10-12 | 2001-04-20 | Nippon Telegr & Teleph Corp <Ntt> | Music retrieval device, music retrieval method and recording medium recording music retrieval program |
JP2001296865A (en) * | 2000-04-10 | 2001-10-26 | Mudix Inc | Music management database system and music cooperative production support system |
JP2002258844A (en) * | 2001-03-05 | 2002-09-11 | Yamaha Corp | Musical sound playing device |
JP2003224630A (en) * | 2001-10-05 | 2003-08-08 | Motorola Inc | Mobile wireless communication handset with sound mixer and method therefor |
JP2004117632A (en) * | 2002-09-25 | 2004-04-15 | Matsushita Electric Ind Co Ltd | Play list generator, music player, music delivery system, method therefor, program, and recording medium |
JP2004279756A (en) * | 2003-03-17 | 2004-10-07 | Yamaha Corp | Device and program for using content related to sound or musical sound |
JP2007525779A (en) * | 2003-07-03 | 2007-09-06 | トムソン ライセンシング | Method for patrol in audio document set using graphical interface and receiver for patrol by the method |
JP2005241876A (en) * | 2004-02-25 | 2005-09-08 | Yamaha Corp | Performance control data generating device, music material data distribution server, and program |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010008518A (en) * | 2008-06-24 | 2010-01-14 | Sony Computer Entertainment Inc | Music production apparatus, method of producing music, and program |
JP4651055B2 (en) * | 2008-06-24 | 2011-03-16 | 株式会社ソニー・コンピュータエンタテインメント | Music generating apparatus, music generating method, and program |
JP2010243892A (en) * | 2009-04-08 | 2010-10-28 | Yamaha Corp | Sound search device and program |
JP2010271398A (en) * | 2009-05-19 | 2010-12-02 | Yamaha Corp | Sound material retrieval device |
WO2011151919A1 (en) * | 2010-06-04 | 2011-12-08 | パイオニア株式会社 | Performance data presentation system |
JP5506002B2 (en) * | 2010-06-04 | 2014-05-28 | パイオニア株式会社 | Performance data presentation system |
WO2011155062A1 (en) * | 2010-06-11 | 2011-12-15 | パイオニア株式会社 | Performance generation system |
JP2012247957A (en) * | 2011-05-26 | 2012-12-13 | Yamaha Corp | Data retrieval device and program |
CN102354498A (en) * | 2011-08-17 | 2012-02-15 | 深圳市茁壮网络股份有限公司 | Method, device and system for processing mixed sound |
JP2013076941A (en) * | 2011-09-30 | 2013-04-25 | Xing Inc | Musical piece playback system and device and musical piece playback method |
Also Published As
Publication number | Publication date |
---|---|
JP4670591B2 (en) | 2011-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4670591B2 (en) | Music material editing method and music material editing system | |
US8173883B2 (en) | Personalized music remixing | |
JP2010518459A (en) | Web portal for editing distributed audio files | |
JP4926756B2 (en) | Karaoke sound effect output system | |
US20080190270A1 (en) | System and method for online composition, and computer-readable recording medium therefor | |
KR20060049070A (en) | Electronic musical apparatus for reproducing received music content | |
JP2000056756A (en) | Support apparatus for musical instrument training and record medium of information for musical instrument training | |
JP2012018282A (en) | Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method | |
JP6733240B2 (en) | How to update the content list | |
JP2007071903A (en) | Musical piece creation support device | |
JP2007122634A (en) | Method and system for calculating charge for using musical material | |
JP4670540B2 (en) | Music material editing method, material editing method and music material editing system | |
JP4581965B2 (en) | Music material processing method and music material processing system | |
JP4740583B2 (en) | Music data processing apparatus and program | |
JP2005345559A (en) | Karaoke system having parody performance function | |
JP4498221B2 (en) | Karaoke device and program | |
JP4315101B2 (en) | Music content providing apparatus and program | |
JP4305315B2 (en) | Automatic performance data characteristic changing device and program thereof | |
JP4613924B2 (en) | Song editing apparatus and program | |
JP6611633B2 (en) | Karaoke system server | |
JP4407419B2 (en) | Electronic music equipment | |
JPH11344975A (en) | Musical performance information preparing and displaying device and record medium therefor | |
JP6699137B2 (en) | Data management device, content playback device, content playback method, and program | |
JP5387032B2 (en) | Electronic music apparatus and program | |
KR100666010B1 (en) | Arrangement system of a music using the internet, the method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110103 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4670591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |