JP2007121935A - Method and system for editing music material - Google Patents

Method and system for editing music material Download PDF

Info

Publication number
JP2007121935A
JP2007121935A JP2005317278A JP2005317278A JP2007121935A JP 2007121935 A JP2007121935 A JP 2007121935A JP 2005317278 A JP2005317278 A JP 2005317278A JP 2005317278 A JP2005317278 A JP 2005317278A JP 2007121935 A JP2007121935 A JP 2007121935A
Authority
JP
Japan
Prior art keywords
music
attribute
music material
identifier
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005317278A
Other languages
Japanese (ja)
Other versions
JP4670591B2 (en
Inventor
Noriyuki Hata
紀行 畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005317278A priority Critical patent/JP4670591B2/en
Publication of JP2007121935A publication Critical patent/JP2007121935A/en
Application granted granted Critical
Publication of JP4670591B2 publication Critical patent/JP4670591B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To speedily and securely extract a music material matching an image of a user most from a database wherein music materials used to create music are collected. <P>SOLUTION: Music materials obtained from various musical instruments are stored in the database while being associated with properties (genres, atmospheres, musical instrument kinds, etc.) specified by the music materials. When the user who creates music specifies a property as a key, a specified number of music materials having the property are extracted and selected by the user. The user create concert music by connecting or mixing selected music materials. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、音楽素材編集方法に関する。   The present invention relates to a music material editing method.

各種楽器の演奏音から得た複数の音楽素材を合成して1つの合奏曲を創作できるようにした作曲支援システムが提案されている(音楽素材の合成技術については、特許文献1等を参照)。この種のシステムの多くは、各種音楽素材のオーディオデータを集めたデータベースを有している。そして、楽曲の創作を行うユーザは、データベースから所望の音楽素材を選択して並べることにより自らの創作イメージに合致する楽曲を作り上げることができるようになっている。
特開平11−327550号公報
There has been proposed a music composition support system that can create a single ensemble by synthesizing a plurality of music materials obtained from the performance sounds of various instruments (refer to Patent Document 1 and the like for music material synthesis technology). . Many of this type of system has a database that collects audio data of various music materials. A user who creates music can select a desired music material from a database and arrange it to create a music that matches his / her creative image.
JP-A-11-327550

上述した作曲支援システムを利用した創作の自由度を高めるには、様々な音色、リズム、テンポ、キーの楽音を収録して得た音楽素材を集めてデータベースの記憶内容を充実させることが必要である。しかしながら、データベースに記憶する音楽素材のレパートリーが膨大になればなるほど、その中からユーザの創作イメージに合致する音楽素材を探すのに多くの労力が強いられるという問題も生じ得る。
本発明は、このような背景の下に案出されたものであり、楽曲の創作に用いる音楽素材を纏めたデータベースより、ユーザのイメージに最もマッチする音楽素材を迅速且つ確実に抽出できるような仕組みを提供することを目的とする。
In order to increase the degree of freedom of creation using the composition support system described above, it is necessary to enrich the stored contents of the database by collecting music materials obtained by recording musical sounds of various tones, rhythms, tempos, and keys. is there. However, as the repertoire of music materials stored in the database becomes enormous, there may be a problem that much effort is required to search for music materials that match the user's creative image.
The present invention has been devised under such a background, and it is possible to quickly and reliably extract music material that best matches the user's image from a database of music materials used for creating music. The purpose is to provide a mechanism.

本発明の好適な態様である音楽素材編集方法は、音楽素材の素材識別子と、その音楽素材のオーディオ信号を表す音楽素材データとを夫々含んだ各ピースファイルを記憶すると共に、合奏曲の一部又は全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データとを夫々含んだ各コネクトファイルを記憶するファイル記憶手段と、音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、操作子とを備えるシステムを用いた音楽素材編集方法であって、音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力工程と、前記検索キー入力工程にて入力された属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索工程と、前記出力された各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示工程と、前記音楽素材合成指示工程にて選択された複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積工程と、前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録工程と、再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択工程と、前記再生対象選択工程にて選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出工程と、前記読出工程にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力工程とを有する。   A music material editing method according to a preferred embodiment of the present invention stores each piece file including a material identifier of a music material and music material data representing an audio signal of the music material, and a part of an ensemble Alternatively, the material identifier of the synthetic music material, which is the music material obtained by combining the music materials to be performed continuously or in parallel during the time length corresponding to the entire performance section, and the performance content of the synthetic music material, File storage means for storing each connect file including material composition management data represented as one or a plurality of columns composed of material identifiers of music materials to be played in succession or in parallel, and material identifiers of the music materials And a music material editing method using a system comprising attribute storage means for storing attribute data representing the attributes of the music material in association with each other, and an operator. A search key input step for inputting one or a plurality of attributes as a material search key in accordance with the operation of the operator, and an attribute data representing an attribute common to the attribute input in the search key input step A search step of reading the material identifier stored in the attribute storage means, and outputting the read material identifier as a search result, and performing continuously or continuously for a certain length of time from each of the output material identifiers A music material composition instruction step of selecting material identifiers of a plurality of music materials to be operated according to the operation of the operation element, and inputting attributes of a composite music material obtained by collecting the plurality of selected music materials according to the operation of the operation element; A material identifier unique to the synthetic music material obtained by collecting a plurality of music materials selected in the music material synthesis instruction step, and the selection A connect file that generates material composition management data representing the plurality of material identifiers as one or a plurality of columns and stores a new connect file including the generated material identifier and material composition management data in the file storage means An accumulation step; an attribute registration step of associating the generated material identifier with attribute data representing the input attribute and storing the attribute data in the attribute storage means; and operating the operator with a synthetic music material to be played back A connection target including a reproduction target selection step selected according to the method and a material identifier of the synthetic music material selected in the reproduction target selection step is read from the file storage means, and a series of material composition management data included in the read connect file represents The piece file stored in the file storage means in association with each of the material identifiers is read. And a signal output step of outputting an audio signal obtained by connecting, mixing, or both of the audio signals represented by the music material data included in the piece file read in the reading step And have.

この態様において、前記属性データは、音楽素材の属性の一つであるオーディオ波形の特徴を表すデータであり、前記検索キー入力工程は、音楽素材のキーとする音声又は楽音を所定の収音デバイスを介して入力する工程を有し、前記検索工程は、前記入力された音声又は楽音のオーディオ波形の特徴を解析し、その解析の結果に近い属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出す工程を有してもよい。   In this aspect, the attribute data is data representing characteristics of an audio waveform that is one of the attributes of music material, and the search key input step includes a predetermined sound collecting device that uses a sound or a musical sound as a key of the music material The search step analyzes the characteristics of the audio waveform of the input voice or musical sound and stores it in the attribute storage means in association with attribute data close to the result of the analysis. There may be a step of reading the material identifier.

本発明の別の好適な態様である音楽素材編集システムは、音楽素材の素材識別子と、その音楽素材のオーディオ信号を表す音楽素材データとを夫々含んだ各ピースファイルを記憶すると共に、合奏曲の一部又は全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データとを夫々含んだ各コネクトファイルを記憶するファイル記憶手段と、音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、操作子と、音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力手段と、前記検索キー入力手段が入力した属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索手段と、前記出力した各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示手段と、前記音楽素材合成指示手段が選択した複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積手段と、前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録手段と、再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択手段と、前記再生対象選択手段が選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出手段と、前記読出手段にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力手段とを備える。   A music material editing system according to another preferred embodiment of the present invention stores piece files each including a material identifier of a music material and music material data representing an audio signal of the music material, The material identifier of the composite music material, which is the music material obtained by combining the music materials to be played continuously or in parallel during the length of time corresponding to a part or all of the performance section, and the performance contents of the composite music material A file storage means for storing each connect file each including material composition management data represented as one or a plurality of columns comprising material identifiers of the music materials to be played in succession or in parallel; One or more attributes used as attribute storage means storing attribute identifiers and attribute data representing the attributes of the music material in association with each other, an operator, and a search key for the music material A search key input means for inputting in accordance with the operation of the recording operator, and a material identifier stored in the attribute storage means in association with attribute data representing an attribute common to the attribute input by the search key input means is read and read A search means for outputting a material identifier as a search result, and material identifiers of a plurality of music materials to be played continuously or continuously for a certain length of time among the output material identifiers according to the operation of the operator A music material composition instruction means for inputting an attribute of a composite music material obtained by combining the plurality of selected music materials according to the operation of the operator, and a plurality of music materials selected by the music material composition instruction means. The material identifier unique to the synthetic music material obtained by combining and the plurality of selected material identifiers are displayed as one or more columns. Connected file storage means for generating material composition management data and storing a new connect file including the created material identifier and material composition management data in the file storage means, the created material identifier and the input attribute Attribute registering means for associating attribute data representing the attribute data with the attribute storage means, reproduction target selection means for selecting a synthetic music material to be reproduced according to the operation of the operator, and reproduction target selection means A connect file including the material identifier of the selected synthetic music material is read from the file storage means, and stored in the file storage means in association with each of a series of material identifiers represented by the material composition management data included in the read connect file. Read means for reading the piece file, and piece file read by the read means Audio signal represented by each piece of music material data included in the file is connected, mixed, or both, and a signal output means for outputting an audio signal obtained by performing both.

本発明によると、楽曲の創作に用いる音楽素材を纏めたデータベースより、ユーザのイメージに最もマッチする音楽素材を迅速且つ確実に抽出することができる。   According to the present invention, it is possible to quickly and reliably extract a music material that most closely matches the user's image from a database in which music materials used for music composition are collected.

(第1実施形態)
本願発明の第1実施形態について説明する。
本実施形態は、複数の楽器パートからなる合奏曲の創作を行う各ユーザに対して以下の2つのサービスを提供することを特徴とする。
(1)音楽素材収録サービス
このサービスは、各種楽器から得た比較的短いフレーズの楽音(以下、この楽音を「音楽素材」と呼ぶ)のデータファイルとそれらの音楽素材毎に指定された属性(ジャンル、雰囲気、楽器種別など)の登録要求を各ユーザから受け付け、それらのデータファイルと属性とを纏めてサーバ装置のデータベースに蓄積するサービスである。
(2)音楽素材編集サービス
このサービスは、楽曲の創作を行うユーザから検索キーとなる属性の指定を受け付けてその属性を有する音楽素材をデータベースから検索し、検索された音楽素材をユーザの編集操作に従って連結し及びミキシングしていくことによってオリジナルの合奏曲を創作させるサービスである。
(First embodiment)
A first embodiment of the present invention will be described.
This embodiment is characterized in that the following two services are provided to each user who creates an ensemble composed of a plurality of instrument parts.
(1) Music material recording service This service provides data files of relatively short phrases (hereinafter referred to as “music material”) obtained from various musical instruments and attributes designated for each music material ( This is a service that accepts registration requests for each category (genre, atmosphere, instrument type, etc.) from each user and accumulates the data files and attributes in a database of the server device.
(2) Music material editing service This service accepts designation of an attribute as a search key from a user who creates a song, searches a database for a music material having the attribute, and edits the searched music material by a user It is a service that creates original ensembles by connecting and mixing according to.

図1は、本実施形態にかかる音楽素材編集システムの全体構成を示すブロック図である。本システムは、音楽素材管理サーバ装置10と端末装置20をネットワーク30を介して接続してなる。図には端末装置20を1つしか記していないが、複数の端末装置20を有してもよい。図に示すように、音楽素材管理サーバ装置10は、各種制御を行うCPU11、ワークエリアを提供するRAM12、IPL(Initial Program Loader)を記憶したROM13、通信インターフェース14、ハードディスク15などを備える。
ハードディスク15は、音楽素材データベース15a、属性管理データベース15b、及び音楽素材管理プログラム15cを記憶する。
FIG. 1 is a block diagram showing the overall configuration of the music material editing system according to the present embodiment. In this system, a music material management server device 10 and a terminal device 20 are connected via a network 30. Although only one terminal device 20 is shown in the figure, a plurality of terminal devices 20 may be provided. As shown in the figure, the music material management server device 10 includes a CPU 11 that performs various controls, a RAM 12 that provides a work area, a ROM 13 that stores an IPL (Initial Program Loader), a communication interface 14, a hard disk 15, and the like.
The hard disk 15 stores a music material database 15a, an attribute management database 15b, and a music material management program 15c.

音楽素材データベース15aは、各々が1つの音楽素材と対応する複数のレコードの集合体である。このデータベースを構成する1つのレコードは、「素材識別子」、「ピースファイル」、及び「コネクトファイル」の3つのフィールドを有している。「素材識別子」のフィールドには、各音楽素材を固有に識別する識別子である素材IDが記憶される。また、「ピースファイル」のフィールドにはピースファイルが、「コネクトファイル」のフィールドにはコネクトファイルが夫々記憶される。ここで、これらの両フィールドに夫々記憶されるピースファイルとコネクトファイルについて概説しておく。   The music material database 15a is an aggregate of a plurality of records each corresponding to one music material. One record constituting this database has three fields of “material identifier”, “piece file”, and “connect file”. The “material identifier” field stores a material ID that is an identifier for uniquely identifying each music material. Also, a piece file is stored in the “piece file” field, and a connect file is stored in the “connect file” field. Here, an outline of the piece file and the connect file stored in both of these fields will be given.

図2(a)に示すように、ピースファイルには、音楽素材データ、再生時間長データ、素材ID、及びユーザIDが内包される。音楽素材データは、音楽素材のオーディオ信号をエンコードして得た符号列を表すデータである。再生時間長データは音楽素材の再生時間長を表すデータであり、「1小節」、「1/2小節」、「1/4小節」、「2小節」といったように、合奏曲の1小節の長さを基準とする相対値によって音楽素材の再生時間長を表す。素材IDは、音楽素材を識別する識別子であり、その内容は「素材識別子」のフィールドに記憶された同IDと一致する。ユーザIDは、ユーザを識別する識別子である。   As shown in FIG. 2A, the piece file includes music material data, reproduction time length data, material ID, and user ID. The music material data is data representing a code string obtained by encoding an audio signal of music material. The playback time length data is data representing the playback time length of the music material, such as “1 bar”, “1/2 bar”, “1/4 bar”, “2 bar”, etc. The reproduction time length of the music material is represented by a relative value based on the length. The material ID is an identifier for identifying the music material, and its content matches the ID stored in the “material identifier” field. The user ID is an identifier for identifying the user.

図2(b)に示すように、コネクトファイルには、素材合成管理データ、再生時間長データ、素材ID、及びユーザIDが内包される。再生時間長データ、素材ID、ユーザIDの内容はピースファイルと同様なので再度の説明を割愛する。素材合成管理データは、楽曲の全部又は一部の演奏区間に相当する時間長の間に連続して又は並行して演奏される音楽素材の演奏内容を、それらの音楽素材の素材IDより成る1つ又は2つの列として表したシーケンスデータである。
ピースファイル及びコネクトファイルは、冒頭に示した音楽素材収録サービス及び音楽素材編集サービスを利用する端末装置20からの要求に応じて生成されるが、その生成手順の詳細は後の動作説明の項で説明する。
As shown in FIG. 2B, the connect file includes material composition management data, reproduction time length data, material ID, and user ID. Since the contents of the reproduction time length data, material ID, and user ID are the same as those of the piece file, description thereof will be omitted. The material composition management data includes the performance contents of music materials that are played continuously or in parallel during the length of time corresponding to all or part of the performance section of the music, and is composed of the material IDs of those music materials. Sequence data represented as one or two columns.
The piece file and the connect file are generated in response to a request from the terminal device 20 using the music material recording service and the music material editing service shown at the beginning. Details of the generation procedure will be described later in the description of the operation. explain.

図1において、属性管理データベース15bは、各々が1つの音楽素材と対応する複数のレコードの集合体である。図3に示すように、このデータベースを構成する1つのレコードは、「素材識別子」、「第1属性(ジャンル)」、「第2属性(雰囲気)」、及び「第3属性(楽器種別)」の4つのフィールドを有している。「素材識別子」のフィールドには、各音楽素材の素材IDが記憶される。「第1属性(ジャンル)」のフィールドには、「ロック」、「ポップス」、「ジャズ」、「クラシック」、「ダンス」、「民族音楽」、「その他」といったジャンルの属性を表す第1属性データが記憶される。「第2属性(雰囲気)」のフィールドには、「元気な」、「都会的な」、「クリーンな」、「激しい」、「静かな」といった雰囲気の属性を表す第2属性データが記憶される。「第3属性(楽器種別)」のフィールドには、「ドラム」、「ギター」、「バス」、「キーボード」、「パーカッション」、「トランペット」といった楽器種別の属性を表す第3属性データが記憶される。後の動作説明の項で詳述するように、これら「第1属性(ジャンル)」、「第2属性(雰囲気)」、「第3属性(楽器種別)」のフィールドに記憶されるべき各属性は、音楽素材収録サービスを利用するユーザが自らの音楽素材を音楽素材管理サーバ装置10に収録する際に併せて指定することになっている。
音楽素材管理プログラム15cは、本実施形態に特有の機能をCPU11に付与するプログラムである。
In FIG. 1, the attribute management database 15b is an aggregate of a plurality of records each corresponding to one music material. As shown in FIG. 3, one record constituting this database includes “material identifier”, “first attribute (genre)”, “second attribute (atmosphere)”, and “third attribute (instrument type)”. There are four fields. The material ID of each music material is stored in the “material identifier” field. In the field of “first attribute (genre)”, a first attribute representing attributes of a genre such as “rock”, “pops”, “jazz”, “classic”, “dance”, “ethnic music”, “others”. Data is stored. In the “second attribute (atmosphere)” field, second attribute data representing atmosphere attributes such as “energetic”, “urban”, “clean”, “violent”, “quiet” is stored. The In the “third attribute (instrument type)” field, third attribute data representing attributes of the instrument type such as “drum”, “guitar”, “bass”, “keyboard”, “percussion”, “trumpet” is stored. Is done. Each attribute to be stored in the fields of “first attribute (genre)”, “second attribute (atmosphere)”, and “third attribute (instrument type)”, as will be described in detail later in the operation description section. Is specified when a user using the music material recording service records his / her own music material in the music material management server device 10.
The music material management program 15c is a program that gives the CPU 11 a function specific to the present embodiment.

端末装置20は、CPU21、RAM22、ROM23、操作子であるマウス24、コンピュータディスプレイ25、通信インターフェース26、オーディオインターフェース27、スピーカ28、ハードディスク29などを備える。
ハードディスク29は、音楽素材編集プログラム29aを記憶する。このプログラム29aは、本実施形態に特徴的な機能をCPU21に付与するプログラムである。
The terminal device 20 includes a CPU 21, a RAM 22, a ROM 23, a mouse 24 as an operator, a computer display 25, a communication interface 26, an audio interface 27, a speaker 28, a hard disk 29, and the like.
The hard disk 29 stores a music material editing program 29a. The program 29a is a program that gives the CPU 21 the functions characteristic of the present embodiment.

次に、本実施形態の動作を説明する。
本実施形態の動作は、音楽素材収録処理と音楽素材編集処理とに大別することができる。ユーザが自らの端末装置20を起動すると、CPU21は、メインメニュー画面をコンピュータディスプレイ25に表示させる。この画面の上段には「利用するサービスを選択してください」という内容の文字列が表示され、その下には、「音楽素材収録サービス」、「音楽素材編集サービス」と夫々記したボタンが表示される。そして、「音楽素材収録サービス」のボタンが選択されると音楽素材収録処理が、「音楽素材編集サービス」のボタンが選択されると音楽素材編集処理が夫々実行される。
Next, the operation of this embodiment will be described.
The operation of this embodiment can be roughly divided into music material recording processing and music material editing processing. When the user activates his / her terminal device 20, the CPU 21 displays a main menu screen on the computer display 25. In the upper part of this screen, the text string “Please select the service you want to use” is displayed, and below that, buttons labeled “Music material recording service” and “Music material editing service” are displayed. Is done. When the “music material recording service” button is selected, the music material recording process is executed, and when the “music material editing service” button is selected, the music material editing process is executed.

図4及び図5は、音楽素材収録処理を示すフローチャートである。
メインメニュー画面の「音楽素材収録サービス」と記したボタンが選択されると、端末装置20のCPU21は、ユーザID入力画面をコンピュータディスプレイ25に表示させる(S100)。ユーザID入力画面の上段には、「ユーザIDを入力してください」という文字列が表示され、その下には、ユーザIDの入力欄が表示される。この画面を参照したユーザは、自らのユーザIDを入力欄に入力する。
4 and 5 are flowcharts showing the music material recording process.
When the button labeled “Music material recording service” on the main menu screen is selected, the CPU 21 of the terminal device 20 displays a user ID input screen on the computer display 25 (S100). A character string “Please enter user ID” is displayed in the upper part of the user ID input screen, and a user ID input field is displayed below it. The user who refers to this screen inputs his / her user ID in the input field.

ユーザIDが入力されると、端末装置20のCPU21は、そのユーザIDをRAM22に記憶した後、音楽素材収録サービスの提供を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S110)。
メッセージを受信した音楽素材管理サーバ装置10のCPU11は、素材入力要求画面の表示データを端末装置20へ送信する(S120)。
表示データを受信した端末装置20のCPU21は、素材入力要求画面をコンピュータディスプレイ25に表示させる(S130)。この画面の上段には、「音楽素材のオーディオ信号を入力してください」という内容の文字列が表示される。
画面を参照したユーザは、自らが所有する楽器のうちの1つを端末装置20のオーディオインターフェース27に接続する。そして、自らが創作する合奏曲で登場する音楽素材、或いは自身や他のユーザの創作する合奏曲で頻繁に登場するであろう汎用性の高い音楽素材をその楽器を用いて演奏する。
When the user ID is input, the CPU 21 of the terminal device 20 stores the user ID in the RAM 22 and then transmits a message requesting the provision of the music material recording service to the music material management server device 10 (S110).
CPU11 of the music material management server apparatus 10 which received the message transmits the display data of a material input request screen to the terminal device 20 (S120).
The CPU 21 of the terminal device 20 that has received the display data displays a material input request screen on the computer display 25 (S130). In the upper part of this screen, a character string “Please input audio signal of music material” is displayed.
The user who refers to the screen connects one of the musical instruments owned by the user to the audio interface 27 of the terminal device 20. A musical material that appears in an ensemble created by itself or a highly versatile music material that frequently appears in an ensemble created by itself or another user is played using the instrument.

端末装置20のCPU21は、オーディオインターフェース27を介して楽器から供給されてくるオーディオ信号をRAM22に記憶する(S140)。
オーディオ信号の供給が止まると、CPU21は、RAM22に記憶されたオーディオ信号の再生時間長を計測し、その再生時間長を表す再生時間長データを生成してRAM22に記憶する(S150)。例えば、計測した再生時間長が1小節分の長さであれば「1小節」を表す再生時間長データが生成され、1/2小節分であれば「1/2小節」を表す再生時間長データが生成されることになる。
The CPU 21 of the terminal device 20 stores the audio signal supplied from the musical instrument via the audio interface 27 in the RAM 22 (S140).
When the supply of the audio signal is stopped, the CPU 21 measures the reproduction time length of the audio signal stored in the RAM 22, generates reproduction time length data representing the reproduction time length, and stores it in the RAM 22 (S150). For example, if the measured playback time length is one bar length, playback time length data representing “1 bar” is generated, and if the measured playback time length is 1/2 bar, the playback time length representing “1/2 bar” is generated. Data will be generated.

CPU21は、RAM22に記憶してあるオーディオ信号をエンコードすることによって得た音楽素材データ、ステップ150で生成した再生時間長データ、及びユーザIDを音楽素材管理サーバ装置10へ送信する(S160)。
音楽素材データ、再生時間長データ、及びユーザIDを受信した音楽素材管理サーバ装置10のCPU11は、新たな素材IDを生成する(S170)。
CPU11は、端末装置20から受信した音楽素材データ、再生時間長データ、及びユーザIDと、ステップ170で生成した素材IDとを含んだ新たなピースファイルを生成する(S180)。
The CPU 21 transmits the music material data obtained by encoding the audio signal stored in the RAM 22, the reproduction time length data generated in step 150, and the user ID to the music material management server device 10 (S160).
The CPU 11 of the music material management server apparatus 10 that has received the music material data, the reproduction time length data, and the user ID generates a new material ID (S170).
The CPU 11 generates a new piece file including the music material data, playback time length data, and user ID received from the terminal device 20 and the material ID generated in step 170 (S180).

続いて、CPU11は、音楽素材データベース15aに新たなレコードを追加する(S190)。
CPU11は、ステップ190で追加したレコードの「素材識別子」のフィールドにステップ170で生成した素材IDを記憶し、また、そのレコードの「ピースファイル」のフィールドにステップ180で生成したピースファイルを記憶する(S200)。更に、ステップ190で追加したレコードの「コネクトファイル」のフィールドに「Null」のデータを記憶する(S210)。なお、後述する音楽素材編集処理においては、新たに生成したコネクトファイルがこの「コネクトファイル」のフィールドに記憶される一方で、「ピースファイル」のフィールドに「Null」のデータが記憶されることになる。
Subsequently, the CPU 11 adds a new record to the music material database 15a (S190).
The CPU 11 stores the material ID generated in step 170 in the “material identifier” field of the record added in step 190, and stores the piece file generated in step 180 in the “piece file” field of the record. (S200). Further, “Null” data is stored in the “Connect File” field of the record added in Step 190 (S210). In the music material editing process to be described later, a newly generated connect file is stored in the “connect file” field, while “Null” data is stored in the “piece file” field. Become.

続いて、CPU11は、属性入力要求画面の表示データを端末装置20へ送信する(S220)。
表示データを受信した端末装置20のCPU21は、属性入力要求画面をコンピュータディスプレイ25に表示させる(S230)。この画面の上段には、「収録した音楽素材の属性を入力してください」という内容の文字列が表示される。その下には、音楽素材のジャンルを入力する第1属性入力欄、雰囲気を入力する第2属性入力欄、楽器種別を入力する第3属性入力欄が表示される。
Subsequently, the CPU 11 transmits display data of the attribute input request screen to the terminal device 20 (S220).
The CPU 21 of the terminal device 20 that has received the display data displays an attribute input request screen on the computer display 25 (S230). In the upper part of this screen, a character string “Please enter the attributes of the recorded music material” is displayed. Below that, a first attribute input field for inputting the genre of the music material, a second attribute input field for inputting the atmosphere, and a third attribute input field for inputting the instrument type are displayed.

画面を参照したユーザは、自らの楽器により演奏した音楽素材のジャンル、雰囲気、楽器種別のうちの少なくとも一つの属性を属性入力要求画面の入力欄に入力する。
属性が属性入力要求画面に入力されると、端末装置20のCPU21は、入力されたジャンルを表す第1属性データ、雰囲気を表す第2属性データ、及び楽器種別を表す第3属性データを音楽素材管理サーバ装置10へ送信する(S240)。
属性データを受信した音楽素材管理サーバ装置10のCPU11は、属性管理データベース15bに新たなレコードを追加する(S250)。
The user who refers to the screen inputs at least one attribute of the genre, atmosphere, and instrument type of the music material played by his / her instrument in the input field of the attribute input request screen.
When the attribute is input to the attribute input request screen, the CPU 21 of the terminal device 20 converts the input first attribute data representing the genre, second attribute data representing the atmosphere, and third attribute data representing the instrument type into the music material. It transmits to the management server device 10 (S240).
The CPU 11 of the music material management server apparatus 10 that has received the attribute data adds a new record to the attribute management database 15b (S250).

CPU11は、ステップ250で追加したレコードの「素材識別子」のフィールドにステップ170で生成した素材IDを記憶すると共に、「第1属性(ジャンル)」、「第2属性(雰囲気)」、及び「第3属性(楽器種別)」のフィールドに端末装置20から受信した各属性データを夫々記憶する(S260)。
CPU11は、ステップ170で生成した素材IDを所定の雛形に埋め込んで得たピースファイル登録完了通知画面の表示データを端末装置20へ送信する(S270)。
The CPU 11 stores the material ID generated in step 170 in the “material identifier” field of the record added in step 250, and “first attribute (genre)”, “second attribute (atmosphere)”, and “first” Each attribute data received from the terminal device 20 is stored in the field of “3 attributes (instrument type)” (S260).
The CPU 11 transmits the display data of the piece file registration completion notification screen obtained by embedding the material ID generated in step 170 in a predetermined template to the terminal device 20 (S270).

表示データを音楽素材管理サーバ装置10から受信した端末装置20のCPU21は、ピースファイル登録完了通知画面をコンピュータディスプレイ25に表示させる(S280)。この画面の上段には、「新しい音楽素材がピースファイルとして登録されました。音楽素材の素材IDは次の通りです。」という内容の文字列が表示され、その下には、素材IDが表示される。画面の下段には、「別の音楽素材を収録する」及び「メインメニューに戻る」と夫々記したボタンが表示される。この画面を参照することによって新たに収録された音楽素材の素材IDを了解したユーザは、いずれかのボタンを選択する。
「別の音楽素材を登録する」のボタンが選択されると、ステップ130に戻り、CPU21は、素材入力要求画面をコンピュータディスプレイ25に表示させる。
「メインメニューに戻る」のボタンが選択されると、CPU21は、メインメニュー画面をコンピュータディスプレイ25に再び表示させる。
The CPU 21 of the terminal device 20 that has received the display data from the music material management server device 10 displays a piece file registration completion notification screen on the computer display 25 (S280). In the upper part of this screen, the text string “New music material has been registered as a piece file. The material ID of the music material is as follows.” Is displayed, and the material ID is displayed below it. Is done. At the bottom of the screen, buttons labeled “Record another music material” and “Return to main menu” are displayed. The user who understands the material ID of the newly recorded music material by referring to this screen selects any button.
When the “Register another music material” button is selected, the process returns to step 130, and the CPU 21 displays a material input request screen on the computer display 25.
When the “return to main menu” button is selected, the CPU 21 displays the main menu screen on the computer display 25 again.

ユーザは、オーディオインターフェース27に接続する楽器を適宜切り替えながら、自らが創作する合奏曲で登場する各楽器パートの音楽素材や、或いは自身や他のユーザの創作する合奏曲で頻繁に登場するであろう汎用性の高い音楽素材を素材入力要求画面の案内に従って順次収録していく。
各ユーザが音楽素材収録サービスを通じて自らが収録した音楽素材をその属性と対応付けて登録して行くことにより、多種多様な属性を持つ音楽素材が音楽素材管理サーバ装置10の音楽素材データベース15aに蓄積され、更に、それらの検索キーとなる属性データが属性管理データベース15bに登録されることになる。
The user frequently appears in the musical material of each instrument part appearing in the ensemble created by himself or in the ensemble created by himself or another user while appropriately switching the instruments connected to the audio interface 27. Dedicated music material with high versatility will be recorded sequentially according to the guidance on the material input request screen.
As each user registers the music material recorded by the user through the music material recording service in association with the attribute, the music material having various attributes is accumulated in the music material database 15a of the music material management server device 10. Furthermore, the attribute data serving as the search key is registered in the attribute management database 15b.

図6乃至図8は、音楽素材編集処理を示すフローチャートである。
メインメニュー画面の「音楽素材編集サービス」と記したボタンが選択されると、端末装置20のCPU21は、ユーザID入力画面をコンピュータディスプレイ25に表示させる(S300)。この画面を参照したユーザは、自らのユーザIDを入力欄に入力する。
6 to 8 are flowcharts showing the music material editing process.
When the button labeled “Music material editing service” on the main menu screen is selected, the CPU 21 of the terminal device 20 displays a user ID input screen on the computer display 25 (S300). The user who refers to this screen inputs his / her user ID in the input field.

ユーザIDが入力されると、端末装置20のCPU21は、そのユーザIDをRAM22に記憶した後、音楽素材編集サービスの提供を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S310)。
メッセージを受信した音楽素材管理サーバ装置10のCPU11は、編集画面の表示データを端末装置20へ送信する(S320)。
When the user ID is input, the CPU 21 of the terminal device 20 stores the user ID in the RAM 22 and then transmits a message requesting provision of the music material editing service to the music material management server device 10 (S310).
CPU11 of the music material management server apparatus 10 which received the message transmits the display data of an edit screen to the terminal device 20 (S320).

表示データを受信した端末装置20のCPU21は、編集画面をコンピュータディスプレイ25に表示させる(S330)。
図9は、編集画面である。
編集画面の上段には音楽素材提示欄50が設けられ、画面の下段には音楽素材合成欄60が設けられている。音楽素材提示欄50には、属性を検索キーとして検索された複数の音楽素材の素材IDがリストとして表示されるようになっている。また、この提示欄の右端には素材IDの表示範囲を上下に移動させるためのスクロールバー51が設けられている。音楽素材合成欄60は第1トラック61と第2トラック62の2つのトラックを有している。これらのトラックの各々には、ユーザの操作に従って音楽素材提示欄50から選択された音楽素材の素材IDを内包するバー(以下、このバーを「素材IDバー」と呼ぶ)が入力されるようになっている。また、音楽素材合成欄60の下端には、トラックの表示範囲を左右に移動させるためのスクロールバー63が設けられている。更に、音楽素材合成欄60の右側には、「合成」及び「再生」と夫々記したボタンが表示されている。
CPU21 of the terminal device 20 which received display data displays an edit screen on the computer display 25 (S330).
FIG. 9 is an editing screen.
A music material presentation field 50 is provided in the upper part of the editing screen, and a music material composition field 60 is provided in the lower part of the screen. In the music material presentation column 50, material IDs of a plurality of music materials searched using the attribute as a search key are displayed as a list. In addition, a scroll bar 51 for moving the display range of the material ID up and down is provided at the right end of the presentation column. The music material composition column 60 has two tracks, a first track 61 and a second track 62. In each of these tracks, a bar (hereinafter referred to as “material ID bar”) containing the material ID of the music material selected from the music material presentation column 50 according to the user's operation is input. It has become. In addition, a scroll bar 63 for moving the display range of the track to the left and right is provided at the lower end of the music material composition field 60. Further, on the right side of the music material composition column 60, buttons labeled “composite” and “play” are displayed.

編集画面が表示されると、ユーザは、その音楽素材提示欄50上の任意の位置にマウスポインタを置いてマウス24の左ボタンをダブルクリックする。
このダブルクリック操作が行われると、端末装置20のCPU21は、属性入力画面を編集画面上の別ウィンドウとして表示させる(S340)。
図10は、属性入力画面である。
属性入力画面の上段には、「音楽素材の検索キーとする属性を入力して下さい。」という内容の文字列が表示される。その下には、ジャンル属性入力欄81、雰囲気属性入力欄82、及び楽器種別属性入力欄83が表示される。
属性入力画面が表示されると、ユーザは、音楽素材の検索キーとする属性を同画面の一つ以上の入力欄に入力する。
When the editing screen is displayed, the user places the mouse pointer at an arbitrary position on the music material presentation column 50 and double-clicks the left button of the mouse 24.
When this double-click operation is performed, the CPU 21 of the terminal device 20 displays the attribute input screen as a separate window on the editing screen (S340).
FIG. 10 is an attribute input screen.
In the upper part of the attribute input screen, a character string of “Please enter an attribute to be used as a search key for music material” is displayed. Below that, a genre attribute input field 81, an atmosphere attribute input field 82, and a musical instrument type attribute input field 83 are displayed.
When the attribute input screen is displayed, the user inputs an attribute as a search key for music material in one or more input fields on the screen.

入力欄に属性が入力されると、端末装置20のCPU21は、ジャンル属性入力欄81に入力された属性を表す第1属性データ、雰囲気属性入力欄82に入力された属性を表す第2属性データ、楽器種別属性入力欄83に入力された属性を表す第3属性データを音楽素材管理サーバ装置10へ送信する(図6のS350)。
属性データを受信した音楽素材管理サーバ装置10のCPU11は、それらの属性データと属性管理データベース15bの各レコードの「第1属性(ジャンル)」、「第2属性(雰囲気)」、「第3属性(楽器種別)」のフィールドの記憶内容とを順次照合することによって、端末装置20から受信したものとの共通性がより高い属性データを記憶した所定数(例えば「10」)のレコードを特定する(S360)。
CPU11は、ステップ360で特定した各レコードの「素材識別子」のフィールドに記憶された素材IDを読み出し、それらの素材IDを端末装置20へ送信する(S370)。
When an attribute is input in the input field, the CPU 21 of the terminal device 20 causes the first attribute data indicating the attribute input in the genre attribute input field 81 and the second attribute data indicating the attribute input in the atmosphere attribute input field 82. Then, the third attribute data representing the attribute input in the musical instrument type attribute input field 83 is transmitted to the music material management server device 10 (S350 in FIG. 6).
The CPU 11 of the music material management server device 10 that has received the attribute data, “first attribute (genre)”, “second attribute (atmosphere)”, “third attribute” of each record of the attribute data and the attribute management database 15b. A predetermined number (for example, “10”) records in which attribute data having higher commonality with that received from the terminal device 20 is identified by sequentially comparing the stored contents of the “instrument type” field. (S360).
The CPU 11 reads the material ID stored in the “material identifier” field of each record specified in step 360 and transmits the material ID to the terminal device 20 (S370).

端末装置20のCPU21は、音楽素材管理サーバ装置10から受信した各素材IDを編集画面の音楽素材提示欄50に表示させる(S380)。
音楽素材提示欄50に素材IDが表示されると、ユーザは、その提示欄の任意の素材IDにマウスポインタを置いてマウス24の左ボタンをドラッグし、マウスポインタを音楽素材合成欄60のトラックに移動させてドロップする。
The CPU 21 of the terminal device 20 displays each material ID received from the music material management server device 10 in the music material presentation column 50 of the editing screen (S380).
When the material ID is displayed in the music material presenting column 50, the user places the mouse pointer on an arbitrary material ID in the presenting column and drags the left button of the mouse 24, and the mouse pointer is tracked in the music material synthesizing column 60. Move to and drop.

編集画面の音楽素材提示欄50に素材IDが表示された状態でこのドラッグアンドドロップ操作が行われると、端末装置20のCPU21は、ドラッグによって選択された素材IDを音楽素材管理サーバ装置10へ送信する(図7のS390)。
素材IDを受信した音楽素材管理サーバ装置10のCPU11は、その素材IDを「素材識別子」のフィールドに記憶したレコードを音楽素材データベース15aから特定する(S400)。
CPU11は、ステップ400で特定したレコードの「コネクトファイル」のフィールドに記憶されたファイルに含まれる再生時間長データを抽出し、再生時間長データが記憶されてない場合には、更に「ピースファイル」のフィールドに記憶されたファイルに含まれる再生時間長データを抽出し、その再生時間長データを端末装置20へ送信する(S410)。
When this drag and drop operation is performed in a state where the material ID is displayed in the music material presentation field 50 of the editing screen, the CPU 21 of the terminal device 20 transmits the material ID selected by the dragging to the music material management server device 10. (S390 in FIG. 7).
The CPU 11 of the music material management server device 10 that has received the material ID specifies a record in which the material ID is stored in the “material identifier” field from the music material database 15a (S400).
The CPU 11 extracts the reproduction time length data included in the file stored in the “connect file” field of the record identified in step 400. If the reproduction time length data is not stored, the CPU 11 further extracts “piece file”. The reproduction time length data included in the file stored in the field is extracted, and the reproduction time length data is transmitted to the terminal device 20 (S410).

端末装置20のCPU21は、音楽素材管理サーバ装置10から受信した再生時間長データをRAM22に記憶する(S420)。そして、その再生時間長データが示す時間長に応じた横幅を有する素材IDバーを素材IDがドロップされたトラック上の位置に表示させる(S430)。
編集画面の音楽素材合成欄60に素材IDバーが表示された後、ユーザが再びダブルクリック操作を行うと、ステップ340乃至ステップ380の一連の処理が繰り返され、ユーザの入力した各種属性を検索キーとして検索された所定数の音楽素材の素材IDが音楽素材提示欄50に表示される。また、検索結果として音楽素材提示欄50に表示された素材IDの一つについてドラックアンドドロップ操作を行うと、ステップ390乃至ステップ430の処理が繰り返され、音楽素材合成欄60のトラックに新たな素材IDバーが順次形成されていく。
The CPU 21 of the terminal device 20 stores the reproduction time length data received from the music material management server device 10 in the RAM 22 (S420). Then, a material ID bar having a width corresponding to the time length indicated by the reproduction time length data is displayed at a position on the track where the material ID is dropped (S430).
After the material ID bar is displayed in the music material composition field 60 on the edit screen, when the user double-clicks again, a series of processing from step 340 to step 380 is repeated, and various attributes input by the user are searched. The material IDs of a predetermined number of music materials retrieved as are displayed in the music material presentation column 50. When a drag-and-drop operation is performed on one of the material IDs displayed in the music material presentation column 50 as a search result, the processing from step 390 to step 430 is repeated, and a new material is added to the track in the music material composition column 60. ID bars are formed sequentially.

図11は、ユーザによる各操作とそれらの操作に応じてトラック内に形成される素材IDバーの一例である。
この図において、1回目の操作では、検索キーを「ドラム」とする検索を行った後、その検索の結果として音楽素材提示欄50に表示された各素材IDの中から素材ID「A」をドラッグして第1トラック61の先頭の位置でドロップしている。これにより、「ドラム」の属性と対応付けられていた音楽素材の一つが、1/2小節の長さに相当する横幅の素材IDバー「A」として第1トラック61に形成される。
2回目の操作では、検索キーを変えた再検索を行わないまま、音楽素材提示欄50に表示された各素材IDの中から素材ID「B」をドラックして第1トラック61の素材IDバー「A」の右隣の位置でドロップしている。これにより、「ドラム」の属性と対応付けられれていた別の音楽素材の一つが、1/2小節の長さに相当する横幅の素材IDバー「B」として素材IDバー「A」の右隣に形成される。
3回目の操作では、検索キーを「ギター」とする検索を行った後、その検索の結果として音楽素材提示欄50に表示された各素材IDの中から素材ID「C」をドラッグして第2トラック62の先頭の位置でドロップしている。これにより、「ギター」の属性と対応付けられていた音楽素材の一つが、1小節の長さに相当する横幅の素材IDバー「C」として第2トラック62に形成される。
FIG. 11 is an example of each operation by the user and a material ID bar formed in the track in accordance with those operations.
In this figure, in the first operation, after searching for “drum” as the search key, the material ID “A” is selected from the material IDs displayed in the music material presentation column 50 as a result of the search. It is dragged and dropped at the top position of the first track 61. Thus, one of the music materials associated with the “drum” attribute is formed on the first track 61 as a material ID bar “A” having a width corresponding to the length of 1/2 bar.
In the second operation, the material ID “B” is dragged from the material IDs displayed in the music material presentation column 50 without performing the re-search with the search key changed, and the material ID bar of the first track 61 is dragged. Dropping at a position to the right of “A”. As a result, one of the other music materials associated with the attribute of “drum” is adjacent to the material ID bar “A” on the right side as the material ID bar “B” having a width corresponding to the length of 1/2 bar. Formed.
In the third operation, after searching for “guitar” as the search key, the material ID “C” is dragged from the material IDs displayed in the music material presentation column 50 as a result of the search. The two tracks 62 are dropped at the top position. As a result, one of the music materials associated with the “guitar” attribute is formed on the second track 62 as a material ID bar “C” having a width corresponding to the length of one measure.

図に示す一連の操作によると、「ドラム」と「ギター」の1小節分の演奏内容をそれぞれ表す素材IDバーの配列が音楽素材合成欄60の両トラックに夫々形成されることになる。
以降の説明では、図11における素材IDバー「A」と素材IDバー「B」の関係のように、連続して演奏されるべき音楽素材の素材IDを音楽素材合成欄60の同じトラックに並べるドラッグアンドドロップ操作を適宜「連結編集操作」と呼び、素材IDバー「A」及び「B」と素材IDバー「C」の関係のように、同時期に並行して演奏されるべき音楽素材の素材IDを音楽素材合成欄60の別々のトラックに並置するドラッグアンドドロップ操作を適宜「ミキシング編集操作」と呼ぶ。
According to the series of operations shown in the figure, an array of material ID bars each representing the performance content of one measure of “drum” and “guitar” is formed on both tracks in the music material composition column 60, respectively.
In the following description, the material IDs of the music materials to be played continuously are arranged on the same track in the music material composition column 60 as in the relationship between the material ID bar “A” and the material ID bar “B” in FIG. The drag-and-drop operation is appropriately referred to as “concatenated editing operation”, and the music material to be played in parallel at the same time, such as the relationship between the material ID bars “A” and “B” and the material ID bar “C”. The drag-and-drop operation for juxtaposing the material IDs on different tracks in the music material composition column 60 is appropriately referred to as “mixing editing operation”.

ユーザは、各種操作を駆使して音楽素材合成欄60の一方又は両方のトラックに所望の時間長(例えば1小節)分の素材IDバーの配列を形成した後、同合成欄の左隣の「合成」と記したボタン又は「再生」と記したボタンを選択する。
図6において、「再生」のボタンが選択されると、後述する再生処理がサブルーチンとして実行される。
また、「合成」のボタンが選択されると、端末装置20のCPU21は、音楽素材合成欄60の各トラックに形成された素材IDの配列をシーケンスデータ化して素材合成管理データを生成する(図7のS440)。
The user uses various operations to form an array of material ID bars for a desired length of time (for example, one bar) on one or both tracks in the music material composition column 60, and then clicks “ Select the button labeled “Combine” or the button labeled “Play”.
In FIG. 6, when the “playback” button is selected, a playback process described later is executed as a subroutine.
When the “composite” button is selected, the CPU 21 of the terminal device 20 generates material composition management data by converting the array of material IDs formed on each track in the music material composition field 60 into sequence data (FIG. 5). 7 S440).

続いて、CPU21は、音楽素材合成欄60のトラックに形成された一連の素材IDと対応する音楽素材の再生時間長の総計を表す再生時間長データを生成してRAM22に記憶する(S450)。
CPU21は、ステップ440で生成した素材合成管理データ、ステップ450で生成した再生時間長データ、及びユーザIDを音楽素材管理サーバ装置10へ送信する(S460)。
素材合成管理データ、再生時間長データ、及びユーザIDを受信した音楽素材管理サーバ装置10のCPU11は、新たな素材IDを生成する(S470)。
Subsequently, the CPU 21 generates reproduction time length data representing the total reproduction time length of the music material corresponding to the series of material IDs formed on the track in the music material composition column 60 and stores it in the RAM 22 (S450).
The CPU 21 transmits the material composition management data generated in step 440, the reproduction time length data generated in step 450, and the user ID to the music material management server device 10 (S460).
The CPU 11 of the music material management server apparatus 10 that has received the material composition management data, the reproduction time length data, and the user ID generates a new material ID (S470).

CPU11は、端末装置20から受信した素材合成管理データ、再生時間長データ、及びユーザIDを含んだ新たなコネクトファイルを生成する(S480)。
続いて、CPU11は、音楽素材データベース15aに新たなレコードを追加する(S490)。
CPU11は、ステップ490で追加したレコードの「素材識別子」のフィールドにステップ470で生成した素材IDを記憶すると共に、そのレコードの「コネクトファイル」のフィールドにステップ480で生成したコネクトファイルを記憶する(S500)。更に、ステップ490で追加したレコードの「ピースファイル」のフィールドに「Null」のデータを記憶する(S510)。
The CPU 11 generates a new connect file including the material composition management data, the reproduction time length data, and the user ID received from the terminal device 20 (S480).
Subsequently, the CPU 11 adds a new record to the music material database 15a (S490).
The CPU 11 stores the material ID generated in step 470 in the “material identifier” field of the record added in step 490 and stores the connect file generated in step 480 in the “connect file” field of the record ( S500). Further, “Null” data is stored in the “piece file” field of the record added in step 490 (S510).

音楽素材管理サーバ装置10のCPU11は、属性入力要求画面の表示データを端末装置20へ送信する(S520)
表示データを受信した端末装置20のCPU21は、属性入力要求画面をコンピュータディスプレイ25に表示させる(S530)。この画面の上段には、「合成した音楽素材の属性を入力してください」という内容の文字列が表示される。その下には、音楽素材のジャンルを入力する第1属性入力欄、雰囲気を入力する第2属性入力欄、楽器種別を入力する第3属性入力欄が表示される。
The CPU 11 of the music material management server device 10 transmits display data of the attribute input request screen to the terminal device 20 (S520).
The CPU 21 of the terminal device 20 that has received the display data displays an attribute input request screen on the computer display 25 (S530). In the upper part of this screen, a character string of “Please enter the attributes of the synthesized music material” is displayed. Below that, a first attribute input field for inputting the genre of the music material, a second attribute input field for inputting the atmosphere, and a third attribute input field for inputting the instrument type are displayed.

画面を参照したユーザは、自らが合成した音楽素材のジャンル、雰囲気、楽器種別のうちの少なくとも一つの属性を属性入力要求画面の入力欄に入力する。なお、「ドラム」と「ギター」などといった複数の楽器種別の素材IDバーを音楽素材合成欄60のトラックに形成した状態で、「合成」を選択した場合、それらの全ての楽器種別を第3属性入力欄に入力しておくことが望ましい。
属性が属性入力要求画面に入力されると、端末装置20のCPU21は、入力されたジャンルを表す第1属性データ、雰囲気を表す第2属性データ、及び楽器種別を表す第3属性データを音楽素材管理サーバ装置10へ送信する(S540)。
The user who refers to the screen inputs at least one attribute of the genre, atmosphere, and instrument type of the music material synthesized by the user in the input field of the attribute input request screen. If “synthesize” is selected in a state where the material ID bars of a plurality of instrument types such as “drum” and “guitar” are formed on the track of the music material synthesis column 60, all of those instrument types are set to the third. It is desirable to enter in the attribute input field.
When the attribute is input to the attribute input request screen, the CPU 21 of the terminal device 20 converts the input first attribute data representing the genre, second attribute data representing the atmosphere, and third attribute data representing the instrument type into the music material. It transmits to the management server device 10 (S540).

属性データを受信した音楽素材管理サーバ装置10のCPU11は、属性管理データベース15bに新たなレコードを追加する(S550)。
CPU11は、ステップ550で追加したレコードの「素材識別子」のフィールドにステップ470で生成した素材IDを記憶すると共に、「第1属性(ジャンル)」、「第2属性(雰囲気)」、及び「第3属性(楽器種別)」のフィールドに端末装置20から受信した各属性データを夫々記憶する(S560)。
CPU11は、ステップ470で生成した素材IDを所定の雛形に埋め込んで得たコネクトファイル登録完了通知画面の表示データを端末装置20へ送信する(S570)。
The CPU 11 of the music material management server apparatus 10 that has received the attribute data adds a new record to the attribute management database 15b (S550).
The CPU 11 stores the material ID generated in step 470 in the “material identifier” field of the record added in step 550, and “first attribute (genre)”, “second attribute (atmosphere)”, and “first” Each attribute data received from the terminal device 20 is stored in the field of “3 attributes (instrument type)” (S560).
The CPU 11 transmits the display data of the connect file registration completion notification screen obtained by embedding the material ID generated in step 470 into a predetermined template to the terminal device 20 (S570).

端末装置20のCPU21は、コネクトファイル登録完了通知画面をコンピュータディスプレイ25に表示させる(S580)。この画面の上段には、「新しい音楽素材がピースファイルとして登録されました。音楽素材の素材IDは次の通りです。」という内容の文字列が表示され、その下には、素材IDが表示される。   The CPU 21 of the terminal device 20 displays a connect file registration completion notification screen on the computer display 25 (S580). In the upper part of this screen, the text string “New music material has been registered as a piece file. The material ID of the music material is as follows.” Is displayed, and the material ID is displayed below it. Is done.

以上説明した処理について、具体例を参照して更に詳述する。
図12は、編集画面を介した操作の一例を示す図である。
なお、ここでの説明は、「ドラム」の属性と対応付けられた1/4小節分の音楽素材「A」と「B」のピースファイル、「ギター」の属性と対応付けられた1/4小節分の音楽素材「C」、「D」、「E」の音楽素材のピースファイル、「バス」の属性と対応付けられた1/2小節分の音楽素材「F」と「G」のピースファイル、及び「キーボード」の属性と対応付けられた2小節分の音楽素材「H」のピースファイルが音楽素材データベース15aに蓄積されているものとして行う。
The processing described above will be further described in detail with reference to a specific example.
FIG. 12 is a diagram illustrating an example of an operation via the editing screen.
The description here is about 1/4 measure music files “A” and “B” corresponding to the “drum” attribute, and 1/4 corresponding to the “guitar” attribute. Piece files of music material “C”, “D”, “E” for the bars, and pieces of music material “F” and “G” for 1/2 bars associated with the attribute of “bus” The processing is performed on the assumption that a piece file of music material “H” corresponding to the file and the attribute of “keyboard” is stored in the music material database 15a.

図を参照すると、1回目の操作(連結編集操作)において、ユーザは、「ドラム」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「A」と「B」の素材IDバーを「A」→「A」→「A」→「B」の順番で第1トラック61に形成させてから「合成」のボタンを選択している。これにより、素材IDを「AAAB」と1列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「I」と対応付けて音楽素材データベース15aに蓄積される。
2回目の操作(連結編集操作)において、ユーザは、「ギター」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「C」と「D」の素材IDバーを「C」→「C」→「C」→「D」の順番で第1トラック61に形成させてから「合成」のボタンを選択している。これにより、素材IDを「CCCD」と1列に並べた素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「J」と対応付けて音楽素材データベース15aに蓄積される。
Referring to the figure, in the first operation (concatenated editing operation), the user performs a search using the instrument type attribute of “drum” as a search key, and then selects the music material “A” selected from the search results. And “B” material ID bars are formed on the first track 61 in the order of “A” → “A” → “A” → “B”, and then the “composite” button is selected. As a result, a connect file including the material composition management data in which the material ID is arranged in one row with “AAAB” is newly generated and stored in the music material database 15a in association with the material ID “I”.
In the second operation (concatenated editing operation), the user performs a search using the instrument type attribute of “guitar” as a search key, and then selects the music materials “C” and “D” selected from the search results. The material ID bar is formed on the first track 61 in the order of “C” → “C” → “C” → “D”, and then the “composite” button is selected. As a result, a connect file including the material composition management data in which the material ID is aligned with “CCCD” in one column is newly generated and stored in the music material database 15a in association with the material ID “J”.

3回目の操作(連結編集操作)において、ユーザは、「ギター」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「C」と「E」の素材IDバーを「C」→「C」→「C」→「E」の順番で第1トラック61に形成させてから「合成」のボタンを選択している。これにより、素材IDを「CCCE」と一列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「K」と対応付けて音楽素材データベース15aに蓄積される。
4回目の操作(連結編集操作及びミキシング編集操作)において、ユーザは、「ドラム」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「I」の素材IDバーを「I」→「I」の順番で第1トラック61に形成させ、更に「バス」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「F」と「G」の素材IDバーを「F」→「F」→「F」→「G」の順番で第2トラック62に形成させてから「合成」のボタンを選択している。これにより、素材IDを「II」と「FFFG」の2列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「L」と対応付けて音楽素材データベース15aに蓄積される。
In the third operation (concatenated editing operation), the user performs a search using the instrument type attribute of “guitar” as a search key, and then selects the music materials “C” and “E” selected from the search results. After the material ID bar is formed on the first track 61 in the order of “C” → “C” → “C” → “E”, the “composite” button is selected. As a result, a connect file including the material composition management data in which the material IDs are arranged in a row with the material ID “CCCE” is newly generated and stored in the music material database 15a in association with the material ID “K”.
In the fourth operation (concatenated editing operation and mixing editing operation), the user performs a search using the instrument type attribute of “drum” as a search key, and then selects the music material “I” selected from the search results. A material ID bar is formed on the first track 61 in the order of “I” → “I”, and after performing a search using the instrument type attribute of “bus” as a search key, the music selected from the search results The material ID bar of the materials “F” and “G” is formed on the second track 62 in the order of “F” → “F” → “F” → “G”, and then the “composite” button is selected. . As a result, a connect file including the material composition management data in which the material IDs are arranged in two columns “II” and “FFFG” is newly generated and stored in the music material database 15a in association with the material ID “L”. .

5回目の操作(ミキシング編集操作)において、ユーザは、「キーボード」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「H」の素材IDバーを第1トラック61に形成させ、「ドラム」及び「バス」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「L」の素材IDバーを第2トラック62に形成させてから「合成」のボタンを選択している。これにより、素材IDを「H」と「L」の2列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「M」と対応付けて音楽素材データベース15aに蓄積される。
6回目の操作(ミキシング編集操作)において、ユーザは、「キーボード」、「ドラム」、及び「バス」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「M」の素材IDバーを第1トラック61に形成させ、更に、「ギター」の楽器種別属性を検索キーとする検索を行った後、その検索結果の中から選んだ音楽素材「J」と「K」の素材IDバーを「J」→「K」の順番で第2トラック62に形成させてから「合成」のボタンを選択している。これにより、素材IDを「M」と「JK」の2列に配列した素材合成管理データを含むコネクトファイルが新たに生成され、素材ID「N」と対応付けて音楽素材データベース15aに蓄積される。
In the fifth operation (mixing editing operation), the user performs a search using the instrument type attribute of “keyboard” as a search key, and then displays the material ID bar of the music material “H” selected from the search results. The first track 61 is formed, and after performing a search using the “drum” and “bass” instrument type attributes as search keys, the material ID bar of the music material “L” selected from the search results is displayed in the second. After being formed on the track 62, the “composite” button is selected. As a result, a connect file including the material composition management data in which the material IDs are arranged in two rows of “H” and “L” is newly generated and stored in the music material database 15a in association with the material ID “M”. .
In the sixth operation (mixing editing operation), the user performs a search using the instrument type attributes of “keyboard”, “drum”, and “bass” as search keys, and then selects the music selected from the search results A material ID bar of the material “M” is formed on the first track 61, and further, a search using the instrument type attribute of “guitar” as a search key is performed, and then the music material “J” selected from the search results. And the “K” material ID bar are formed on the second track 62 in the order of “J” → “K”, and then the “composite” button is selected. As a result, a connect file including material composition management data in which material IDs are arranged in two columns of “M” and “JK” is newly generated and stored in the music material database 15a in association with the material ID “N”. .

以上の6回の操作により、キーボード、ドラム、バス、ギターの4つの楽器パートを有する合奏曲の2小節分の演奏内容が1つのコネクトファイル「N」として取り纏められることになる。
なお、この例では、6回の操作のすべてにおいて楽器種別属性のみを検索キーとした音楽素材の検索を行っているが、ジャンル属性や雰囲気属性を検索キーとすることによって更なる絞り込み検索を行うことも可能である。
Through the above six operations, the performance contents of two measures of an ensemble having four instrument parts, keyboard, drum, bass, and guitar, are collected as one connect file “N”.
In this example, the music material is searched using only the instrument type attribute as the search key in all six operations. However, further refined search is performed using the genre attribute and atmosphere attribute as the search key. It is also possible.

図13及び図14は、再生処理を示すフローチャートである。この処理は、音楽素材編集処理のサブルーチンとして実行されるものである。
ステップ330で表示された編集画面の「再生」のボタンが選択されると、端末装置20のCPU21は、同画面の音楽素材合成欄60に入力されている各素材IDの配列を示す素材合成管理データを生成し、生成した素材合成管理データを音楽素材管理サーバ装置10へ送信する(S600)。
素材合成管理データを受信した音楽素材管理サーバ装置10のCPU11は、ユーザIDをRAM12に記憶すると共にマルチトラックシーケンス領域をRAM12の一部に確保する(S610)。このマルチトラックシーケンス領域は、第1乃至第4の4つのトラックを有するバッファである。
13 and 14 are flowcharts showing the reproduction process. This process is executed as a subroutine of the music material editing process.
When the “play” button on the editing screen displayed in step 330 is selected, the CPU 21 of the terminal device 20 performs material composition management indicating the arrangement of the material IDs input in the music material composition field 60 on the screen. Data is generated, and the generated material composition management data is transmitted to the music material management server device 10 (S600).
The CPU 11 of the music material management server apparatus 10 that has received the material composition management data stores the user ID in the RAM 12 and secures a multitrack sequence area in a part of the RAM 12 (S610). This multi-track sequence area is a buffer having first to fourth four tracks.

CPU11は、素材合成管理データが示す素材IDの配列をマルチトラックシーケンス領域のトラックの1つに書込む(S620)。ここで、音楽素材管理サーバ装置10から送信されてくる素材合成管理データが素材IDの1つの配列だけを表すものであるときはその配列がマルチトラックシーケンス領域の第1トラックに書込まれ、2つの配列を表すものであるときはそれらの配列が同領域の第1トラックと第2トラックに夫々書込まれる。
CPU11は、ステップ620でマルチトラックシーケンス領域に書込まれた一連の素材IDのうちの1つを処理対象として特定する(S630)。
続いて、音楽素材データベース15aに記憶されたレコードの中から「素材識別子」のフィールドがステップ630で特定した素材IDと合致するレコードを特定する(S640)。
The CPU 11 writes the array of material IDs indicated by the material composition management data into one of the tracks in the multitrack sequence area (S620). Here, when the material composition management data transmitted from the music material management server device 10 represents only one array of material IDs, the array is written in the first track of the multi-track sequence area. When two arrays are represented, these arrays are written in the first track and the second track in the same area.
The CPU 11 specifies one of the series of material IDs written in the multitrack sequence area in step 620 as a processing target (S630).
Subsequently, the record in which the “material identifier” field matches the material ID identified in step 630 is identified from the records stored in the music material database 15a (S640).

CPU11は、ステップ640で特定したレコードの「ピースファイル」のフィールドにピースファイルが記憶されているか判断する(S650)。「ピースファイル」のフィールドに「Null」が記憶されていなければこのステップの判断結果は「Yes」ということになり、「Null」が記憶されていればこのステップの判断結果は「No」ということになる。
ステップ650においてピースファイルが記憶されていると判断したCPU11は、そのピースファイルに含まれる音楽素材データを読み出し、ステップ630で特定した素材IDと置き換える(S660)。
ステップ660を実行したCPU11は、ステップ630に戻り、別の素材IDを処理対象として以降の処理を実行する。
The CPU 11 determines whether or not a piece file is stored in the “piece file” field of the record identified in step 640 (S650). If “Null” is not stored in the “Piece file” field, the determination result of this step is “Yes”. If “Null” is stored, the determination result of this step is “No”. become.
The CPU 11 that has determined that the piece file is stored in step 650 reads out the music material data included in the piece file and replaces it with the material ID specified in step 630 (S660).
CPU11 which performed step 660 returns to step 630, and performs subsequent processing by making another material ID into a processing target.

ステップ650においてピースファイルが記憶されていないと判断したCPU11は、ステップ640で特定したレコードの「コネクトファイル」のフィールドのコネクトファイルに含まれる素材合成管理データを読み出す(S670)。
CPU11は、ステップ670で読み出した素材合成管理データが素材IDの1つの配列を表すものであるかそれとも2つの配列を表すものであるか判断する(S680)。
ステップ680において素材合成管理データが素材IDの1つの配列を表すものであると判断したCPU11は、その配列をステップ630で特定した素材IDと置き換える(S690)。つまり、処理対象として特定された1つの音楽素材の素材IDから、その音楽素材を得るべく連結編集された複数の音楽素材の素材IDの配列を復元する。
The CPU 11 that has determined that the piece file is not stored in step 650 reads the material composition management data included in the connect file in the “connect file” field of the record specified in step 640 (S670).
The CPU 11 determines whether the material composition management data read in step 670 represents one array of material IDs or two arrays (S680).
The CPU 11, which has determined that the material composition management data represents one array of material IDs in step 680, replaces the array with the material ID specified in step 630 (S690). That is, the arrangement of the material IDs of a plurality of music materials that are concatenated and edited to obtain the music material is restored from the material ID of one music material specified as the processing target.

ステップ680において素材合成管理データが素材IDの2つの配列を表すものであると判断したCPU11は、その一方の配列をステップ630で特定した素材IDと置き換えると共に、他方の配列を未だ素材IDの書込みがないマルチトラックシーケンス領域のトラック(以下、「空きトラック」と呼ぶ)に書込む(S700)。つまり、処理対象として特定された1つの音楽素材の素材IDから、その音楽素材を得るべくミキシング編集された複数の音楽素材の素材IDの配列を復元する。
ステップ690又はステップ700を実行したCPU11は、マルチトラックシーケンス領域の各トラックに書込まれた素材IDの全てが音楽素材データに置き換えられたか判断する(S710)。
ステップ710において、素材IDの一部が音楽素材データに置き換えられていないと判断したCPU11は、ステップ630に戻り、その素材IDを処理対象として特定してから以降の処理を実行する。
The CPU 11 that has determined that the material composition management data represents two arrays of material IDs in step 680 replaces one of the arrays with the material ID specified in step 630 and writes the other array in the material ID yet. Is written to a track in the multi-track sequence area (hereinafter referred to as an “empty track”) (S700). That is, the arrangement of the material IDs of a plurality of music materials mixed and edited to obtain the music material is restored from the material ID of one music material specified as the processing target.
CPU11 which performed step 690 or step 700 judges whether all the material IDs written in each track of the multitrack sequence area have been replaced with music material data (S710).
In step 710, the CPU 11 that has determined that a part of the material ID has not been replaced with the music material data, returns to step 630, specifies the material ID as a processing target, and executes the subsequent processing.

ステップ710において、素材IDの全てが音楽素材データに置き換えられたと判断したCPU11は、音楽素材データが書込まれているマルチトラックシーケンス領域のトラックの1つを処理対象として特定する(S720)。
CPU11は、ステップ720で特定したトラックに書込まれている一又は複数の音楽素材データを、その音楽素材データをデコードして得たオーディオ信号と置き換える(S730)。
ステップ730を実行したCPU11は、トラックに書込まれた全ての音楽素材データがオーディオ信号と置き換えられたか判断する(S740)。
In step 710, the CPU 11 that has determined that all the material IDs have been replaced with the music material data identifies one of the tracks in the multi-track sequence area in which the music material data is written as a processing target (S 720).
The CPU 11 replaces one or a plurality of music material data written in the track specified in step 720 with an audio signal obtained by decoding the music material data (S730).
CPU11 which performed step 730 judges whether all the music material data written in the track | truck were replaced with the audio signal (S740).

ステップ740において、一部のトラックに書込まれた音楽素材データがオーディオ信号と置き換えられていないと判断したCPU11は、ステップ720に戻り、そのトラックを処理対象としてから以降の処理を実行する。
ステップ740において、トラックに書込まれた全ての音楽素材データがオーディオ信号に置き換えられたと判断したCPU11は、第1トラック以外のトラックに書き込まれているオーディオ信号を第1トラックへミキシングする(S750)。
In step 740, the CPU 11 that has determined that the music material data written in some of the tracks has not been replaced with the audio signal returns to step 720 and executes the subsequent processing after setting that track as the processing target.
In step 740, the CPU 11, which has determined that all the music material data written in the track has been replaced with the audio signal, mixes the audio signal written in the track other than the first track into the first track (S750). .

CPU11は、第1トラックにミキシングされたオーディオ信号をエンコードして得た音楽素材データを端末装置20へ送信する(S760)。
端末装置20のCPU21は、音楽素材管理サーバ装置10から受信した音楽素材データをRAM22に記憶する(S770)。
CPU11は、RAM22に記憶した音楽素材データをエンコードして得たオーディオ信号をスピーカ28へ供給する(S780)。これにより、合奏曲の楽音がスピーカ28から放音される。
The CPU 11 transmits the music material data obtained by encoding the audio signal mixed into the first track to the terminal device 20 (S760).
The CPU 21 of the terminal device 20 stores the music material data received from the music material management server device 10 in the RAM 22 (S770).
The CPU 11 supplies an audio signal obtained by encoding the music material data stored in the RAM 22 to the speaker 28 (S780). Thereby, the musical sound of the ensemble is emitted from the speaker 28.

以上説明した処理について、具体例を参照して更に詳述する。
図15及び図16は、素材合成管理データが音楽素材管理サーバ装置10へ送信されてから新たなピースファイルが得られるまでのマルチトラックシーケンス領域の状態の遷移を示す図である。
なお、ここでの説明は、図12に示す5回目の操作(ミキシング編集操作)を行った段階で「再生」のボタンが選択され、素材ID「H」と「L」を2列に配列した素材合成管理データが音楽素材管理サーバ装置10へ送信されているものとして行う。
The processing described above will be further described in detail with reference to a specific example.
15 and 16 are diagrams showing the transition of the state of the multitrack sequence area from when the material composition management data is transmitted to the music material management server device 10 until a new piece file is obtained.
In the description here, the “play” button is selected when the fifth operation (mixing editing operation) shown in FIG. 12 is performed, and the material IDs “H” and “L” are arranged in two rows. This is performed assuming that the material composition management data is transmitted to the music material management server device 10.

図15を参照すると、マルチトラックシーケンス領域がRAM12に確保された直後に到来するステップ620では、そのシーケンス領域の第1トラックに素材ID「H」が、第2トラックに素材ID「L」が夫々書込まれる(状態1)。
その後、素材ID「H」及び「L」を処理対象としてステップ630以降の処理が実行されることになるが、素材ID「H」は、対応するピースファイルを有しているので、ステップ650の判断結果は「YES」となり、ステップ660にてそのピースファイルに含まれる音楽素材データhと置き換えられることになる(状態2)。
一方、素材ID「L」は、対応するピースファイルを有していないので、ステップ650の判断結果は「NO」となり、対応するピースファイルが見つかるまでステップ670以降のループが繰り返されることになる。各ループが実行された状態を詳述すると、まず、第2トラックの素材ID「L」が素材ID「II」に置き換えられ、空きトラックである第3トラックに素材ID「FFFG」が書込まれる(状態3)。
Referring to FIG. 15, in step 620 that comes immediately after the multi-track sequence area is secured in the RAM 12, the material ID “H” is assigned to the first track of the sequence area, and the material ID “L” is assigned to the second track. Written (state 1).
Thereafter, the processing after step 630 is executed with the material IDs “H” and “L” as processing targets. However, since the material ID “H” has a corresponding piece file, the processing in step 650 is performed. The determination result is “YES”, and the music material data h included in the piece file is replaced at step 660 (state 2).
On the other hand, since the material ID “L” does not have a corresponding piece file, the determination result in step 650 is “NO”, and the loop after step 670 is repeated until the corresponding piece file is found. The state in which each loop is executed will be described in detail. First, the material ID “L” of the second track is replaced with the material ID “II”, and the material ID “FFFG” is written in the third track which is an empty track. (State 3).

更に、第2トラックの素材ID「I」は、素材ID「AAAB」に夫々置き換えられる(状態4)。
そして、最終的には、素材ID「A」に対応するコネクトファイルの音楽素材データa及び素材ID「B」に対応するコネクトファイルの音楽素材データbが第2トラックへ「aaabaaab」の順番で書込まれ、また、素材ID「F」に対応するコネクトファイルの音楽素材データf及び素材ID「G」に対応するコネクトファイルの音楽素材データgが第3トラックに「fffg」の順番で書込まれることになる(図16の状態5)。
素材IDの全てが音楽素材データに置き換えられると、ステップ720乃至ステップ740にてそれらの音楽素材データがエンコードされたオーディオ信号と置き換えられ(状態6)、更にステップ750では、全てのトラックのオーディオ信号が第1トラックにミキシングされる(状態7)。
そして、第1トラックにミキシングされた1チャネルのオーディオ信号がピースファイルの音楽素材データとして端末装置20へ送信され、同装置20のスピーカ28から3トラック分の楽音が同時期に放音されることになる。
Further, the material ID “I” of the second track is replaced with the material ID “AAAB” (state 4).
Finally, the music material data a of the connect file corresponding to the material ID “A” and the music material data b of the connect file corresponding to the material ID “B” are written to the second track in the order “aaabaab”. In addition, the music material data f of the connect file corresponding to the material ID “F” and the music material data g of the connect file corresponding to the material ID “G” are written in the order of “fffg” on the third track. (State 5 in FIG. 16).
When all the material IDs are replaced with the music material data, the music material data is replaced with the encoded audio signal at step 720 to step 740 (state 6), and further at step 750, the audio signals of all the tracks are replaced. Are mixed into the first track (state 7).
Then, a 1-channel audio signal mixed into the first track is transmitted to the terminal device 20 as music material data of a piece file, and musical sounds for three tracks are emitted from the speaker 28 of the same device 20 at the same time. become.

以上説明した本実施形態によると、音楽素材収録サービスを利用する各ユーザは、自らが創作する合奏曲で登場する各楽器パートの音楽素材や、或いは自身や他のユーザの創作する合奏曲で頻繁に登場するであろう汎用性の高い音楽素材をその属性と共に音楽素材管理サーバ装置10のデータベースに登録することができる。また、音楽素材編集サービスを利用するユーザは、ジャンル、雰囲気、楽器種別などの任意の属性を検索キーとして音楽素材の検索を行い、その検索結果の中から選択した音楽素材を各種編集操作を通じて合成していくことにより、自らの創作イメージに合致する合奏曲を効率的に創作することができる。   According to the present embodiment described above, each user who uses the music material recording service frequently uses music material of each instrument part that appears in the ensemble created by himself or an ensemble created by himself or another user. Can be registered in the database of the music material management server device 10 along with its attributes. In addition, users of the music material editing service search for music material using any attribute such as genre, atmosphere, and instrument type as search keys, and compose the music material selected from the search results through various editing operations. By doing so, you can efficiently create an ensemble that matches your own creative image.

(第2実施形態)
本願発明の第2実施形態について説明する。
第1実施形態の音楽素材編集サービスにおいては、編集画面の別ウィンドウとして表示される属性入力画面の各入力欄にユーザが属性を入力すると、その属性を検索キーとして音楽素材の検索が行われるようになっていた。これに対し、本実施形態では、ユーザが自らの楽器により演奏したフレーズそのものを検索キーとして音楽素材の検索を行う。
本実施形態に係る音楽素材編集システムは、音楽素材管理サーバ装置10の属性管理データベース15bのデータ構造を除いて、第1実施形態と同様のハードウェア構成となっている。
(Second Embodiment)
A second embodiment of the present invention will be described.
In the music material editing service of the first embodiment, when a user inputs an attribute in each entry field of the attribute input screen displayed as a separate window of the editing screen, the music material is searched using the attribute as a search key. It was. On the other hand, in this embodiment, the music material is searched using the phrase itself played by the user with his / her instrument as a search key.
The music material editing system according to the present embodiment has the same hardware configuration as that of the first embodiment, except for the data structure of the attribute management database 15b of the music material management server device 10.

図17は、属性管理データベース15bのデータ構造図である。図に示すように、このデータベースを構成する1つのレコードは、「素材識別子」、「第1属性(ジャンル)」、「第2属性(雰囲気)」、「第3属性(楽器種別)」に加えて、「第4属性(波形特徴)」のフィールドを有している。この「第4属性(波形特徴)」のフィールドには、音楽素材のオーディオ波形の特徴を表す特徴パラメータが記憶される。後の動作説明の項で詳述するように、この「第4属性(波形特徴)」のフィールドに記憶される特徴パラメータは、ユーザが収録した音楽素材のオーディオ波形を解析することによって取得される。   FIG. 17 is a data structure diagram of the attribute management database 15b. As shown in the figure, one record constituting this database includes “material identifier”, “first attribute (genre)”, “second attribute (atmosphere)”, and “third attribute (instrument type)”. And a field of “fourth attribute (waveform feature)”. In the field of “fourth attribute (waveform feature)”, a feature parameter representing the feature of the audio waveform of the music material is stored. As will be described in detail later in the description of the operation, the feature parameter stored in the “fourth attribute (waveform feature)” field is obtained by analyzing the audio waveform of the music material recorded by the user. .

次に、本実施形態の動作を説明する。
本実施形態の動作は、音楽素材収録処理と音楽素材編集処理とに大別することができる。
図18は、本実施形態の音楽素材収録処理を示すフローチャートである。図においては、ステップ260を実行した後の内容が図5と異なる。
図に示すステップ260にて属性データを記憶した音楽素材管理サーバ装置10のCPU11は、ステップ160にて端末装置20から送信されてきた音楽素材データが表すオーディオ信号に所定の解析処理を施すことにより、そのオーディオ波形の特徴を表す特徴パラメータを取得する(S261)。
続いて、CPU11は、ステップ250にて追加したレコードの「第4属性(波形特徴)」のフィールドへステップ261で取得した特徴パラメータを記憶する(S262)。
特徴パラメータが記憶された後、図5に示すステップ270以降と同様の処理が実行される。
Next, the operation of this embodiment will be described.
The operation of this embodiment can be roughly divided into music material recording processing and music material editing processing.
FIG. 18 is a flowchart showing the music material recording process of the present embodiment. In the figure, the contents after executing step 260 are different from those in FIG.
The CPU 11 of the music material management server apparatus 10 storing the attribute data in step 260 shown in the figure performs a predetermined analysis process on the audio signal represented by the music material data transmitted from the terminal apparatus 20 in step 160. Then, a feature parameter representing the feature of the audio waveform is acquired (S261).
Subsequently, the CPU 11 stores the feature parameter acquired in step 261 in the “fourth attribute (waveform feature)” field of the record added in step 250 (S262).
After the feature parameters are stored, processing similar to that after step 270 shown in FIG. 5 is executed.

図19は、本実施形態における音楽素材編集処理を示すフローチャートである。図においては、ステップ340乃至ステップ360の内容が図8と異なる。
図6に示すステップ340において、音楽素材管理サーバ装置10のCPU11は、属性入力画面を編集画面上の別ウィンドウとして表示させるが、この属性入力画面には、「音楽素材の検索キーとする属性を入力して下さい。」という内容の文字列に加えて、「実際の演奏音を検索キーとする場合は、オーディオインターフェースに接続した楽器から演奏音を入力してください。」という内容の文字列が表示される。
属性入力画面を参照したユーザは、音楽素材の検索キーとする属性を同画面の一つ以上の入力欄に入力するか、オーディオインターフェース27に接続した楽器を演奏することにより、検索キーとなる演奏音を入力する。
入力欄に属性が入力されると、図6に示すステップ350以降と同様の処理が実行される。
一方、演奏音が入力されると、端末装置20のCPU21は、その演奏音のオーディオ信号をエンコードして得た音楽素材データを音楽素材管理サーバ装置10へ送信する(S351)。
FIG. 19 is a flowchart showing music material editing processing in the present embodiment. In the figure, the contents of steps 340 to 360 are different from those in FIG.
In step 340 shown in FIG. 6, the CPU 11 of the music material management server apparatus 10 displays the attribute input screen as a separate window on the editing screen. The attribute input screen displays “attributes used as music material search keys”. In addition to the text string “Please enter.”, The text string “Enter the performance sound from the instrument connected to the audio interface when using the actual performance sound as the search key” is displayed. Is displayed.
The user who has referred to the attribute input screen inputs an attribute to be used as a search key for the music material into one or more input fields on the screen, or plays a musical instrument connected to the audio interface 27, thereby performing a performance as a search key. Input sound.
When an attribute is entered in the input field, processing similar to that in step 350 and subsequent steps shown in FIG. 6 is executed.
On the other hand, when the performance sound is input, the CPU 21 of the terminal device 20 transmits the music material data obtained by encoding the audio signal of the performance sound to the music material management server device 10 (S351).

音楽素材データを受信した音楽素材管理サーバ装置10のCPU11は、受信した音楽素材データをエンコードして得たオーディオ信号を解析することにより、そのオーディオ波形の特徴を表す特徴パラメータを取得する(S352)。
続いて、CPU11は、ステップ352で取得した特徴パラメータと属性管理データベース15bの各レコードの「第4属性(波形特徴)」のフィールドの記憶内容とを順次照合することによって、検索キーとして演奏された演奏音の波形の特徴により近い特徴パラメータを記憶した所定数(例えば「10」)のレコードを特定する(S361)。
レコードが特定されると、図7に示すステップ370以降と同様の処理が実行され、検索キーとして入力された演奏音により近い音楽素材が検索結果として提示されることになる。
The CPU 11 of the music material management server apparatus 10 that has received the music material data obtains characteristic parameters representing the characteristics of the audio waveform by analyzing the audio signal obtained by encoding the received music material data (S352). .
Subsequently, the CPU 11 was played as a search key by sequentially comparing the feature parameters acquired in step 352 with the stored contents of the “fourth attribute (waveform feature)” field of each record of the attribute management database 15b. A predetermined number (for example, “10”) of records storing characteristic parameters closer to the characteristics of the waveform of the performance sound are specified (S361).
When the record is specified, the same processing as that after step 370 shown in FIG. 7 is executed, and the music material closer to the performance sound input as the search key is presented as the search result.

本実施形態によると、音楽素材の検索キーとして楽器の演奏音を用いることができるので、音楽素材編集サービスを利用するユーザは、自らの創作イメージに合致する合奏曲をより効率的に創作することができる。   According to this embodiment, since the performance sound of an instrument can be used as a search key for music material, a user using a music material editing service can more efficiently create an ensemble that matches his creation image. Can do.

(他の実施形態)
本実施形態は、種々の変形実施が可能である。
第1実施形態では、ジャンル、雰囲気、楽器種類の3つの属性を検索キーとして音楽素材の検索が行われるようになっていたが、拍子、テンポ、スケール、小節数などの他の属性を検索キーとして検索を行えるようにしてもよい。
上記実施形態では、編集画面の音楽素材合成欄60が第1トラック61と第2トラック62の2つのトラックを有していたが、より多くのトラックを設けてもよい。この変形例によれば、より多くの音楽素材の素材IDの並びをミキシング編集操作によって一度に合成することができる。また、音楽素材管理サーバ装置10のRAM12に確保されるマルチトラックシーケンス領域は4つのトラックを有していたが、より多くのトラック数を有していてもよい。
上記実施形態の音楽素材収録サービスにおいては、端末装置20のオーディオインターフェース27と接続した楽器をユーザ自らが演奏することによって音楽素材のオーディオ信号を取得していたが、オーディオインターフェース27に音源を接続し、その音源を制御することによって音楽素材のオーディオ信号を取得してもよい。
上記実施形態の再生処理では、マルチトラックシーケンス領域の各トラックに書込まれた音楽素材データをオーディオ信号に置き換えた後、それらのオーディオ信号を第1トラックにミキシングしてから端末装置20へ提供していたが、端末装置20が2つのチャネルのオーディオ信号を処理可能であれば、2つのチャネルのオーディオ信号にミキシングしてから端末装置20へ提供してもよい。或いは、マルチトラックシーケンス領域の各トラックに書き込まれている音楽素材データの楽器パートを端末装置20にまず提示し、それらのうちからユーザが選択した2つの楽器パートのオーディオ信号だけを端末装置20へ提供するようにしてもよい。
上記実施形態は、複数のユーザによる利用を想定して音楽素材管理サーバ装置10をネットワーク30上に設置し、そのサーバ装置がユーザの端末装置20からの要求に応じて音楽素材収録サービスと音楽素材編集サービスの両サービスを提供する態様を説明したが、スタンドアロンのコンピュータ装置によってこれらの両サービスを提供してもよい。
第2実施形態では、楽器の楽音そのものを検索キーとして音楽素材の検索を行っていたが、人間の発した音声を検索キーとして音楽素材の検索を行なってもよい。
(Other embodiments)
This embodiment can be modified in various ways.
In the first embodiment, the music material is searched using the three attributes of genre, atmosphere, and instrument type as search keys, but other attributes such as time signature, tempo, scale, and number of bars are searched. The search may be performed as follows.
In the above embodiment, the music material composition field 60 on the editing screen has two tracks, the first track 61 and the second track 62, but more tracks may be provided. According to this modification, it is possible to combine a sequence of material IDs of more music materials at a time by a mixing editing operation. Further, although the multi-track sequence area secured in the RAM 12 of the music material management server apparatus 10 has four tracks, it may have a larger number of tracks.
In the music material recording service of the above embodiment, the audio signal of the music material is acquired by the user himself / herself playing a musical instrument connected to the audio interface 27 of the terminal device 20, but a sound source is connected to the audio interface 27. The audio signal of the music material may be acquired by controlling the sound source.
In the reproduction processing of the above embodiment, after the music material data written in each track of the multi-track sequence area is replaced with an audio signal, the audio signal is mixed with the first track and then provided to the terminal device 20. However, if the terminal device 20 can process audio signals of two channels, the audio signals of two channels may be mixed and then provided to the terminal device 20. Alternatively, the musical instrument part of the music material data written in each track of the multi-track sequence area is first presented to the terminal device 20, and only the audio signals of the two musical instrument parts selected by the user from these are presented to the terminal device 20. You may make it provide.
In the above embodiment, the music material management server device 10 is installed on the network 30 assuming use by a plurality of users, and the server device responds to a request from the user's terminal device 20 with a music material recording service and music material. Although the aspect of providing both services of the editing service has been described, both of these services may be provided by a stand-alone computer device.
In the second embodiment, the music material is searched using the musical tone itself as a search key. However, the music material may be searched using a human voice as a search key.

音楽素材編集システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a music material editing system. ピースファイルのデータ構造図である。It is a data structure figure of a piece file. 属性管理データベース15bのデータ構造図である。It is a data structure figure of the attribute management database 15b. 音楽素材収録処理を示すフローチャートである。It is a flowchart which shows a music material recording process. 音楽素材収録処理を示すフローチャートである。It is a flowchart which shows a music material recording process. 音楽素材編集処理を示すフローチャートである。It is a flowchart which shows a music material edit process. 音楽素材編集処理を示すフローチャートである。It is a flowchart which shows a music material edit process. 音楽素材編集処理を示すフローチャートである。It is a flowchart which shows a music material edit process. 編集画面である。It is an edit screen. 属性入力画面である。It is an attribute input screen. ドラッグアンドドロップ操作の操作例を示す図である。It is a figure which shows the operation example of drag and drop operation. 編集画面を介した操作の一例を示す図である。It is a figure which shows an example of operation via an edit screen. 再生処理を示すフローチャートである。It is a flowchart which shows a reproduction | regeneration process. 再生処理を示すフローチャートである。It is a flowchart which shows a reproduction | regeneration process. マルチトラックシーケンス領域の状態遷移図である(前半部分)。It is a state transition diagram of a multitrack sequence area (first half part). マルチトラックシーケンス領域の状態遷移図である(後半部分)。It is a state transition diagram of a multitrack sequence area (second half part). 属性管理データベースのデータ構造図である(第2実施形態)。It is a data structure figure of an attribute management database (2nd Embodiment). 音楽素材収録処理を示すフローチャートである(第2実施形態)。It is a flowchart which shows a music material recording process (2nd Embodiment). 音楽素材編集処理を示すフローチャートである(第2実施形態)。It is a flowchart which shows a music material edit process (2nd Embodiment).

符号の説明Explanation of symbols

10…音楽素材管理サーバ装置、11,21…CPU、12,22…RAM、13,33…ROM、14,26…通信インターフェース、15,29…ハードディスク、20…端末装置、24…マウス、25…コンピュータディスプレイ、27…オーディオインターフェース、28…スピーカ、30…ネットワーク、50…音楽素材提示欄、51,63…スクロールバー、60…音楽素材合成欄 DESCRIPTION OF SYMBOLS 10 ... Music material management server apparatus, 11, 21 ... CPU, 12, 22 ... RAM, 13, 33 ... ROM, 14, 26 ... Communication interface, 15, 29 ... Hard disk, 20 ... Terminal device, 24 ... Mouse, 25 ... Computer display, 27 ... Audio interface, 28 ... Speaker, 30 ... Network, 50 ... Music material presentation column, 51, 63 ... Scroll bar, 60 ... Music material composition column

Claims (3)

音楽素材の素材識別子と、その音楽素材のオーディオ信号を表す音楽素材データとを夫々含んだ各ピースファイルを記憶すると共に、合奏曲の一部又は全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データとを夫々含んだ各コネクトファイルを記憶するファイル記憶手段と、
音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、
操作子と
を備えるシステムを用いた音楽素材編集方法であって、
音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力工程と、
前記検索キー入力工程にて入力された属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索工程と、
前記出力された各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示工程と、
前記音楽素材合成指示工程にて選択された複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積工程と、
前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録工程と、
再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択工程と、
前記再生対象選択工程にて選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出工程と、
前記読出工程にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力工程と
を有する音楽素材編集方法。
Each piece file including the material identifier of the music material and the music material data representing the audio signal of the music material is stored, and continued for a length of time corresponding to part or all of the performance section of the ensemble. The material identifier of the synthetic music material that is the music material obtained by combining the music materials to be performed in parallel or in parallel, and the performance content of the synthetic music material, the material identifier of each music material to be played in succession or in parallel File storage means for storing each connect file including material composition management data represented as one or a plurality of columns,
Attribute storage means for storing material identifiers of music materials and attribute data representing attributes of the music materials in association with each other;
A music material editing method using a system including an operator,
A search key input step of inputting one or more attributes as a search key for music material in accordance with the operation of the operator;
A search step of reading a material identifier stored in the attribute storage means in association with attribute data representing a common attribute with the attribute input in the search key input step, and outputting the read material identifier as a search result;
From the output material identifiers, a material identifier of a plurality of music materials to be played continuously or continuously for a certain length of time is selected according to the operation of the operator, and the plurality of selected music materials are selected. A music material composition instruction step for inputting the attributes of the composite music material obtained in a collective manner according to the operation of the operator;
A material identifier unique to a synthetic music material obtained by collecting a plurality of music materials selected in the music material composition instruction step, and a material representing the selected material identifiers as one or a plurality of columns A connect file accumulating step for generating a composition management data and storing a new connect file including the generated material identifier and material composition management data in the file storage means;
An attribute registration step of associating the generated material identifier with attribute data representing the input attribute and storing the attribute data in the attribute storage unit;
A reproduction target selection step of selecting a synthetic music material to be reproduced according to the operation of the operation element;
A connect file including the material identifier of the synthetic music material selected in the reproduction target selection step is read from the file storage means and associated with each of a series of material identifiers represented by the material composition management data included in the read connect file. A reading step of reading the piece file stored in the file storage means;
A music material comprising: a signal output step of outputting an audio signal obtained by connecting, mixing, or both of audio signals represented by each piece of music material data included in the piece file read in the reading step Editing method.
請求項1に記載の音楽素材編集方法において、
前記属性データは、音楽素材の属性の一つであるオーディオ波形の特徴を表すデータであり、
前記検索キー入力工程は、
音楽素材のキーとする音声又は楽音を所定の収音デバイスを介して入力する工程を有し、
前記検索工程は、
前記入力された音声又は楽音のオーディオ波形の特徴を解析し、その解析の結果に近い属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出す工程を有する
音楽素材編集方法。
The music material editing method according to claim 1,
The attribute data is data representing the characteristics of an audio waveform that is one of the attributes of music material,
The search key input step includes:
A step of inputting voice or musical sound as a key of music material through a predetermined sound collecting device;
The search step includes
A music material editing method comprising: analyzing characteristics of an audio waveform of the input voice or musical sound, and reading a material identifier stored in the attribute storage means in association with attribute data close to the result of the analysis.
音楽素材の素材識別子と、その音楽素材のオーディオ信号を表す音楽素材データとを夫々含んだ各ピースファイルを記憶すると共に、合奏曲の一部又は全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データとを夫々含んだ各コネクトファイルを記憶するファイル記憶手段と、
音楽素材の素材識別子と、それらの音楽素材の属性を表す属性データとを対応付けて記憶した属性記憶手段と、
操作子と、
音楽素材の検索キーとする一又は複数の属性を前記操作子の操作に従って入力する検索キー入力手段と、
前記検索キー入力手段が入力した属性と共通の属性を表す属性データと対応付けて前記属性記憶手段に記憶された素材識別子を読み出し、読み出した素材識別子を検索結果として出力する検索手段と、
前記出力した各素材識別子の中から、ある時間長の間に続けて又は連続して演奏させる複数の音楽素材の素材識別子を前記操作子の操作に従って選択すると共に、選択した複数の音楽素材を取り纏めて得られる合成音楽素材の属性を前記操作子の操作に従って入力する音楽素材合成指示手段と、
前記音楽素材合成指示手段が選択した複数の音楽素材を取り纏めることによって得られる合成音楽素材に固有の素材識別子と、当該選択された複数の素材識別子を一つ又は複数の列として表す素材合成管理データとを生成し、生成した素材識別子及び素材合成管理データを含んだ新たなコネクトファイルを前記ファイル記憶手段に記憶するコネクトファイル蓄積手段と、
前記生成した素材識別子と前記入力された属性を表す属性データとを対応付けて前記属性記憶手段に記憶する属性登録手段と、
再生の対象とする合成音楽素材を前記操作子の操作に従って選択する再生対象選択手段と、
前記再生対象選択手段が選択した合成音楽素材の素材識別子を含むコネクトファイルを前記ファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す一連の素材識別子の各々と対応付けて前記ファイル記憶手段に記憶されたピースファイルを読み出す読出手段と、
前記読出手段にて読み出したピースファイルに含まれる音楽素材データの各々が表すオーディオ信号を連結し、ミキシングし、又はその双方を行うことによって得たオーディオ信号を出力する信号出力手段と
を備える音楽素材編集システム。
Each piece file including the material identifier of the music material and the music material data representing the audio signal of the music material is stored, and continued for a length of time corresponding to part or all of the performance section of the ensemble. The material identifier of the synthetic music material that is the music material obtained by combining the music materials to be performed in parallel or in parallel, and the performance content of the synthetic music material, the material identifier of each music material to be played in succession or in parallel File storage means for storing each connect file including material composition management data represented as one or a plurality of columns,
Attribute storage means for storing material identifiers of music materials and attribute data representing attributes of the music materials in association with each other;
An operator,
Search key input means for inputting one or more attributes as search keys for music material according to the operation of the operator;
A search means for reading out a material identifier stored in the attribute storage means in association with attribute data representing an attribute common to the attribute input by the search key input means, and outputting the read material identifier as a search result;
From the output material identifiers, a material identifier of a plurality of music materials to be played continuously or continuously for a certain length of time is selected according to the operation of the operator, and the selected plurality of music materials are collected. Music material composition instruction means for inputting the attribute of the synthetic music material obtained in accordance with the operation of the operator,
A material identifier unique to a synthetic music material obtained by collecting a plurality of music materials selected by the music material composition instruction means, and a material composition management representing the selected material identifiers as one or a plurality of columns Connect file storage means for generating data and storing a new connect file including the generated material identifier and material composition management data in the file storage means;
Attribute registration means for associating and storing the generated material identifier and attribute data representing the input attribute in the attribute storage means;
Reproduction target selection means for selecting a synthetic music material to be reproduced according to the operation of the operation element;
The connect file including the material identifier of the synthetic music material selected by the reproduction target selection unit is read from the file storage unit, and is associated with each of a series of material identifiers represented by the material composition management data included in the read connect file. Reading means for reading the piece file stored in the file storage means;
Music material comprising: signal output means for outputting an audio signal obtained by connecting, mixing, or both of audio signals represented by music material data included in the piece file read by the reading means Editing system.
JP2005317278A 2005-10-31 2005-10-31 Music material editing method and music material editing system Expired - Fee Related JP4670591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005317278A JP4670591B2 (en) 2005-10-31 2005-10-31 Music material editing method and music material editing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005317278A JP4670591B2 (en) 2005-10-31 2005-10-31 Music material editing method and music material editing system

Publications (2)

Publication Number Publication Date
JP2007121935A true JP2007121935A (en) 2007-05-17
JP4670591B2 JP4670591B2 (en) 2011-04-13

Family

ID=38145815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005317278A Expired - Fee Related JP4670591B2 (en) 2005-10-31 2005-10-31 Music material editing method and music material editing system

Country Status (1)

Country Link
JP (1) JP4670591B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008518A (en) * 2008-06-24 2010-01-14 Sony Computer Entertainment Inc Music production apparatus, method of producing music, and program
JP2010243892A (en) * 2009-04-08 2010-10-28 Yamaha Corp Sound search device and program
JP2010271398A (en) * 2009-05-19 2010-12-02 Yamaha Corp Sound material retrieval device
WO2011151919A1 (en) * 2010-06-04 2011-12-08 パイオニア株式会社 Performance data presentation system
WO2011155062A1 (en) * 2010-06-11 2011-12-15 パイオニア株式会社 Performance generation system
CN102354498A (en) * 2011-08-17 2012-02-15 深圳市茁壮网络股份有限公司 Method, device and system for processing mixed sound
JP2012247957A (en) * 2011-05-26 2012-12-13 Yamaha Corp Data retrieval device and program
JP2013076941A (en) * 2011-09-30 2013-04-25 Xing Inc Musical piece playback system and device and musical piece playback method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149243A (en) * 1992-11-12 1994-05-27 Yamaha Corp Electronic musical instrument
JPH09230880A (en) * 1996-02-26 1997-09-05 Yamaha Corp Karaoke device
JPH11109970A (en) * 1997-09-30 1999-04-23 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2001109471A (en) * 1999-10-12 2001-04-20 Nippon Telegr & Teleph Corp <Ntt> Music retrieval device, music retrieval method and recording medium recording music retrieval program
JP2001296865A (en) * 2000-04-10 2001-10-26 Mudix Inc Music management database system and music cooperative production support system
JP2002258844A (en) * 2001-03-05 2002-09-11 Yamaha Corp Musical sound playing device
JP2003224630A (en) * 2001-10-05 2003-08-08 Motorola Inc Mobile wireless communication handset with sound mixer and method therefor
JP2004117632A (en) * 2002-09-25 2004-04-15 Matsushita Electric Ind Co Ltd Play list generator, music player, music delivery system, method therefor, program, and recording medium
JP2004171019A (en) * 1998-09-09 2004-06-17 Yamaha Corp Automatic composing device and memory medium
JP2004279756A (en) * 2003-03-17 2004-10-07 Yamaha Corp Device and program for using content related to sound or musical sound
JP2005241876A (en) * 2004-02-25 2005-09-08 Yamaha Corp Performance control data generating device, music material data distribution server, and program
JP2007525779A (en) * 2003-07-03 2007-09-06 トムソン ライセンシング Method for patrol in audio document set using graphical interface and receiver for patrol by the method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149243A (en) * 1992-11-12 1994-05-27 Yamaha Corp Electronic musical instrument
JPH09230880A (en) * 1996-02-26 1997-09-05 Yamaha Corp Karaoke device
JPH11109970A (en) * 1997-09-30 1999-04-23 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2004171019A (en) * 1998-09-09 2004-06-17 Yamaha Corp Automatic composing device and memory medium
JP2001109471A (en) * 1999-10-12 2001-04-20 Nippon Telegr & Teleph Corp <Ntt> Music retrieval device, music retrieval method and recording medium recording music retrieval program
JP2001296865A (en) * 2000-04-10 2001-10-26 Mudix Inc Music management database system and music cooperative production support system
JP2002258844A (en) * 2001-03-05 2002-09-11 Yamaha Corp Musical sound playing device
JP2003224630A (en) * 2001-10-05 2003-08-08 Motorola Inc Mobile wireless communication handset with sound mixer and method therefor
JP2004117632A (en) * 2002-09-25 2004-04-15 Matsushita Electric Ind Co Ltd Play list generator, music player, music delivery system, method therefor, program, and recording medium
JP2004279756A (en) * 2003-03-17 2004-10-07 Yamaha Corp Device and program for using content related to sound or musical sound
JP2007525779A (en) * 2003-07-03 2007-09-06 トムソン ライセンシング Method for patrol in audio document set using graphical interface and receiver for patrol by the method
JP2005241876A (en) * 2004-02-25 2005-09-08 Yamaha Corp Performance control data generating device, music material data distribution server, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008518A (en) * 2008-06-24 2010-01-14 Sony Computer Entertainment Inc Music production apparatus, method of producing music, and program
JP4651055B2 (en) * 2008-06-24 2011-03-16 株式会社ソニー・コンピュータエンタテインメント Music generating apparatus, music generating method, and program
JP2010243892A (en) * 2009-04-08 2010-10-28 Yamaha Corp Sound search device and program
JP2010271398A (en) * 2009-05-19 2010-12-02 Yamaha Corp Sound material retrieval device
WO2011151919A1 (en) * 2010-06-04 2011-12-08 パイオニア株式会社 Performance data presentation system
JP5506002B2 (en) * 2010-06-04 2014-05-28 パイオニア株式会社 Performance data presentation system
WO2011155062A1 (en) * 2010-06-11 2011-12-15 パイオニア株式会社 Performance generation system
JP2012247957A (en) * 2011-05-26 2012-12-13 Yamaha Corp Data retrieval device and program
CN102354498A (en) * 2011-08-17 2012-02-15 深圳市茁壮网络股份有限公司 Method, device and system for processing mixed sound
JP2013076941A (en) * 2011-09-30 2013-04-25 Xing Inc Musical piece playback system and device and musical piece playback method

Also Published As

Publication number Publication date
JP4670591B2 (en) 2011-04-13

Similar Documents

Publication Publication Date Title
JP4670591B2 (en) Music material editing method and music material editing system
US8173883B2 (en) Personalized music remixing
JP2010518459A (en) Web portal for editing distributed audio files
JP4926756B2 (en) Karaoke sound effect output system
US20080190270A1 (en) System and method for online composition, and computer-readable recording medium therefor
KR20060049070A (en) Electronic musical apparatus for reproducing received music content
JP2000056756A (en) Support apparatus for musical instrument training and record medium of information for musical instrument training
JP2012018282A (en) Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method
JP6733240B2 (en) How to update the content list
JP2007071903A (en) Musical piece creation support device
JP2007122634A (en) Method and system for calculating charge for using musical material
JP4670540B2 (en) Music material editing method, material editing method and music material editing system
JP4581965B2 (en) Music material processing method and music material processing system
JP4740583B2 (en) Music data processing apparatus and program
JP2005345559A (en) Karaoke system having parody performance function
JP4498221B2 (en) Karaoke device and program
JP4315101B2 (en) Music content providing apparatus and program
JP4305315B2 (en) Automatic performance data characteristic changing device and program thereof
JP4613924B2 (en) Song editing apparatus and program
JP6611633B2 (en) Karaoke system server
JP4407419B2 (en) Electronic music equipment
JPH11344975A (en) Musical performance information preparing and displaying device and record medium therefor
JP6699137B2 (en) Data management device, content playback device, content playback method, and program
JP5387032B2 (en) Electronic music apparatus and program
KR100666010B1 (en) Arrangement system of a music using the internet, the method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

R150 Certificate of patent or registration of utility model

Ref document number: 4670591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees