JP2007121876A - Method and system for processing music material - Google Patents

Method and system for processing music material Download PDF

Info

Publication number
JP2007121876A
JP2007121876A JP2005316600A JP2005316600A JP2007121876A JP 2007121876 A JP2007121876 A JP 2007121876A JP 2005316600 A JP2005316600 A JP 2005316600A JP 2005316600 A JP2005316600 A JP 2005316600A JP 2007121876 A JP2007121876 A JP 2007121876A
Authority
JP
Japan
Prior art keywords
music
file
track
music material
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005316600A
Other languages
Japanese (ja)
Other versions
JP4581965B2 (en
Inventor
Noriyuki Hata
紀行 畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005316600A priority Critical patent/JP4581965B2/en
Publication of JP2007121876A publication Critical patent/JP2007121876A/en
Application granted granted Critical
Publication of JP4581965B2 publication Critical patent/JP4581965B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily create music imparted with various sound effects. <P>SOLUTION: Through music material editing services, composite music materials are created by entering a plurality of music materials to a music material composition field on an editing picture. When the composite music materials are created by using these services, a user can discriminatingly specify an insertion effect to be imparted to only the composite music materials and a system effect to be imparted to all music materials including the composite music materials. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、音楽素材加工方法に関する。   The present invention relates to a music material processing method.

各種楽器の演奏音から得た複数の音楽素材を合成して1つの合奏曲を創作できるようにした作曲支援システムが提案されている。例えば、特許文献1に記載されたシステムは、各種楽器の演奏音から得たオーディオデータを音楽素材として個別のバッファに記憶し、各バッファに記憶されたオーディオデータの繰り返しの回数やその順序をユーザが決定することによりオリジナルの楽曲を創作できるようになっている。
特開平11−327550号公報
There has been proposed a composition support system in which a plurality of music materials obtained from performance sounds of various instruments can be synthesized to create one ensemble. For example, the system described in Patent Document 1 stores audio data obtained from performance sounds of various musical instruments in individual buffers as music material, and indicates the number of repetitions and the order of the audio data stored in each buffer. By making a decision, you can create original music.
JP-A-11-327550

ところで、上述した類の作曲支援システムを利用するユーザの中には、予め準備された音楽素材を単に合成するだけでなく、合成により得た合奏曲の全部又は一部にリバーブなどの各種音響効果を付与してアレンジしてみたいと希望する者も少なくない。しかしながら、これまでの作曲支援システムは音楽素材の合成時に音響効果を付することができないようになっていたため、音響効果の付与された合奏曲を創作する際は、予め各種音響効果を付与した状態で収録した音楽素材を準備してから創作に臨まなければならないという不都合があった。
本発明は、このような背景の下に案出されたものであり、各種音響効果の付与された楽曲の創作を容易に行えるような仕組みを提供することを目的とする。
By the way, among users who use the above-mentioned kind of composition support system, not only simply synthesizing music materials prepared in advance, but also various acoustic effects such as reverb are added to all or part of the ensemble obtained by synthesis. There are many people who want to arrange with However, since the conventional composition support system cannot add sound effects when synthesizing music materials, when creating an ensemble with sound effects, various sound effects have been applied in advance. There was an inconvenience that you had to prepare the music material recorded in, and then start creating.
The present invention has been devised under such a background, and an object of the present invention is to provide a mechanism that can easily create a musical composition with various acoustic effects.

本発明の好適な態様である音楽素材加工方法は、各音楽素材のオーディオ信号を表す音楽素材データとその音楽素材の素材識別子とを夫々含んだ各ピースファイルを記憶するピースファイル記憶手段と、合奏曲の一部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該合成音楽素材に付与する音響効果を表すインサーションエフェクト制御データとを夫々含んだ各コネクトファイルを記憶するコネクトファイル記憶手段と、合奏曲の全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である楽曲音楽素材の素材識別子と、その楽曲音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該楽曲音楽素材に付与する音響効果を表すシステムエフェクト制御データとを夫々含んだ各リストファイルを記憶するリストファイル記憶手段と、操作子と、データ列を記憶する複数のトラックを有するトラックバッファとを有するシステムを用いた音楽素材加工方法であって、再生の対象とする楽曲音楽素材を前記操作子の操作に従って選択する再生対象選択工程と、前記再生対象選択工程にて選択した楽曲音楽素材の素材識別子を含むリストファイルを前記リストファイル記憶手段から読み出し、そのリストファイルに含まれる素材合成管理データが表す素材識別子の各列を前記トラックバッファの各トラックへ記憶すると共に、当該リストファイルからシステムエフェクト制御データを抽出するリストファイル展開工程と、前記リストファイル展開工程にて各トラックに記憶した素材識別子を夫々含むコネクトファイルを前記コネクトファイル記憶手段から読み出し、それらのコネクトファイルに含まれる素材合成管理データが表す素材識別子の各列を前記リストファイル展開工程にて記憶された素材識別子の各々に換えて各トラックに記憶すると共に、当該コネクトファイルからインサーションエフェクト制御データを抽出するコネクトファイル展開工程と、前記コネクトファイル展開工程にて各トラックに記憶した素材識別子を含むピースファイルを前記ピースファイル記憶手段から夫々読み出し、それらのピースファイルに含まれる音楽素材データを前記コネクトファイル展開工程にて記憶された素材識別子の各々に換えて各トラックに記憶するピースファイル展開工程と、前記抽出したインサーションエフェクト制御データに基づく音響効果付与処理を前記ピースファイル展開工程にて各トラックに夫々記憶された音楽素材データに対して施す第1の効果付与工程と、前記第1の効果付与工程にて音響効果付与処理が施された各トラックの音楽素材データをミキシングするミキシング工程と、前記抽出したシステムエフェクト制御データに基づく音響効果付与処理を前記ミキシングされた音楽素材データに対して施す第2の効果付与工程と、前記第2の効果付与工程にて音響効果付与処理が施された音楽素材データを楽音として出力する楽音出力工程とを有する。   A music material processing method according to a preferred aspect of the present invention includes a piece file storage means for storing piece files each including music material data representing an audio signal of each music material and a material identifier of the music material, and an ensemble The material identifier of the composite music material, which is the music material obtained by combining the music materials to be performed continuously or in parallel for the length of time corresponding to a part of the performance section of the song, and the performance contents of the composite music material , Material composition management data represented as one or a plurality of columns composed of material identifiers of music materials to be played in succession or in parallel, and insertion effect control data representing acoustic effects to be given to the synthesized music material, Connected file storage means for storing each connect file including each of them, and continuously or in parallel for a time length corresponding to the entire performance section of the ensemble. One or a plurality of material identifiers of music materials that are music materials obtained by collecting music materials to be performed, and material identifiers of the respective music materials that are played in succession or in parallel, A list file storage means for storing each list file including the material composition management data represented as a column and system effect control data representing the sound effect to be given to the music material, an operator, and a data column. A music material processing method using a system having a track buffer having a plurality of tracks to be stored, wherein a music material material to be reproduced is selected in accordance with an operation of the operation element, and the reproduction object A list file including the material identifier of the music material selected in the selection step is read from the list file storage means, and A list file expansion process for storing each column of material identifiers represented by the material composition management data included in the list file in each track of the track buffer, and extracting system effect control data from the list file, and the list file expansion process The connect files each including the material identifier stored in each track are read from the connect file storage means, and each column of material identifiers represented by the material composition management data included in the connect files is stored in the list file expansion step. Each of the recorded material identifiers is stored in each track, and includes a connect file development process for extracting insertion effect control data from the connect file, and a material identifier stored in each track in the connect file development process. Pi Piece file expansion step of reading out the source files from the piece file storage means, and storing the music material data contained in those piece files in each track in place of each of the material identifiers stored in the connect file expansion step; A first effect applying step for applying a sound effect applying process based on the extracted insertion effect control data to the music material data stored in each track in the piece file developing step; and the first effect applying A mixing step of mixing the music material data of each track that has been subjected to the sound effect applying process in the step; and a sound effect applying process based on the extracted system effect control data is applied to the mixed music material data. 2 effect applying step and the second effect applying step And a tone output step of outputting the sound effect imparting processing music material data subjected as tone.

この態様において、前記ピースファイル展開工程は、前記コネクトファイル展開工程にて各トラックに記憶した素材識別子の各々を処理対象としてそれらの素材識別子を含むピースファイルが前記ピースファイル記憶手段にあるか否かを順次判断し、処理対象となった素材識別子を含むピースファイルがあると判断すると、そのピースファイルに含まれる音声素材データを当該処理対象の素材識別子に換えてトラックに記憶する一方、処理対象となった素材識別子を含むピースファイルがないと判断するたびに、当該処理対象の素材識別子を含むコネクトファイルを前記コネクトファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す素材識別子の一つ又は複数の列を当該処理対象の素材識別子に換えてトラックに記憶する処理を再帰的に繰り返すことにより、前記コネクトファイル展開工程にて各トラックに記憶された素材識別子のすべてを音楽素材データに置換する工程を有してもよい。   In this aspect, the piece file development step determines whether each piece of material identifier stored in each track in the connect file development step has a piece file including the material identifier as a processing target in the piece file storage unit. Are sequentially determined, and if it is determined that there is a piece file including the material identifier to be processed, the audio material data included in the piece file is stored in the track in place of the material identifier of the processing target. Each time it is determined that there is no piece file including the material identifier, the connect file including the material identifier to be processed is read from the connect file storage unit, and the material identifier represented by the material composition management data included in the read connect file One or more columns of Ete by a process of storing the track is repeated recursively, may have a step of replacing all of the material identifier stored in each track in the connect file expansion process to the music material data.

また、ある時間長の間に連続して又は並行して演奏させる複数の音楽素材を前記操作子の操作に従って選択すると共に、当該選択した複数の音楽素材を取り纏めて得られる新たな音楽素材に付与する音響効果を前記操作子の操作に従って入力する音楽素材合成指示工程と、前記選択された複数の音楽素材の素材識別子を一つ又は複数の列として表す素材合成管理データを生成する管理データ生成工程と、楽曲音楽素材の生成の有無を問い合わせるメッセージを出力するメッセージ出力工程と、前記メッセージを出力した後、楽曲音楽素材の生成指示が前記操作子の操作に従って入力されなかったとき、前記選択された複数の音楽素材を取り纏めて得られる合成音楽素材に固有の素材識別子と前記入力された音響効果を表すインサーションエフェクト制御データとを生成し、それらの素材識別子及びインサーションエフェクト制御データと前記管理データ生成工程にて生成した素材合成管理データとを含む新たなコネクトファイルを前記コネクトファイル記憶手段に記憶する一方、楽曲音楽素材の生成指示が前記操作子の操作に従って入力されたとき、前記選択された複数の音楽素材を取り纏めて得られる楽曲音楽素材に固有の素材識別子と前記入力された音響効果を表すシステムエフェクト制御データとを生成し、それらの素材識別子及びシステムエフェクト制御データと前記管理データ生成工程にて生成した素材合成管理データとを含む新たなリストファイルを前記リストファイル記憶手段に記憶する新規ファイル蓄積工程とを更に有してもよい。   In addition, a plurality of music materials to be played continuously or in parallel for a certain length of time are selected according to the operation of the operation element, and the selected plurality of music materials are added to a new music material obtained collectively. Music material synthesis instruction step for inputting sound effects to be performed in accordance with the operation of the operator, and management data generation step for generating material synthesis management data representing the material identifiers of the selected plurality of music materials as one or a plurality of columns A message output step for outputting a message for inquiring whether or not the music composition material is generated; and after outputting the message, when the music music material generation instruction is not input according to the operation of the operator, the selected A material identifier unique to a synthetic music material obtained by collecting a plurality of music materials and an insertion F representing the input sound effect. And a new connect file containing the material identifier and insertion effect control data and the material composition management data generated in the management data generation step is stored in the connect file storage means, When a music music material generation instruction is input in accordance with the operation of the operator, a system identifier representing a material identifier unique to the music music material obtained by collecting the plurality of selected music materials and the input sound effect And a new file storage step for generating a new list file containing the material identifier and system effect control data and the material synthesis management data generated in the management data generation step in the list file storage means And may further include

更に、所定の信号入力デバイスを介して音楽素材のオーディオ信号を入力する工程と、前記入力したオーディオ信号を表す音楽素材データに固有の素材識別子を生成し、生成した素材識別子と当該音楽素材データとを含んだ新たなピースファイルを前記ピースファイル記憶手段に記憶する工程とを有してもよい。   Furthermore, a step of inputting an audio signal of a music material via a predetermined signal input device, a material identifier unique to the music material data representing the input audio signal are generated, and the generated material identifier and the music material data And storing a new piece file including the information in the piece file storage means.

本発明の別の好適な態様である音楽素材加工システムは、各音楽素材のオーディオ信号を表す音楽素材データとその音楽素材の素材識別子とを夫々含んだ各ピースファイルを記憶するピースファイル記憶手段と、合奏曲の一部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該合成音楽素材に付与する音響効果を表すインサーションエフェクト制御データとを夫々含んだ各コネクトファイルを記憶するコネクトファイル記憶手段と、合奏曲の全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である楽曲音楽素材の素材識別子と、その楽曲音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該楽曲音楽素材に付与する音響効果を表すシステムエフェクト制御データとを夫々含んだ各リストファイルを記憶するリストファイル記憶手段と、操作子と、データ列を記憶する複数のトラックを有するトラックバッファと、再生の対象とする楽曲音楽素材を前記操作子の操作に従って選択する再生対象選択手段と、前記再生対象選択手段によって選択された楽曲音楽素材の素材識別子を含むリストファイルを前記リストファイル記憶手段から読み出し、そのリストファイルに含まれる素材合成管理データが表す素材識別子の各列を前記トラックバッファの各トラックへ記憶すると共に、当該リストファイルからシステムエフェクト制御データを抽出するリストファイル展開手段と、前記リストファイル展開手段が各トラックに記憶した素材識別子を夫々含むコネクトファイルを前記コネクトファイル記憶手段から読み出し、それらのコネクトファイルに含まれる素材合成管理データが表す素材識別子の各列を前記リストファイル展開手段が記憶した素材識別子の各々に換えて各トラックに記憶すると共に、当該コネクトファイルからインサーションエフェクト制御データを抽出するコネクトファイル展開手段と、前記コネクトファイル展開手段が各トラックに記憶した素材識別子を含むピースファイルを前記ピースファイル記憶手段から夫々読み出し、それらのピースファイルに含まれる音楽素材データを前記コネクトファイル展開手段が記憶した素材識別子の各々に換えて各トラックに記憶するピースファイル展開手段と、前記抽出したインサーションエフェクト制御データに基づく音響効果付与処理を前記ピースファイル展開手段が各トラックに夫々記憶した音楽素材データに対して施す第1の効果付与手段と、前記第1の効果付与手段が音響効果付与処理を施した各トラックの音楽素材データをミキシングするミキシング手段と、前記抽出したシステムエフェクト制御データに基づく音響効果付与処理を前記ミキシングした音楽素材データに対して施す第2の効果付与手段と、前記第2の効果付与手段が音響効果付与処理を施した音楽素材データを楽音として出力する楽音出力手段とを有する。   A music material processing system according to another preferred embodiment of the present invention comprises piece file storage means for storing piece files each including music material data representing an audio signal of each music material and a material identifier of the music material. , A material identifier of a synthetic music material that is a music material obtained by combining music materials to be performed continuously or in parallel for a length of time corresponding to a part of the performance of the ensemble, and the performance of the synthetic music material Material composition management data representing the contents as one or a plurality of columns composed of material identifiers of the respective music materials to be played in succession or in parallel, and insertion effect control representing an acoustic effect to be given to the synthesized music material The connected file storage means for storing each connected file including data, and the time length corresponding to the entire performance section of the ensemble. The material identifier of the music material, which is the music material obtained by collecting the music material to be performed in the same way, and the material identifier of each music material to be played in succession or in parallel, the performance content of the music material. List file storage means for storing each list file including material composition management data represented as one or a plurality of columns, and system effect control data representing sound effects to be applied to the music material, and an operator; A track buffer having a plurality of tracks for storing a data string, a reproduction target selection means for selecting a musical composition music material to be reproduced in accordance with an operation of the operation element, and a musical composition music material selected by the reproduction target selection means A list file containing material identifiers is read from the list file storage means, and the material composition included in the list file is read Each column of material identifiers represented by physical data is stored in each track of the track buffer, and list file expansion means for extracting system effect control data from the list file, and material stored in each track by the list file expansion means Connect files each including an identifier are read from the connect file storage means, and each column of material identifiers represented by the material composition management data included in the connect files is replaced with each of the material identifiers stored by the list file expansion means. Connect file expansion means for extracting insertion effect control data from the connect file and storing the piece file including the material identifier stored in each track by the connect file expansion means from the piece file storage means. The piece file development means for reading out the music material data contained in each piece file and storing it in each track in place of the material identifier stored in the connect file development means, and the extracted insertion effect control data First effect applying means for applying the sound effect applying process to the music material data stored in each track by the piece file developing means, and each track having the sound effect applying process performed by the first effect applying means Mixing means for mixing the music material data, second effect applying means for applying the sound effect applying process based on the extracted system effect control data to the mixed music material data, and the second effect applying means Outputs music material data that has undergone acoustic effect processing as musical sound And a sound output means.

本発明によると、各種音響効果の付与された楽曲の創作を容易に行うことができる。   According to the present invention, it is possible to easily create music with various acoustic effects.

(発明の実施の形態)
本願発明の実施形態について説明する。
本実施形態は、複数の楽器パートからなる合奏曲の創作を行うユーザに対して以下の3つのサービスを提供する。
(1)音楽素材収録サービス
このサービスは、ある時間長の演奏内容を表す楽音(以下、この楽音を「音楽素材」と呼ぶ)のデータファイルをユーザの演奏する各種楽器から収録してサーバ装置のデータベースに蓄積するサービスである。
(2)音楽素材編集サービス
このサービスは、データベースに蓄積されている任意の複数の音楽素材を組み合わせることによって、合奏曲の一部の演奏区間に相当する時間長の演奏内容を表す音楽素材(以下、この音楽素材を適宜「合成音楽素材」と呼ぶ)を創作させ、更にそれら複数の合成音楽素材を任意の順番で連結することによって、合奏曲の全部の演奏区間に相当する時間長の演奏内容を表す音楽素材(以下、この音楽素材を適宜「楽曲音楽素材」と呼ぶ)を創作させるサービスである。
(3)音楽素材再生サービス
このサービスは、音楽素材編集サービスを通じて創作された楽曲音楽素材を楽音として再生するサービスである。
(Embodiment of the Invention)
An embodiment of the present invention will be described.
The present embodiment provides the following three services to a user who creates an ensemble composed of a plurality of instrument parts.
(1) Music material recording service This service records data files of musical sounds (hereinafter referred to as "music material") representing the performance contents of a certain length of time from various musical instruments played by the user, A service that accumulates in a database.
(2) Music material editing service This service combines music materials stored in a database to represent music material (hereinafter referred to as a musical material) that represents the performance content of the length of time corresponding to a part of the performance section of the ensemble. , This music material is called “synthetic music material” as appropriate, and by connecting these synthetic music materials in any order, the performance content of the length of time corresponding to the entire performance section of the ensemble This is a service that creates music material that represents music (hereinafter, this music material is referred to as “music music material” as appropriate).
(3) Music material reproduction service This service is a service for reproducing musical composition music material created through a music material editing service as musical sound.

本実施形態に係る音楽素材加工システムは、以下の2つの特徴を有する。
1つ目の特徴は、音楽素材編集サービスにおいて複数の音楽素材から創作する合成音楽素材や楽曲音楽素材の各々に、ディレイやリバーブなどの各種エフェクトを付与できるようにした点である。
2つ目の特徴は、ユーザが創作した合成音楽素材に付与するエフェクトを指定する際、その合成音楽素材だけに付与するエフェクト(以下、このエフェクトを「インサーションエフェクト」と呼ぶ)と、その合成音楽素材を一部に含む楽曲音楽素材の全体に付与するエフェクト(以下、このエフェクトを「システムエフェクト」と呼ぶ)とを区別した上で指定できるようにした点である。
The music material processing system according to the present embodiment has the following two features.
The first feature is that various effects such as delay and reverb can be added to each of the synthetic music material and music composition material created from a plurality of music materials in the music material editing service.
The second feature is that when specifying an effect to be given to a synthetic music material created by the user, an effect to be given only to the synthetic music material (hereinafter referred to as an “insertion effect”), and its synthesis This is because it is possible to specify the effect after distinguishing it from the effect (hereinafter referred to as “system effect”) applied to the entire music material including the music material.

図1は、本実施形態にかかる音楽素材編集システムの全体構成を示すブロック図である。本システムは、音楽素材管理サーバ装置10と端末装置20をネットワーク30を介して接続してなる。図には端末装置20を1つしか記していないが、複数の端末装置20を有してもよい。図に示すように、音楽素材管理サーバ装置10は、各種制御を行うCPU11、ワークエリアを提供するRAM12、IPL(Initial Program Loader)を記憶したROM13、通信インターフェース14、ハードディスク15などを備える。
ハードディスク15は、音楽素材データベース15aと音楽素材管理プログラム15bを記憶する。
音楽素材データベース15aは、各々が1つの音楽素材と対応する複数のレコードの集合体である。このデータベースを構成する1つのレコードは、「素材識別子」、「ピースファイル」、「コネクトファイル」、及び「リストファイル」の4つのフィールドを有している。「素材識別子」のフィールドには、各音楽素材を固有に識別する識別子である素材IDが記憶される。また、「ピースファイル」のフィールドにはピースファイルが、「コネクトファイル」のフィールドにはコネクトファイルが、「リストファイル」のフィールドにはリストファイルが夫々記憶される。ここで、これら3つの各フィールドに夫々記憶されるピースファイル、コネクトファイル、及びリストファイルは、冒頭に示した音楽素材収録サービス及び音楽素材編集サービスを利用する端末装置20からの要求に応じて生成されるファイルである。
FIG. 1 is a block diagram showing the overall configuration of the music material editing system according to the present embodiment. In this system, a music material management server device 10 and a terminal device 20 are connected via a network 30. Although only one terminal device 20 is shown in the figure, a plurality of terminal devices 20 may be provided. As shown in the figure, the music material management server device 10 includes a CPU 11 that performs various controls, a RAM 12 that provides a work area, a ROM 13 that stores an IPL (Initial Program Loader), a communication interface 14, a hard disk 15, and the like.
The hard disk 15 stores a music material database 15a and a music material management program 15b.
The music material database 15a is an aggregate of a plurality of records each corresponding to one music material. One record constituting this database has four fields of “material identifier”, “piece file”, “connect file”, and “list file”. The “material identifier” field stores a material ID that is an identifier for uniquely identifying each music material. Also, a piece file is stored in the “piece file” field, a connect file is stored in the “connect file” field, and a list file is stored in the “list file” field. Here, the piece file, the connect file, and the list file stored in each of these three fields are generated in response to a request from the terminal device 20 using the music material recording service and the music material editing service shown at the beginning. File.

各ファイルのデータ構造について詳述する。
図2(a)に示すように、ピースファイルには、音楽素材データ、再生時間長データ、素材ID、及びユーザIDが内包される。音楽素材データは、音楽素材のオーディオ信号をエンコードして得た符号列を表すデータである。再生時間長データは音楽素材の再生時間長を表すデータであり、「1小節」、「1/2小節」、「1/4小節」、「2小節」といったように、合奏曲の1小節の長さを基準とする相対値によって音楽素材の再生時間長を表す。素材IDは、音楽素材を識別する識別子であり、その内容は「素材識別子」のフィールドに記憶された同IDと一致する。ユーザIDは、ユーザを識別する識別子である。
図2(b)に示すように、コネクトファイルには、素材合成管理データ、再生時間長データ、素材ID、ユーザID、及びエフェクト制御データが内包される。再生時間長データ、素材ID、ユーザIDの内容はピースファイルと同様なので再度の説明を割愛する。素材合成管理データは、複数の音楽素材の素材IDより成る1つ又は2つの列を表したシーケンスデータである。また、エフェクト制御データは、音楽素材のオーディオ信号に施す信号処理の内容を表したパラメータである。
図2(c)に示すように、リストファイルには、素材合成管理データ、再生時間長データ、素材ID、ユーザID、及びエフェクト制御データが内包される。素材合成管理データ、再生時間長データ、素材ID、ユーザID、エフェクト制御データの内容はコネクトファイルと同様である。但し、コネクトファイルに含まれる素材合成管理データは合成音楽素材の演奏内容を表すシーケンスデータであるの対し、リストファイルに含まれる素材合成管理データは楽曲音楽素材の演奏内容を表すシーケンスデータである点で相違する。
The data structure of each file will be described in detail.
As shown in FIG. 2A, the piece file includes music material data, reproduction time length data, material ID, and user ID. The music material data is data representing a code string obtained by encoding an audio signal of music material. The playback time length data is data representing the playback time length of the music material, such as “1 bar”, “1/2 bar”, “1/4 bar”, “2 bar”, etc. The reproduction time length of the music material is represented by a relative value based on the length. The material ID is an identifier for identifying the music material, and its content matches the ID stored in the “material identifier” field. The user ID is an identifier for identifying the user.
As shown in FIG. 2B, the connect file includes material composition management data, reproduction time length data, material ID, user ID, and effect control data. Since the contents of the reproduction time length data, material ID, and user ID are the same as those of the piece file, description thereof will be omitted. The material composition management data is sequence data representing one or two columns of material IDs of a plurality of music materials. The effect control data is a parameter representing the content of signal processing applied to the audio signal of the music material.
As shown in FIG. 2C, the list file includes material composition management data, reproduction time length data, material ID, user ID, and effect control data. The contents of the material composition management data, playback time length data, material ID, user ID, and effect control data are the same as those of the connect file. However, the material composition management data included in the connect file is sequence data representing the performance contents of the synthetic music material, whereas the material composition management data included in the list file is sequence data representing the performance contents of the music composition material. Is different.

図1において、端末装置20は、CPU21、RAM22、ROM23、操作子であるマウス24、コンピュータディスプレイ25、通信インターフェース26、オーディオインターフェース27、スピーカ28、ハードディスク29などを備える。
ハードディスク29は、音楽素材編集プログラム29aを記憶する。このプログラムは、本実施形態に特徴的な機能をCPU21に付与するプログラムである。
1, the terminal device 20 includes a CPU 21, a RAM 22, a ROM 23, a mouse 24 as an operator, a computer display 25, a communication interface 26, an audio interface 27, a speaker 28, a hard disk 29, and the like.
The hard disk 29 stores a music material editing program 29a. This program is a program that gives the CPU 21 the functions characteristic of this embodiment.

次に、本実施形態の動作を説明する。
本実施形態の動作は、音楽素材収録処理、音楽素材編集処理、及び音楽素材再生処理に大別することができる。ユーザが自らの端末装置20を起動すると、CPU21は、メインメニュー画面をコンピュータディスプレイ25に表示させる。この画面の上段には「利用するサービスを選択してください」という内容の文字列が表示され、その下には、「音楽素材収録サービス」、「音楽素材編集サービス」、及び「音楽素材再生サービス」と夫々記したボタンが表示される。そして、「音楽素材収録サービス」のボタンが選択されると音楽素材収録処理が、「音楽素材編集サービス」のボタンが選択されると音楽素材編集処理が、「音楽素材再生サービス」のボタンが選択されると音楽素材再生処理が夫々実行される。
Next, the operation of this embodiment will be described.
The operation of this embodiment can be roughly divided into music material recording processing, music material editing processing, and music material reproduction processing. When the user activates his / her terminal device 20, the CPU 21 displays a main menu screen on the computer display 25. In the upper part of this screen, a character string “Please select the service to use” is displayed. Below that, “Music material recording service”, “Music material editing service”, and “Music material playback service” are displayed. "Button is displayed. When the “Music material recording service” button is selected, the music material recording process is selected. When the “Music material editing service” button is selected, the music material editing process is selected, and the “Music material playback service” button is selected. Then, the music material reproduction process is executed.

図3は、音楽素材収録処理を示すフローチャートである。
メインメニュー画面の「音楽素材収録サービス」と記したボタンが選択されると、端末装置20のCPU21は、ユーザID入力画面をコンピュータディスプレイ25に表示させる(S100)。ユーザID入力画面の上段には、「ユーザIDを入力してください」という文字列が表示され、その下には、ユーザIDの入力欄が表示される。この画面を参照したユーザは、自らのユーザIDを入力欄に入力する。
ユーザIDが入力されると、端末装置20のCPU21は、そのユーザIDをRAM22に記憶した後、音楽素材収録サービスの提供を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S110)。
メッセージを受信した音楽素材管理サーバ装置10のCPU11は、素材入力要求画面の表示データを端末装置20へ送信する(S120)。
FIG. 3 is a flowchart showing the music material recording process.
When the button labeled “Music material recording service” on the main menu screen is selected, the CPU 21 of the terminal device 20 displays a user ID input screen on the computer display 25 (S100). A character string “Please enter user ID” is displayed in the upper part of the user ID input screen, and a user ID input field is displayed below it. The user who refers to this screen inputs his / her user ID in the input field.
When the user ID is input, the CPU 21 of the terminal device 20 stores the user ID in the RAM 22 and then transmits a message requesting the provision of the music material recording service to the music material management server device 10 (S110).
CPU11 of the music material management server apparatus 10 which received the message transmits the display data of a material input request screen to the terminal device 20 (S120).

表示データを受信した端末装置20のCPU21は、素材入力要求画面をコンピュータディスプレイ25に表示させる(S130)。この画面の上段には、「音楽素材のオーディオ信号を入力してください」という内容の文字列が表示される。
画面を参照したユーザは、自らが創作する合奏曲の各楽器パートのうちの1つを担当させる楽器を端末装置20のオーディオインターフェース27に接続する。そして、自らが創作する合奏曲で登場するであろう音楽素材をその楽器を用いて演奏する。
端末装置20のCPU21は、オーディオインターフェース27を介して楽器から供給されてくるオーディオ信号をRAM22に記憶する(S140)。
オーディオ信号の供給が止まると、CPU21は、RAM22に記憶されたオーディオ信号の再生時間長を計測し、その再生時間長を表す再生時間長データを生成してRAM22に記憶する(S150)。例えば、計測した再生時間長が1小節分の長さであれば「1小節」を表す再生時間長データが生成され、1/2小節分であれば「1/2小節」を表す再生時間長データが生成されることになる。
CPU21は、RAM22に記憶してあるオーディオ信号をエンコードすることによって得た音楽素材データと、ステップ150で生成した再生時間長データと、自らのユーザIDとを音楽素材管理サーバ装置10へ送信する(S160)。
The CPU 21 of the terminal device 20 that has received the display data displays a material input request screen on the computer display 25 (S130). In the upper part of this screen, a character string “Please input audio signal of music material” is displayed.
The user who refers to the screen connects the musical instrument responsible for one of the musical instrument parts of the ensemble created by the user to the audio interface 27 of the terminal device 20. Then, the music material that will appear in the ensemble that he creates is played using the instrument.
The CPU 21 of the terminal device 20 stores the audio signal supplied from the musical instrument via the audio interface 27 in the RAM 22 (S140).
When the supply of the audio signal is stopped, the CPU 21 measures the reproduction time length of the audio signal stored in the RAM 22, generates reproduction time length data representing the reproduction time length, and stores it in the RAM 22 (S150). For example, if the measured playback time length is one bar length, playback time length data representing “1 bar” is generated, and if the measured playback time length is 1/2 bar, the playback time length representing “1/2 bar” is generated. Data will be generated.
The CPU 21 transmits the music material data obtained by encoding the audio signal stored in the RAM 22, the reproduction time length data generated in step 150, and its own user ID to the music material management server device 10 ( S160).

音楽素材管理サーバ装置10のCPU11は、新たな素材IDを生成する(S170)。
CPU11は、端末装置20から受信した音楽素材データ、再生時間長データ、及びユーザIDと、ステップ170で生成した素材IDとを含んだ新たなピースファイルを生成する(S180)。
続いて、CPU11は、音楽素材データベース15aに新たなレコードを追加する(S190)。
CPU11は、ステップ190で追加したレコードの「素材識別子」のフィールドにステップ170で生成した素材IDを記憶し、「ピースファイル」のフィールドにステップ180で生成したピースファイルを記憶すると共に、そのレコードの「コネクトファイル」及び「リストファイル」のフィールドに「Null」のデータを記憶する(S200)。なお、後述する音楽素材編集処理においては、新たに生成したコネクトファイルが「コネクトファイル」のフィールドに記憶され、又は、リストファイルが「リストファイル」のフィールドに記憶される一方で、「ピースファイル」のフィールドに「Null」のデータが記憶されることになる。
The CPU 11 of the music material management server device 10 generates a new material ID (S170).
The CPU 11 generates a new piece file including the music material data, playback time length data, and user ID received from the terminal device 20 and the material ID generated in step 170 (S180).
Subsequently, the CPU 11 adds a new record to the music material database 15a (S190).
The CPU 11 stores the material ID generated in step 170 in the “material identifier” field of the record added in step 190 and stores the piece file generated in step 180 in the “piece file” field. The data “Null” is stored in the fields “Connect file” and “List file” (S200). In the music material editing process described later, a newly generated connect file is stored in the “connect file” field, or a list file is stored in the “list file” field, while a “piece file”. In this field, “Null” data is stored.

CPU11は、ステップ170で生成した素材IDを所定の雛形に埋め込んで得た収録完了通知画面の表示データを端末装置20へ送信する(S210)。
表示データを音楽素材管理サーバ装置10から受信した端末装置20のCPU21は、収録完了通知画面をコンピュータディスプレイ25に表示させる(S220)。収録完了通知画面の上段には、「新しい音楽素材の収録が完了しました。収録された音楽素材の素材IDは次の通りです。」という内容の文字列が表示され、その下には、素材IDが表示される。画面の下段には、「別の音楽素材を収録する」及び「メインメニューに戻る」と夫々記したボタンが表示される。この画面を参照することによって新たに収録された音楽素材の素材IDを了解したユーザは、いずれかのボタンを選択する。
「別の音楽素材を登録する」のボタンが選択されると、ステップ130に戻り、CPU21は、素材入力要求画面をコンピュータディスプレイ25に表示させる。
「メインメニューに戻る」のボタンが選択されると、CPU21は、メインメニュー画面をコンピュータディスプレイ25に再び表示させる。
The CPU 11 transmits display data of the recording completion notification screen obtained by embedding the material ID generated in step 170 in a predetermined template to the terminal device 20 (S210).
The CPU 21 of the terminal device 20 that has received the display data from the music material management server device 10 displays a recording completion notification screen on the computer display 25 (S220). In the upper part of the recording completion notification screen, a character string with the content “The recording of the new music material has been completed. The material ID of the recorded music material is as follows.” Is displayed. ID is displayed. At the bottom of the screen, buttons labeled “Record another music material” and “Return to main menu” are displayed. The user who understands the material ID of the newly recorded music material by referring to this screen selects any button.
When the “Register another music material” button is selected, the process returns to step 130, and the CPU 21 displays a material input request screen on the computer display 25.
When the “return to main menu” button is selected, the CPU 21 displays the main menu screen on the computer display 25 again.

ユーザは、オーディオインターフェース27に接続する楽器を適宜切り替えながら、自らが創作する合奏曲で登場するであろう各楽器パート毎の音楽素材を素材入力要求画面の案内に従って順次収録していく。例えば、ドラム、ベース、キーボード、ギターの4つの楽器パートからなる合奏曲を創作するつもりであれば、それらの4つの楽器を切り替えながら順次収録を行う。この結果、ドラム、ベース、キーボード、ギターのオーディオ信号の音楽素材データを含んだピースファイルが音楽素材管理サーバ装置10の音楽素材データベース15aに蓄積されることになる。   The user sequentially records the musical material for each musical instrument part that will appear in the ensemble that he creates while switching the musical instruments connected to the audio interface 27 as appropriate according to the guidance on the material input request screen. For example, if you intend to create an ensemble composed of four instrument parts: drum, bass, keyboard, and guitar, then record sequentially while switching those four instruments. As a result, the piece file including the music material data of the drum, bass, keyboard, and guitar audio signals is accumulated in the music material database 15 a of the music material management server device 10.

図4乃至図7は、音楽素材編集処理を示すフローチャートである。
メインメニュー画面の「音楽素材編集サービス」と記したボタンが選択されると、端末装置20のCPU21は、自身がこれから生成するコネクトファイル及びリストファイルを記憶しておくための領域(以下、この領域を「ファイル記憶領域」と呼ぶ)をRAM22の一部に確保する(S300)。ファイル記憶領域に記憶されたファイルは、音楽素材編集サービスの利用終了の際に音楽素材管理サーバ装置10へ纏めてアップロードされる。
CPU21は、ユーザID入力画面をコンピュータディスプレイ25に表示させる(S310)。この画面を参照したユーザは、自らのユーザIDを入力欄に入力する。
ユーザIDが入力されると、端末装置20のCPU21は、そのユーザIDをRAM22に記憶した後、音楽素材編集サービスの提供を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S320)。
4 to 7 are flowcharts showing the music material editing process.
When the button labeled “music material editing service” on the main menu screen is selected, the CPU 21 of the terminal device 20 stores an area for storing a connect file and a list file to be generated from itself (hereinafter, this area). Is called a “file storage area”) in a part of the RAM 22 (S300). The files stored in the file storage area are collectively uploaded to the music material management server device 10 when the use of the music material editing service ends.
The CPU 21 displays a user ID input screen on the computer display 25 (S310). The user who refers to this screen inputs his / her user ID in the input field.
When the user ID is input, the CPU 21 of the terminal device 20 stores the user ID in the RAM 22 and then transmits a message requesting provision of the music material editing service to the music material management server device 10 (S320).

メッセージを受信した音楽素材管理サーバ装置10のCPU11は、音楽素材データベース15aの各レコードの「素材識別子」のフィールドに記憶されている全ての素材IDをRAM12に読み出す(S330)。
CPU11は、ステップ330にて読み出した素材IDを所定の雛形に埋め込んで得た編集画面の表示データを端末装置20へ送信する(S340)。
表示データを受信した端末装置20のCPU21は、編集画面をコンピュータディスプレイ25に表示させる(S350)。
The CPU 11 of the music material management server apparatus 10 that has received the message reads all material IDs stored in the “material identifier” field of each record of the music material database 15a into the RAM 12 (S330).
The CPU 11 transmits the display data of the edit screen obtained by embedding the material ID read in step 330 in a predetermined template to the terminal device 20 (S340).
The CPU 21 of the terminal device 20 that has received the display data displays an editing screen on the computer display 25 (S350).

図8は、編集画面である。
編集画面の上段には音楽素材提示欄50が設けられ、画面の下段には音楽素材合成欄60が設けられている。音楽素材提示欄50には、ステップ330で読み出された全素材IDがリストとして表示される。また、この提示欄の右端には素材IDの表示範囲を上下に移動させるためのスクロールバー51が設けられている。音楽素材合成欄60は第1トラック61と第2トラック62の2つのトラックを有している。これらのトラックの各々には、ユーザの操作に従って音楽素材提示欄50から選択された音楽素材の素材IDを内包するバー(以下、このバーを「素材IDバー」と呼ぶ)が入力されるようになっている。また、音楽素材合成欄60の下端には、トラックの表示範囲を左右に移動させるためのスクロールバー63が設けられている。更に、音楽素材合成欄60の右側には、「合成」と記したボタンが表示されている。
編集画面が表示されると、ユーザは、その編集画面の音楽素材提示欄50の任意の素材IDにマウスポインタを置いてマウス24の左ボタンをドラッグし、マウスポインタを音楽素材合成欄60のトラックに移動させてドロップする。
このドラッグアンドドロップ操作が行われると、端末装置20のCPU21は、ドラッグによって選択された素材IDを含むコネクトファイルが自装置のファイル記憶領域に記憶されているか否か判断する(図4のS360)。
ステップ360において素材IDを含むコネクトファイルがファイル記憶領域に記憶されていないと判断したCPU21は、ドラッグによって選択された素材IDを音楽素材管理サーバ装置10へ送信する(S370)。
素材IDを受信した音楽素材管理サーバ装置10のCPU11は、その素材IDを「素材識別子」のフィールドに記憶したレコードを音楽素材データベース15aから特定する(S380)。
FIG. 8 is an editing screen.
A music material presentation field 50 is provided in the upper part of the editing screen, and a music material composition field 60 is provided in the lower part of the screen. In the music material presentation column 50, all material IDs read in step 330 are displayed as a list. In addition, a scroll bar 51 for moving the display range of the material ID up and down is provided at the right end of the presentation column. The music material composition column 60 has two tracks, a first track 61 and a second track 62. In each of these tracks, a bar (hereinafter referred to as “material ID bar”) containing the material ID of the music material selected from the music material presentation column 50 according to the user's operation is input. It has become. In addition, a scroll bar 63 for moving the display range of the track to the left and right is provided at the lower end of the music material composition field 60. Further, a button labeled “synthesize” is displayed on the right side of the music material composition column 60.
When the editing screen is displayed, the user places the mouse pointer on an arbitrary material ID in the music material presentation field 50 of the editing screen and drags the left button of the mouse 24 to move the mouse pointer to the track in the music material composition field 60. Move to and drop.
When this drag and drop operation is performed, the CPU 21 of the terminal device 20 determines whether or not a connect file including the material ID selected by the drag is stored in the file storage area of the own device (S360 in FIG. 4). .
If the CPU 21 determines in step 360 that the connect file including the material ID is not stored in the file storage area, the CPU 21 transmits the material ID selected by dragging to the music material management server apparatus 10 (S370).
The CPU 11 of the music material management server apparatus 10 that has received the material ID specifies a record in which the material ID is stored in the “material identifier” field from the music material database 15a (S380).

CPU11は、ステップ380で特定したレコードの「コネクトファイル」のフィールドに記憶されたファイルに含まれる再生時間長データを抽出し、再生時間長データが記憶されてない場合には、更に「ピースファイル」のフィールドに記憶されたファイルに含まれる再生時間長データを抽出し、その再生時間長データを端末装置20へ送信する(図5のS390)。
端末装置20のCPU21は、音楽素材管理サーバ装置10から受信した再生時間長データが示す時間長に応じた横幅を有する素材IDバーを素材IDがドロップされたトラック上の位置に表示させる(S400)。
一方で、ステップ360において素材IDを含むコネクトファイルが自装置のファイル記憶領域に記憶されていると判断したCPU21は、その素材IDと共にコネクトファイルに含まれている再生時間長データを抽出する(S410)。
CPU21は、ステップ410で抽出した再生時間長データが示す時間長に応じた横幅を有する素材IDバーを素材IDがドロップされたトラック上の位置に表示させる(S420)。
以上のステップ360乃至ステップ420の一連の処理はユーザがドラッグアンドドロップ操作を行うたびに繰り返され、音楽素材合成欄60のトラックに新たな素材IDバーが順次形成されていく。
The CPU 11 extracts the reproduction time length data included in the file stored in the “connect file” field of the record specified in step 380. If the reproduction time length data is not stored, the CPU 11 further extracts “piece file”. The reproduction time length data included in the file stored in the field is extracted, and the reproduction time length data is transmitted to the terminal device 20 (S390 in FIG. 5).
The CPU 21 of the terminal device 20 displays a material ID bar having a width corresponding to the time length indicated by the playback time length data received from the music material management server device 10 at a position on the track where the material ID is dropped (S400). .
On the other hand, the CPU 21 that has determined in step 360 that the connect file including the material ID is stored in the file storage area of the own device extracts the reproduction time length data included in the connect file together with the material ID (S410). ).
The CPU 21 displays a material ID bar having a width corresponding to the time length indicated by the reproduction time length data extracted in step 410 at a position on the track where the material ID is dropped (S420).
The series of processing from step 360 to step 420 is repeated each time the user performs a drag-and-drop operation, and new material ID bars are sequentially formed on the tracks in the music material composition column 60.

図9は、ユーザによるドラッグアンドドロップ操作とその操作に応じてトラック内に形成される素材IDバーの一例である。この図において、1回目のドラッグアンドドロップ操作では音楽素材提示欄50でドラッグした素材ID「A」が第1トラック61の先頭の位置でドロップされた結果、1/2小節の長さに相当する横幅の素材IDバー「A」が第1トラック61に形成されている。更に、2回目のドラッグアンドドロップ操作では音楽素材提示欄50でドラッグした素材ID「B」が素材IDバー「A」の右隣の位置でドロップされた結果、1/2小節の長さに相当する横幅の素材IDバー「B」が素材IDバー「A」の右隣に形成されている。また、3回目のドラッグアンドドロップ操作では、音楽素材提示欄50でドラッグした素材ID「C」が第2トラック62の先頭の位置でドロップされた結果、1小節の長さに相当する横幅の素材IDバー「C」が第2トラック62に形成されている。   FIG. 9 shows an example of a drag-and-drop operation by the user and a material ID bar formed in the track according to the operation. In this figure, in the first drag-and-drop operation, the material ID “A” dragged in the music material presentation column 50 is dropped at the top position of the first track 61, which corresponds to the length of 1/2 bar. A material ID bar “A” having a horizontal width is formed on the first track 61. Furthermore, in the second drag-and-drop operation, the material ID “B” dragged in the music material presentation column 50 is dropped at the position immediately to the right of the material ID bar “A”, which corresponds to the length of 1/2 bar. A material ID bar “B” having a horizontal width is formed on the right side of the material ID bar “A”. In the third drag-and-drop operation, the material ID “C” dragged in the music material presentation column 50 is dropped at the top position of the second track 62, resulting in a material having a width corresponding to the length of one measure. An ID bar “C” is formed on the second track 62.

ユーザは、ドラックアンドドロップ操作を駆使して音楽素材合成欄60の一方又は両方のトラックに所望の時間長(例えば1小節)分の素材IDバーの配列を形成した後、同合成欄の左隣の「合成」と記したボタンを選択する。
「合成」のボタンが選択されると、端末装置20のCPU21は、音楽素材合成欄60の各トラックに形成された素材IDの配列をシーケンスデータ化して素材合成管理データを生成する(図5のS430)。
CPU21は、音楽素材合成欄60のトラックに形成された一連の素材IDと対応する音楽素材の再生時間長の総計を表す再生時間長データを生成してRAM22に記憶する(S440)。
CPU21は、新たな素材IDの発行を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S450)。
メッセージを受信した音楽素材管理サーバ装置10のCPU21は、新たな素材IDを生成し、その素材IDを端末装置20へ送信する(S460)。
素材IDを受信した端末装置20のCPU21は、その素材IDをRAM22に記憶した後(S470)、ファイル属性選択要求画面を編集画面上の別ウィンドウとして表示させる(S480)。
The user uses a drag-and-drop operation to form an array of material ID bars for a desired time length (for example, one measure) on one or both tracks in the music material synthesis column 60, and then to the left of the synthesis column. Select the button labeled “Composite”.
When the “composite” button is selected, the CPU 21 of the terminal device 20 generates material composition management data by converting the array of material IDs formed on each track in the music material composition field 60 into sequence data (FIG. 5). S430).
The CPU 21 generates reproduction time length data representing the total reproduction time length of the music material corresponding to the series of material IDs formed on the track in the music material composition column 60 and stores it in the RAM 22 (S440).
The CPU 21 transmits a message requesting issuance of a new material ID to the music material management server apparatus 10 (S450).
The CPU 21 of the music material management server apparatus 10 that has received the message generates a new material ID and transmits the material ID to the terminal device 20 (S460).
The CPU 21 of the terminal device 20 that has received the material ID stores the material ID in the RAM 22 (S470), and then displays the file attribute selection request screen as a separate window on the editing screen (S480).

図10は、ファイル属性選択要求画面である。
ファイル属性選択要求画面の上段には、「エフェクトの付与の有無を選択してください。」という内容の文字列が表示される。そして、その下には、「エフェクトを付与する」及び「エフェクトを付与しない」と夫々記したボタンが表示される。画面の中段には、「音楽素材のファイルの種別を選択してください。」という内容の文字列が表示される。その下には、「コネクトファイル」及び「リストファイル」と夫々記したボタンが表示される。
画面を参照したユーザは、「エフェクトを付与する」と「エフェクトを付与しない」のうち一方のボタン、及び「コネクトファイル」と「リストファイル」のうち一方のボタンをそれぞれ選択する。つまり、このファイル属性選択要求画面における選択の組み合わせは、「エフェクトを付与してコネクトファイル化」、「エフェクトを付与しないでコネクトファイル化」、「エフェクトを付与してリストファイル化」、「エフェクトを付与しないでリストファイル化」の4通りのいずれかになる。
ボタンが選択されると、CPU21は、その選択の組み合わせが上記4通りの何れであるか判断する(図6のS490)。
FIG. 10 is a file attribute selection request screen.
In the upper part of the file attribute selection request screen, a character string “Please select whether to apply effects.” Is displayed. Below that, buttons labeled “Apply effect” and “Do not apply effect” are displayed. In the middle of the screen, a character string “Please select the type of music material file.” Is displayed. Below that, buttons labeled “Connect File” and “List File” are displayed.
The user who refers to the screen selects one of the buttons “Apply effect” and “Do not apply effect”, and one of “Connect file” and “List file”. In other words, the combinations of selections on this file attribute selection request screen are as follows: “Apply an effect to create a connect file”, “Add an effect to create a connect file”, “Apply an effect to create a list file”, “ It becomes one of the four ways of “list file without giving”.
When the button is selected, the CPU 21 determines which of the four combinations is selected (S490 in FIG. 6).

ステップ490にて「エフェクトを付与しないでコネクトファイル化」の組み合わせが選択されたと判断したCPU21は、ステップ430で生成した素材合成管理データ、ステップ440で生成した再生時間長データ、及びステップ470でRAM22に記憶した素材IDを含んだ新たなコネクトファイルを生成し、そのコネクトファイルをRAM22のファイル記憶領域に記憶する(S500)。つまり、このステップでは、エフェクト制御データを含まないコネクトファイルが生成されることになる。
続いて、CPU21は、ステップ470でRAM22に記憶した素材IDを編集画面の音楽素材提示欄50に追加して表示させると共に、音楽素材合成欄60の両トラックに表示されている素材IDバーを消去する(S510)。
その後、ユーザは、再びドラックアンドドロップ操作を駆使して編集画面の音楽素材合成欄60に素材IDバーの配列を形成し、「合成」を選択することが可能である。
The CPU 21 that determines that the combination of “connect file without applying effect” is selected in step 490, the material composition management data generated in step 430, the playback time length data generated in step 440, and the RAM 22 in step 470. A new connect file including the material ID stored in is generated, and the connect file is stored in the file storage area of the RAM 22 (S500). That is, in this step, a connect file that does not include effect control data is generated.
Subsequently, the CPU 21 adds the material ID stored in the RAM 22 in step 470 to the music material presentation column 50 on the editing screen and displays it, and erases the material ID bar displayed on both tracks in the music material composition column 60. (S510).
Thereafter, the user can again use the drag-and-drop operation to form an array of material ID bars in the music material composition field 60 on the editing screen and select “synthesize”.

ステップ490にて「エフェクトを付与しないでリストファイル化」の組み合わせが選択されたと判断したCPU21は、ステップ430で生成した素材合成管理データ、ステップ440で生成した再生時間長データ、及びステップ470でRAM22に記憶した素材IDを含んだ新たなリストファイルを生成し、そのリストファイルをRAM22のファイル記憶領域に記憶する(S520)。つまり、このステップでは、エフェクト制御データを含まないリストファイルが生成されることになる。
ステップ520を実行した後、CPU21は、後述するステップ590以降の処理を実行する。
The CPU 21 that has determined that the combination of “list file without applying effects” is selected in step 490, the material composition management data generated in step 430, the playback time length data generated in step 440, and the RAM 22 in step 470. A new list file including the material ID stored in (2) is generated, and the list file is stored in the file storage area of the RAM 22 (S520). That is, in this step, a list file that does not include effect control data is generated.
After executing Step 520, the CPU 21 executes processing after Step 590 described later.

「エフェクトを付与しないでコネクトファイル化」と「エフェクトを付与しないでリストファイル化」以外の組み合わせが選択されたとき、CPU21は、エフェクト種別選択要求画面を編集画面上の別ウィンドウとして表示させる(S530)。
図11は、エフェクト種別選択要求画面である。
エフェクト種別選択要求画面の上段には、「エフェクトの種別を選択してください。」という内容の文字列が表示される。その下には、「ディレイ」や「コンプレッサ」などといった各種エフェクトの名称を記したボタンが選択される。
画面を参照したユーザは、何れかのボタンを選択する。
CPU21は、選択されたエフェクトを付与するための信号処理の内容を表すエフェクト制御データを生成する(S540)。
When a combination other than “Create connection file without applying effects” and “Create list file without applying effects” is selected, the CPU 21 displays an effect type selection request screen as a separate window on the editing screen (S530). ).
FIG. 11 is an effect type selection request screen.
In the upper part of the effect type selection request screen, a character string “Select an effect type.” Is displayed. Below that, buttons with names of various effects such as “delay” and “compressor” are selected.
The user who refers to the screen selects any button.
CPU21 produces | generates the effect control data showing the content of the signal processing for providing the selected effect (S540).

エフェクト制御データの生成後、ファイル属性選択要求画面において「エフェクトを付与してコネクトファイル化」が選択されていれば、ステップ550に進み、CPU21は、エフェクト区間選択要求画面を編集画面上の別ウィンドウとして表示させる。
図12は、エフェクト区間選択要求画面である。
エフェクト区間選択要求画面の上段には、「エフェクトを付与する区間を選択してください。」という内容の文字列が表示される。その下には、「合成欄の音楽素材のみ」、及び「楽曲の全部」とそれぞれ記したボタンが表示される。
画面を参照したユーザは、何れかのボタンを選択する。
「合成欄の音楽素材のみ」と記したボタンが選択されると、CPU21は、ステップ430で生成した素材合成管理データ、ステップ440で生成した再生時間長データ、ステップ470でRAM22に記憶した素材ID、及びステップ540で生成したエフェクト制御データを含んだ新たなコネクトファイルを生成する(S560)。
一方、「楽曲の全部」と記したボタンが選択されると、CPU21は、ステップ430で生成した素材合成管理データ、ステップ440で生成した再生時間長データ、及びステップ470でRAM22に記憶した素材IDを含んだコネクトファイルを生成すると共に、ステップ540で生成したエフェクト制御データをそのコネクトファイルに含めることなくRAM22の空き領域に記憶する(S570)。
After the effect control data is generated, if “Apply effect to connect file” is selected on the file attribute selection request screen, the process proceeds to step 550, and the CPU 21 displays the effect section selection request screen in another window on the editing screen. Display as.
FIG. 12 is an effect section selection request screen.
In the upper part of the effect section selection request screen, a character string “Please select a section to apply the effect.” Is displayed. Below that, buttons labeled “only music material in the composition column” and “all music” are displayed.
The user who refers to the screen selects any button.
When the button labeled “only music material in composition field” is selected, the CPU 21 selects the material composition management data generated in step 430, the playback time length data generated in step 440, and the material ID stored in the RAM 22 in step 470. A new connect file including the effect control data generated in step 540 is generated (S560).
On the other hand, when the button labeled “all music” is selected, the CPU 21 selects the material composition management data generated in step 430, the playback time length data generated in step 440, and the material ID stored in the RAM 22 in step 470. Is generated, and the effect control data generated in step 540 is stored in the free area of the RAM 22 without being included in the connect file (S570).

また、ファイル属性選択要求画面において「エフェクトを付与してリストファイル化」が選択されていれば、ステップ580に進み、ステップ430で生成した素材合成管理データ、ステップ440で生成した再生時間長データ、ステップ470でRAM22に記憶した素材ID、及びステップ530で生成したエフェクト制御データとを含む新たなリストファイルを生成する(S580)。
ステップ580又は上述のステップ520を実行したCPU21は、空き領域に記憶されているエフェクト制御データがあるか否か判断する(S590)。
ユーザが既に何回かドラックアンドドロップ操作を行って「合成」のボタンを選択しており、その後に表示されるエフェクト区間選択要求画面において「楽曲の全部」が選択していれば、その際に生成されたコネクト制御データはコネクトファイルに含まれることなく空き領域に記憶されているはずであるからこのステップの判断結果は「Yes」となる。
If “add effect to list file” is selected on the file attribute selection request screen, the process proceeds to step 580, the material composition management data generated in step 430, the playback time length data generated in step 440, A new list file including the material ID stored in the RAM 22 in step 470 and the effect control data generated in step 530 is generated (S580).
CPU21 which performed step 580 or the above-mentioned step 520 judges whether there exists any effect control data memorize | stored in the vacant area (S590).
If the user has already performed a drag-and-drop operation several times and selected the “Combine” button, and “All of the songs” has been selected on the effect section selection request screen that appears after that, Since the generated connection control data should be stored in the free area without being included in the connect file, the determination result of this step is “Yes”.

ステップ590にて空き領域に記憶されたエフェクト制御データがあると判断したCPU21は、そのエフェクト制御データをステップ520又はステップ580で生成したリストファイルに追加する(S600)。つまり、コネクトファイルと併せて生成された後、そのファイルに帰属することなくいわば浮遊した状態に置かれていたエフェクト制御データを、リストファイルに内包させる。一方、空き領域に記憶されたエフェクト制御データがないと判断したCPU21は、本ステップを実行することなく次のステップへ進む。
CPU21は、RAM12のファイル記憶領域に記憶されている全ファイルを音楽素材管理サーバ装置10へ送信する(S610)。音楽素材管理サーバ装置10のCPU11は、端末装置20から受信したファイルをRAM12に記憶する(S620)。
CPU11は、RAM12に記憶したファイルの1つを処理対象として特定する(S630)。CPU11は、ステップ630で特定したファイルに含まれている素材IDを抽出した後(S640)、ファイル管理データベースにレコードを一つ追加する(S650)。
The CPU 21 that has determined that there is effect control data stored in the empty area in step 590 adds the effect control data to the list file generated in step 520 or step 580 (S600). In other words, after being generated together with the connect file, the effect control data that has been placed in a floating state without belonging to the file is included in the list file. On the other hand, the CPU 21 that has determined that there is no effect control data stored in the empty area proceeds to the next step without executing this step.
CPU21 transmits all the files memorize | stored in the file storage area of RAM12 to the music material management server apparatus 10 (S610). The CPU 11 of the music material management server device 10 stores the file received from the terminal device 20 in the RAM 12 (S620).
The CPU 11 specifies one of the files stored in the RAM 12 as a processing target (S630). The CPU 11 extracts the material ID included in the file specified in step 630 (S640), and then adds one record to the file management database (S650).

CPU11は、ステップ650で追加したレコードの「素材識別子」のフィールドにステップ640で抽出した素材IDを記憶する(S660)。CPU11は、ステップ630にて処理対象として特定したファイルがコネクトファイルであるかそれともリストファイルであるかを判断する(S670)。
ステップ670にて、処理対象のファイルがコネクトファイルであると判断したCPU11は、そのファイルをステップ650で追加したレコードの「コネクトファイル」のフィールドに記憶する一方で、「ピースファイル」と「リストファイル」のフィールドに「Null」のデータを記憶する(S680)。
一方、ステップ670にて、処理対象のファイルがリストファイルであると判断したCPU11は、そのファイルをステップ650で追加したレコードの「リストファイル」のフィールドに記憶する一方で、「ピースファイル」と「コネクトファイル」のフィールドに「Null」のデータを記憶する(S690)。
その後、CPU11は、未だ処理対象となっていないファイルが残っているか否か判断する(S700)。
ステップ700にて、処理対象となっていないファイルが残っていると判断したとき、ステップ630に戻り、別のファイルを処理対象として以降の処理を実行する一方、そのようなファイルが残っていないと判断したCPU11は、ファイルのアップロードが完了した旨のメッセージを端末装置20へ送信する(S710)。
メッセージを受信した端末装置20のCPU21は、メインメニュー画面を表示させる。
The CPU 11 stores the material ID extracted in step 640 in the “material identifier” field of the record added in step 650 (S660). The CPU 11 determines whether the file specified as the processing target in step 630 is a connect file or a list file (S670).
In step 670, the CPU 11 having determined that the file to be processed is a connect file stores the file in the “connect file” field of the record added in step 650, while “piece file” and “list file”. "Null" data is stored in the "" field (S680).
On the other hand, when the CPU 11 determines that the file to be processed is a list file in step 670, the CPU 11 stores the file in the “list file” field of the record added in step 650, while “piece file” and “ The “Null” data is stored in the “Connect File” field (S690).
Thereafter, the CPU 11 determines whether there are any files that are not yet processed (S700).
If it is determined in step 700 that there are still files that are not processing targets, the process returns to step 630 to execute the subsequent processing with another file as a processing target, while such files do not remain. The determined CPU 11 transmits a message to the effect that the file upload has been completed to the terminal device 20 (S710).
CPU21 of the terminal device 20 which received the message displays a main menu screen.

以上説明した処理について、具体例を参照して更に詳述する。
図13は、編集画面を介した操作の一例を示す図である。
なお、ここでの説明は、ドラムの1/4小節分のオーディオ信号を収録して得た「A」と「B」の音楽素材のピースファイル、ギターの1/4小節分のオーディオ信号を収録して得た「C」、「D」、「E」の音楽素材のピースファイル、バスの1/2小節分のオーディオ信号を収録して得た「F」と「G」の音楽素材のピースファイルが音楽素材収録処理を通じて音楽素材データベース15aに蓄積されているものとして行う。
The processing described above will be further described in detail with reference to a specific example.
FIG. 13 is a diagram illustrating an example of an operation via the editing screen.
The explanation here is a piece file of music material “A” and “B” obtained by recording an audio signal of 1/4 bar of a drum, and an audio signal of 1/4 bar of a guitar. Pieces of music material of “F” and “G” obtained by recording piece files of music materials of “C”, “D”, “E” and audio signals corresponding to 1/2 bars of the bus. The file is assumed to be stored in the music material database 15a through the music material recording process.

図を参照すると、1回目の操作において、ユーザは、ドラムから収録した音楽素材である「A」と「B」の素材IDバーを「A」→「A」→「A」→「B」の順番で第1トラック61に形成させた後、「合成」→「エフェクトを付与してコネクトファイル化」→「ディレイ」→「合成欄の音楽素材のみ」とボタンを順次選択している。これにより、素材IDを「AAAB」と1列に配列した素材合成管理データ、ディレイを付与するエフェクト制御データ、及び素材ID「I」を含むコネクトファイルが新たに生成される。
2回目の操作において、ユーザは、ギターから収録した音楽素材である「C」と「D」の素材IDバーを「C」→「C」→「C」→「D」の順番で第1トラック61に形成させた後、「合成」→「エフェクトを付与してコネクトファイル化」→「コンプレッサ」→「楽曲の全部」とボタンを順次選択している。これにより、素材IDを「CCCD」と1列に並べた素材合成管理データ及び素材ID「J」を含む新たなコネクトファイルが生成される一方、コンプレッサを付与するエフェクト制御データはそのコネクトファイルに含まれることなくRAM12の空き領域に記憶される。
Referring to the figure, in the first operation, the user sets the material ID bars of “A” and “B”, which are music materials recorded from the drum, as “A” → “A” → “A” → “B”. After the first track 61 is formed in order, the buttons "Synthesize"->"Apply an effect and create a connect file"->"Delay"->"Only music material in the composite column" are sequentially selected. As a result, a new connection file including the material composition management data in which the material IDs are arranged in a row with “AAAB”, the effect control data for adding a delay, and the material ID “I” is generated.
In the second operation, the user tracks the material ID bars of “C” and “D”, which are music materials recorded from the guitar, in the order of “C” → “C” → “C” → “D”. Then, the buttons “Synthesize” → “Apply an effect and create a connect file” → “Compressor” → “All songs” are sequentially selected. As a result, a new connect file including the material composition management data in which the material ID is aligned with “CCCD” and the material ID “J” is generated, while the effect control data to which the compressor is added is included in the connect file. Without being stored in the free area of the RAM 12.

3回目の操作において、ユーザは、ギターから収録した音楽素材である「C」と「E」の素材IDバーを「C」→「C」→「C」→「E」の順番で第1トラック61に形成させた後、「合成」→「エフェクトを付与しないでコネクトファイル化」とボタンを順次選択している。これにより、素材IDを「CCCE」と一列に配列した素材合成管理データ及び素材ID「K」を含む新たなコネクトファイルが生成される。
4回目の操作において、ユーザは、バスから収録した音楽素材である「F」と「G」の素材IDバーを「F」→「F」→「F」→「G」の順番で第1トラック61に形成させ、更にドラムの音楽素材を合成して得た音楽素材である「I」の素材IDバーを「I」→「I」の順番で第2トラック62に形成させた後、「合成」→「エフェクトを付与しないでコネクトファイル化」とボタンを順次選択している。これにより、素材IDを「FFFG」と「II」の2列に配列した素材合成管理データ及び素材ID「L」を含む新たなコネクトファイルが生成される。
In the third operation, the user tracks the material ID bars of “C” and “E”, which are music materials recorded from the guitar, in the order of “C” → “C” → “C” → “E”. After being formed in 61, the buttons “Synthesize” → “Create connect file without applying effect” are sequentially selected. As a result, a new connect file including the material composition management data in which the material ID is aligned with “CCCE” and the material ID “K” is generated.
In the fourth operation, the user tracks the material ID bars of “F” and “G” which are music materials recorded from the bus in the order of “F” → “F” → “F” → “G”. The material ID bar of “I”, which is the music material obtained by synthesizing the drum music material, is formed on the second track 62 in the order of “I” → “I”, "→" Connect file without effect "button is selected in sequence. As a result, a new connect file including the material composition management data in which the material IDs are arranged in two columns “FFFG” and “II” and the material ID “L” is generated.

5回目の操作において、ユーザは、ドラムとバスの音楽素材から得た合成音楽素材である「L」の素材IDバーを第1トラック61に形成させ、更にギターの音楽素材から得た合成音楽素材である「J」と「K」の素材IDバーを「J」→「K」の順番で第2トラック62に形成させた後、「合成」→「エフェクトを付与してリストファイル化」とボタンを順次選択している。これにより、素材IDを「L」と「JK」の2列に配列した素材合成管理データ、リバーブを付与するエフェクト制御データ、及び素材ID「M」を含む新たなリストファイルが生成され、更に2回目の操作の際に空き領域に記憶されていたコンプレッサのエフェクト制御データがそのリストファイルに追加される。
以上の5回の操作により、ドラム、バス、ギターの3つの楽器パートを有する2小節分の楽曲音楽素材が1つのコネクトファイル「M」として取り纏められることになる。
In the fifth operation, the user forms a material ID bar of “L”, which is a synthetic music material obtained from drum and bass music material, on the first track 61, and further a synthetic music material obtained from the music material of the guitar. After forming the material ID bar of “J” and “K” on the second track 62 in the order of “J” → “K”, “compositing” → “adding effects and creating a list file” button Are selected sequentially. As a result, a new list file is generated that includes material composition management data in which material IDs are arranged in two columns of “L” and “JK”, effect control data to which reverb is added, and material ID “M”. The compressor effect control data stored in the empty area at the time of the second operation is added to the list file.
Through the above five operations, music material for two measures having three musical instrument parts, drum, bass, and guitar, is collected as one connect file “M”.

図14乃至図16は、音楽素材再生処理を示すフローチャートである。
メインメニュー画面の「音楽素材再生サービス」と記したボタンが選択されると、端末装置20のCPU21は、音楽素材再生サービスの提供を求めるメッセージを音楽素材管理サーバ装置10へ送信する(S800)。
メッセージを受信した音楽素材管理サーバ装置10のCPU11は、ユーザIDの送信を求めるメッセージを端末装置20へ送信する(S810)。
メッセージを受信した端末装置20のCPU21は、ユーザID入力画面をコンピュータディスプレイ25に表示させる(S820)。
この画面を参照したユーザは、自らのユーザIDを入力欄に入力する。
ユーザIDが入力されると、端末装置20のCPU21は、そのユーザIDを音楽素材管理サーバ装置10へ送信する(S830)。
14 to 16 are flowcharts showing the music material reproduction process.
When the button labeled “music material reproduction service” on the main menu screen is selected, the CPU 21 of the terminal device 20 transmits a message requesting provision of the music material reproduction service to the music material management server apparatus 10 (S800).
CPU11 of the music material management server apparatus 10 which received the message transmits the message which requests | requires transmission of user ID to the terminal device 20 (S810).
CPU21 of the terminal device 20 which received the message displays a user ID input screen on the computer display 25 (S820).
The user who refers to this screen inputs his / her user ID in the input field.
When the user ID is input, the CPU 21 of the terminal device 20 transmits the user ID to the music material management server device 10 (S830).

ユーザIDを受信した音楽素材管理サーバ装置10のCPU11は、そのユーザIDを含むファイルを「リストファイル」のフィールドに記憶している一又は複数のレコードを音楽素材データベース15aから特定し、特定したレコードの「素材識別子」のフィールドに記憶された素材IDを読み出す(S840)。
CPU11は、ステップ840で読み出した素材IDを所定の雛形に埋め込んで得た再生対象選択要求画面の表示データを端末装置20へ送信する(S850)。
表示データを受信した端末装置20のCPU21は、再生対象選択要求画面をコンピュータディスプレイ25に表示させる(S860)。
再生対象選択要求画面の上段には、「再生する楽曲音楽素材のIDを選択して下さい。」という内容の文字列が表示される。その下には、ステップ840で読み出された全素材IDがリストとして表示される。
この画面を参照したユーザは、リスト上の何れかの素材IDを選択する。
素材IDが選択されると、端末装置20のCPU21は、その素材IDを音楽素材管理サーバ装置10へ送信する(S870)。
The CPU 11 of the music material management server apparatus 10 that has received the user ID identifies one or more records storing a file including the user ID in the “list file” field from the music material database 15a, and identifies the identified record. The material ID stored in the “material identifier” field is read (S840).
The CPU 11 transmits display data of the reproduction target selection request screen obtained by embedding the material ID read in step 840 in a predetermined template to the terminal device 20 (S850).
The CPU 21 of the terminal device 20 that has received the display data causes the computer display 25 to display a reproduction target selection request screen (S860).
In the upper part of the reproduction target selection request screen, a character string “Please select the ID of the music material to be reproduced.” Is displayed. Below that, all the material IDs read out in step 840 are displayed as a list.
The user who refers to this screen selects any material ID on the list.
When the material ID is selected, the CPU 21 of the terminal device 20 transmits the material ID to the music material management server device 10 (S870).

音楽素材管理サーバ装置10のCPU11は、端末装置20から受信した素材IDを「素材識別子」のフィールドに記憶したレコードを素材管理データベースから特定し、そのレコードの「リストファイル」のフィールドに記憶されたリストファイルをRAM12に読み出す(S880)。
CPU11は、制御データ記憶領域をRAM12の一部に確保する(S890)。この領域は、リストファイルに含まれるエフェクト制御データ(以下、この制御データを「システムエフェクト制御データと呼ぶ」)、及びそのリストファイルから楽曲音楽素材のオーディオ信号を復元する過程で参照するコネクトファイルに含まれるエフェクト制御データ(以下、この制御データを「インサーションエフェクト制御データ」と呼ぶ)を記憶する領域である。
更に、CPU11は、マルチトラックシーケンス領域をRAM12の一部に確保する(S900)。この領域は、第1乃至第4の4つのトラックを有するバッファである。
CPU11は、ステップ880で読み出したリストファイルにシステムエフェクト制御データが含まれているか否か判断する(S910)。
The CPU 11 of the music material management server device 10 identifies a record in which the material ID received from the terminal device 20 is stored in the “material identifier” field from the material management database, and is stored in the “list file” field of the record. The list file is read into the RAM 12 (S880).
The CPU 11 secures a control data storage area in a part of the RAM 12 (S890). This area includes effect control data (hereinafter referred to as “system effect control data”) included in the list file, and a connect file referred to in the process of restoring the audio signal of the music material from the list file. This is an area for storing included effect control data (hereinafter, this control data is referred to as “insertion effect control data”).
Further, the CPU 11 secures a multitrack sequence area in a part of the RAM 12 (S900). This area is a buffer having first to fourth four tracks.
The CPU 11 determines whether or not the system effect control data is included in the list file read in step 880 (S910).

ステップ910にてシステムエフェクト制御データが含まれていると判断したCPU11は、そのシステムエフェクト制御データをリストファイルから抽出して制御データ記憶領域に記憶する(S920)。システムエフェクト制御データが含まれていないと判断したとき、本ステップを実行することなく次のステップへ進む。
CPU11は、ステップ880で読み出したリストファイルに含まれる素材合成管理データを抽出し、その素材合成管理データが示す素材IDの配列をマルチトラックシーケンス領域のトラックの1つに書込む(S930)。ここで、素材合成管理データが素材IDの1つの配列だけを表すものであるときはその配列がマルチトラックシーケンス領域の第1トラックに書込まれ、2つの配列を表すものであるときはそれらの配列が同領域の第1トラックと第2トラックに夫々書込まれる。
The CPU 11 having determined that the system effect control data is included in step 910 extracts the system effect control data from the list file and stores it in the control data storage area (S920). When it is determined that the system effect control data is not included, the process proceeds to the next step without executing this step.
The CPU 11 extracts the material composition management data included in the list file read out in step 880, and writes the array of material IDs indicated by the material composition management data to one of the tracks in the multi-track sequence area (S930). Here, when the material composition management data represents only one array of material IDs, the array is written in the first track of the multi-track sequence area, and when the material composition management data represents two arrays, these The array is written in the first track and the second track in the same area.

CPU11は、ステップ930でマルチトラックシーケンス領域に書込まれた一連の素材IDのうちの1つを処理対象として特定する(S940)。
続いて、CPU11は、音楽素材データベース15aに記憶されたレコードの中から「素材識別子」のフィールドがステップ940で特定した素材IDと合致するレコードを特定する(S950)。
CPU11は、ステップ950で特定したレコードの「ピースファイル」のフィールドにピースファイルが記憶されているか判断する(S960)。「ピースファイル」のフィールドに「Null」が記憶されていなければこのステップの判断結果は「Yes」ということになり、「Null」が記憶されていればこのステップの判断結果は「No」ということになる。
ステップ960においてピースファイルが記憶されていると判断したCPU11は、そのピースファイルを読み出す(S970)。
CPU11は、読み出したピースファイルに含まれる音楽素材データとステップ940で特定した素材IDとを置き換える(S980)。
ステップ980を実行したCPU11は、ステップ940に戻り、別の素材IDを処理対象として以降の処理を実行する。
The CPU 11 specifies one of the series of material IDs written in the multitrack sequence area in step 930 as a processing target (S940).
Subsequently, the CPU 11 identifies a record in which the “material identifier” field matches the material ID identified in step 940 from the records stored in the music material database 15a (S950).
The CPU 11 determines whether a piece file is stored in the “piece file” field of the record specified in step 950 (S960). If “Null” is not stored in the “Piece file” field, the determination result of this step is “Yes”. If “Null” is stored, the determination result of this step is “No”. become.
CPU11 which judged that the piece file was memorize | stored in step 960 reads the piece file (S970).
The CPU 11 replaces the music material data included in the read piece file with the material ID specified in step 940 (S980).
CPU11 which performed step 980 returns to step 940, and performs subsequent processing by making another material ID into a process target.

ステップ960においてピースファイルが記憶されていないと判断したCPU11は、ステップ940で特定したレコードの「コネクトファイル」のフィールドのコネクトファイルを読み出す(S990)。
CPU11は、読み出したコネクトファイルにインサーションエフェクト制御データが含まれているか否か判断する(S1000)。
ステップ1000にてインサーションエフェクト制御データが含まれていると判断したCPU11は、そのインサーションエフェクト制御データをコネクトファイルから抽出して制御データ記憶領域に記憶する(S1010)。インサーションエフェクト制御データが含まれていないと判断したとき、本ステップを実行することなく次のステップへ進む。
The CPU 11 that has determined that the piece file is not stored in step 960 reads the connect file in the “connect file” field of the record identified in step 940 (S990).
The CPU 11 determines whether or not the insertion effect control data is included in the read connect file (S1000).
The CPU 11 that has determined that the insertion effect control data is included in step 1000 extracts the insertion effect control data from the connect file and stores it in the control data storage area (S1010). When it is determined that the insertion effect control data is not included, the process proceeds to the next step without executing this step.

CPU11は、ステップ990で読み出したコネクトファイルに含まれる素材合成管理データが素材IDの1つの配列を表すものであるかそれとも2つの配列を表すものであるか判断する(S1020)。
ステップ1020において素材合成管理データが素材IDの1つの配列を表すものであると判断したCPU11は、その配列をステップ940で特定した素材IDと置き換える(S1030)。つまり、処理対象として特定された1つの音楽素材の素材IDから、その音楽素材を得るべく音楽素材合成欄60の1つのトラックに入力された複数の音楽素材の素材IDの配列を復元する。
ステップ1020において素材合成管理データが素材IDの2つの配列を表すものであると判断したCPU11は、その一方の配列をステップ940で特定した素材IDと置き換えると共に、他方の配列を未だ素材IDの書込みがないマルチトラックシーケンス領域のトラック(以下、「空きトラック」と呼ぶ)に書込む(S1040)。つまり、処理対象とした特定された1つの音楽素材の素材IDから、その音楽素材を得るべく音楽素材合成欄60の2つのトラックに夫々入力された複数の音楽素材の素材IDの配列を復元する。
ステップ1030又はステップ1040を実行したCPU11は、マルチトラックシーケンス領域の各トラックに書込まれた素材IDの全てが音楽素材データに置き換えられたか判断する(S1050)。
ステップ1050において素材IDの一部が音楽素材データに置き換えられていないと判断したCPU11は、ステップ940に戻り、その素材IDを処理対象として特定してから以降の処理を実行する。
The CPU 11 determines whether the material composition management data included in the connect file read out in step 990 represents one array of material IDs or two arrays (S1020).
The CPU 11 that has determined that the material composition management data represents one array of material IDs in step 1020 replaces the array with the material IDs identified in step 940 (S1030). That is, the arrangement of the material IDs of a plurality of music materials input to one track in the music material composition column 60 is restored from the material ID of one music material specified as the processing target.
The CPU 11 that has determined in step 1020 that the material composition management data represents two arrays of material IDs replaces one of the arrays with the material ID specified in step 940 and writes the other array in the material ID yet. The data is written in a track (hereinafter referred to as “empty track”) in the multitrack sequence area where there is no (S1040). That is, the arrangement of the material IDs of a plurality of music materials respectively input to the two tracks of the music material composition column 60 in order to obtain the music material is restored from the material ID of the specified music material to be processed. .
CPU11 which performed step 1030 or step 1040 judges whether all the material IDs written in each track of the multitrack sequence area were replaced with music material data (S1050).
The CPU 11 that has determined in step 1050 that a part of the material ID has not been replaced with the music material data returns to step 940, specifies the material ID as a processing target, and executes the subsequent processing.

ステップ1050において素材IDの全てが音楽素材データに置き換えられたと判断したCPU11は、音楽素材データが書込まれているマルチトラックシーケンス領域のトラックの1つを処理対象として特定する(S1060)。
CPU11は、ステップ1060で特定したトラックに書込まれている一又は複数の音楽素材データを、その音楽素材データをデコードして得たオーディオ信号と置き換える(S1070)。
ステップ1070を実行したCPU11は、トラックに書込まれた全ての音楽素材データがオーディオ信号と置き換えられたか判断する(S1080)。
ステップ1080において、一部のトラックに書込まれた音楽素材データがオーディオ信号と置き換えられていないと判断したCPU11は、ステップ1060に戻り、そのトラックを処理対象としてから以降の処理を実行する。
ステップ1080において、トラックに書込まれた全ての音楽素材データがオーディオ信号に置き換えられたと判断したCPU11は、制御データ記憶領域のインサーションエフェクト制御データに従った信号処理をトラックの一部のオーディオ信号に対して施す(S1090)。即ち、制御データ記憶領域のインサーションエフェクト制御データと共にコネクトファイルに含まれている素材合成管理データを基に、トラックのオーディオ信号から信号処理を施すべき区間を特定し、特定した区間のオーディオ信号に対してその制御データに従った信号処理を施す。
The CPU 11 that has determined that all of the material IDs have been replaced with the music material data in step 1050 identifies one of the tracks in the multi-track sequence area in which the music material data is written as a processing target (S1060).
The CPU 11 replaces one or a plurality of music material data written in the track specified in step 1060 with an audio signal obtained by decoding the music material data (S1070).
CPU11 which performed step 1070 judges whether all the music material data written in the track | truck were replaced with the audio signal (S1080).
If the CPU 11 determines in step 1080 that the music material data written in some of the tracks has not been replaced with the audio signal, the CPU 11 returns to step 1060 and executes the subsequent processing after setting the track as the processing target.
In step 1080, the CPU 11, which has determined that all the music material data written in the track has been replaced with the audio signal, performs signal processing according to the insertion effect control data in the control data storage area for the audio signal of a part of the track. (S1090). That is, based on the material synthesis management data included in the connect file together with the insertion effect control data in the control data storage area, the section to be subjected to signal processing is specified from the audio signal of the track, and the audio signal in the specified section is converted to the audio signal in the specified section. The signal processing according to the control data is performed.

CPU11は、第1トラック以外のトラックに書き込まれているオーディオ信号を第1トラックへミキシングした後(S1100)、制御データ記憶領域に記憶されているシステムエフェクト制御データに従った信号処理を第1トラックの全区間のオーディオ信号に施す(S1110)。
CPU11は、信号処理を施したオーディオ信号をエンコードして得た音楽素材データを端末装置20へ送信する(S1120)。
音楽素材データを受信した端末装置20のCPU21は、その音楽素材データをデコードして得たオーディオ信号をスピーカ28へ出力する(S1130)。
これにより、楽曲音楽素材の楽音がスピーカ28から放音される。
The CPU 11 mixes an audio signal written in a track other than the first track into the first track (S1100), and then performs signal processing according to the system effect control data stored in the control data storage area in the first track. (S1110).
The CPU 11 transmits music material data obtained by encoding the audio signal subjected to signal processing to the terminal device 20 (S1120).
The CPU 21 of the terminal device 20 that has received the music material data outputs an audio signal obtained by decoding the music material data to the speaker 28 (S1130).
As a result, the musical sound of the music material is emitted from the speaker 28.

以上説明した処理について、具体例を参照して更に詳述する。
図17及び図18は、再生対象とする楽曲音楽素材の素材IDが選択されてから、その楽曲音楽素材のオーディオ信号が得られるまでのRAM12の各領域の状態の遷移を示す図である。なお、ここでの説明は、図13に示す5回目の操作により得た合成音楽素材の素材ID「M」が再生対象として選択されたものとして行う。
図17を参照すると、制御データ記憶領域とマルチトラックシーケンス領域がRAM12に確保された直後に到来するステップ910では、素材ID「M」のリストファイルにコンプレッサとリバーブのシステムエフェクト制御データが含まれていると判断される。そして、ステップ920ではそれらの両制御データが制御データ記憶領域に記憶され、続くステップ930では、マルチトラックシーケンス領域の第1トラックに素材ID「L」が、第2トラックに素材ID「JK」が夫々書き込まれる(状態1)。その後、素材ID「L」、「J」、及び「K」を処理対象としてステップ950以降のループが繰り返される。
The processing described above will be further described in detail with reference to a specific example.
FIG. 17 and FIG. 18 are diagrams showing the transition of the state of each area of the RAM 12 from the selection of the material ID of the musical composition material to be reproduced until the audio signal of the musical composition material is obtained. The description here is made assuming that the material ID “M” of the synthetic music material obtained by the fifth operation shown in FIG. 13 is selected as the reproduction target.
Referring to FIG. 17, in step 910 which comes immediately after the control data storage area and the multitrack sequence area are secured in the RAM 12, the list file of the material ID “M” includes the system effect control data of the compressor and the reverb. It is judged that In step 920, both control data are stored in the control data storage area, and in step 930, the material ID “L” is assigned to the first track of the multitrack sequence area, and the material ID “JK” is assigned to the second track. Each is written (state 1). Thereafter, the loop after step 950 is repeated with the material IDs “L”, “J”, and “K” as processing targets.

各ループを詳述すると、まず、素材ID「L」は、対応するピースファイルを有していないので、ステップ960の判断結果は「No」となってステップ990に進み、同ステップで読み出したコネクトファイルに含まれる素材合成管理データに従って素材ID「FFFG」及び素材ID「II」と置き換えられる。その結果、第1トラックに素材ID「FFFG」、第2トラックに素材ID「JK」、第3トラックに素材ID「II」が記憶される(状態2)。そして、今度は、素材ID「F」、「G」、「J」、「K」、「I」を処理対象として更にループが繰り返される。
素材ID「F」と「G」は対応するピースファイルを有しているので、ステップ960の判断結果は「Yes」となってステップ970に進み、同ステップで読み出したピースファイルに含まれる音楽素材データと置き換えられる。その結果、第1トラックには音楽素材データ「fffg」が記憶されることになる(状態3)。
To describe each loop in detail, first, since the material ID “L” does not have a corresponding piece file, the determination result in Step 960 is “No”, and the process proceeds to Step 990. The material ID “FFFG” and the material ID “II” are replaced in accordance with the material composition management data included in the file. As a result, the material ID “FFFG” is stored in the first track, the material ID “JK” is stored in the second track, and the material ID “II” is stored in the third track (state 2). This time, the loop is further repeated with the material IDs “F”, “G”, “J”, “K”, and “I” as processing targets.
Since the material IDs “F” and “G” have corresponding piece files, the determination result in step 960 is “Yes” and the process proceeds to step 970, and the music material included in the piece file read in the same step Replaced with data. As a result, the music material data “fffg” is stored in the first track (state 3).

素材ID「J」は、対応するピースファイルを有していないので、ステップ960の判断結果は「No」となってステップ990に進み、同ステップで読み出したコネクトファイルに含まれる素材合成管理データに従って素材ID「CCCD」と置き換えられる。そして、この素材ID「C」と「D」は共にピースファイルを有しているので、ステップ960の判断結果は「Yes」となってステップ970に進み、同ステップで読み出したピースファイルに含まれる音楽素材データと置き換えられる。素材ID「K」を処理対象とするループも同様である。この結果、第2トラックには、音楽素材データ「cccdccce」が記憶されることになる(状態4)。
素材ID「I」は、対応するピースファイルを有していないので、ステップ960の判断結果は「No」となってステップ990に進み、同ステップで読み出したコネクトファイルに含まれる素材合成管理データに従って素材ID「AAAB」と置き換えられる。そして、この素材ID「A」と「B」は共にピースファイルを有しているので、ステップ960の判断結果は「Yes」となってステップ970に進み、同ステップで読み出したピースファイルに含まれる音楽素材データと置き換えられる。この結果、第3トラックには、音楽素材データ「aaabaaab」が記憶されることになる。ここで、素材ID「I」を素材ID「AAAB」に置き換える際に参照するコネクトファイルには、ディレイのインサーションエフェクト制御データが含まれている。よって、ステップ1000の判断結果は「Yes」となってステップ1010が実行され、そのインサーションエフェクト制御データが制御データ記憶領域に記憶される(状態5)。
Since the material ID “J” does not have a corresponding piece file, the determination result in step 960 is “No” and the process proceeds to step 990, in accordance with the material composition management data included in the connect file read out in the same step. It is replaced with the material ID “CCCD”. Since both of the material IDs “C” and “D” have piece files, the determination result in step 960 is “Yes” and the process proceeds to step 970 and is included in the piece file read in the same step. Replaced with music material data. The same applies to the loop whose processing target is the material ID “K”. As a result, the music material data “cccdccce” is stored in the second track (state 4).
Since the material ID “I” does not have a corresponding piece file, the determination result in step 960 is “No”, and the process proceeds to step 990, in accordance with the material composition management data included in the connect file read in the same step. Replaced with the material ID “AAAB”. Since both of the material IDs “A” and “B” have piece files, the determination result in step 960 is “Yes” and the process proceeds to step 970 and is included in the piece file read in the same step. Replaced with music material data. As a result, the music material data “aaabaab” is stored in the third track. Here, the insertion file referred to when the material ID “I” is replaced with the material ID “AAAB” includes delay insertion effect control data. Therefore, the determination result of step 1000 is “Yes”, step 1010 is executed, and the insertion effect control data is stored in the control data storage area (state 5).

各トラックの素材IDの全てが音楽素材データに置き換えられると、ステップ1060乃至ステップ1080にてそれらの音楽素材データがエンコードされたオーディオ信号と置き換えられる(状態6)。ステップ1090では、インサーションエフェクト制御データが設定されているオーディオ信号に対して信号処理を施す。この場合、ディレイのエフェクトを付与すべき区間のオーディオ信号、即ち、音楽素材データ「aaab」と置き換えられた第3トラックのオーディオ信号に対して、ディレイの信号処理が施される。(状態7)。
ステップ1100では、全てのトラックのオーディオ信号が第1トラックにミキシングされ(状態8)、続くステップ1110では、ミキシングされた第1トラックのオーディオ信号に対して、システムエフェクト制御データが設定されている場合、制御データに従った信号処理を施す。即ち、コンプレッサとリバーブの各信号処理が施される(状態9)。
その後、第1トラックのオーディオ信号が音楽素材データとして端末装置20へ送信され、同装置20のスピーカ28から3トラック分の楽音が同時期に放音されることになる。
When all of the material IDs of the respective tracks are replaced with music material data, the music material data is replaced with encoded audio signals in steps 1060 to 1080 (state 6). In step 1090, signal processing is performed on the audio signal for which insertion effect control data is set. In this case, the delay signal processing is performed on the audio signal in the section to which the delay effect is to be applied, that is, the audio signal of the third track replaced with the music material data “aaab”. (State 7).
In step 1100, the audio signals of all tracks are mixed into the first track (state 8), and in the subsequent step 1110, system effect control data is set for the mixed audio signals of the first track. Then, signal processing according to the control data is performed. That is, the compressor and reverb signal processing is performed (state 9).
Thereafter, the audio signal of the first track is transmitted to the terminal device 20 as music material data, and musical sounds for three tracks are emitted from the speaker 28 of the device 20 at the same time.

以上説明した本実施形態によると、音楽素材編集サービスにおいて複数の音楽素材から創作する合成音楽素材や楽曲音楽素材の各々に、ディレイやリバーブなどの各種エフェクトを付与することができるようになっている。そして、音楽素材編集サービスにおいて合成音楽素材に付与するエフェクトを指定する際は、その合成音楽素材だけに付与するエフェクトと、その合成音楽素材を一部に含む楽曲音楽素材の全体に付与するエフェクトとを区別した上で指定できるようになっている。これにより、ユーザは、各種エフェクトを様々な態様で付与した合奏曲の創作を容易に行うことができる。   According to the present embodiment described above, various effects such as delay and reverb can be added to each of the synthetic music material and music composition material created from a plurality of music materials in the music material editing service. . Then, when specifying an effect to be given to the synthetic music material in the music material editing service, an effect to be given only to the synthetic music material, an effect to be given to the whole music composition material including the synthetic music material, Can be specified after distinguishing. Thus, the user can easily create an ensemble with various effects applied in various modes.

(他の実施形態)
本実施形態は、種々の変形実施が可能である。
上記実施形態では、編集画面の音楽素材合成欄60が第1トラック61と第2トラック62の2つのトラックを有していたが、より多くのトラックを設けてもよい。この変形例によれば、より多くの音楽素材の素材IDの並びをミキシング編集操作によって一度に合成することができる。また、音楽素材管理サーバ装置10のRAM12に確保されるマルチトラックシーケンス領域は4つのトラックを有していたが、より多くのトラック数を有していてもよい。
上記実施形態の音楽素材収録サービスにおいては、端末装置20のオーディオインターフェース27と接続した楽器をユーザ自らが演奏することによって音楽素材のオーディオ信号を取得していたが、オーディオインターフェース27に音源を接続し、その音源を制御することによって音楽素材のオーディオ信号を取得してもよい。
上記実施形態の音楽素材再生処理では、マルチトラックシーケンス領域の各トラックに書込まれた音楽素材データをオーディオ信号に置き換えた後、それらのオーディオ信号を第1トラックにミキシングしてから端末装置20へ提供していたが、端末装置20が2つのチャネルのオーディオ信号を処理可能であれば、2つのチャネルのオーディオ信号にミキシングしてから端末装置20へ提供してもよい。或いは、マルチトラックシーケンス領域の各トラックに書き込まれている音楽素材データの楽器パートを端末装置20にまず提示し、それらのうちからユーザが選択した2つの楽器パートのオーディオ信号だけを端末装置20へ提供するようにしてもよい。
上記実施形態は、複数のユーザによる利用を想定して音楽素材管理サーバ装置10をネットワーク30上に設置し、そのサーバ装置がユーザの端末装置20からの要求に応じて、音楽素材収録サービス、音楽素材編集サービス、及び音楽素材再生サービスの各サービスを提供する態様を説明したが、スタンドアロンのコンピュータ装置によってこれらの各サービスを提供してもよい。
(Other embodiments)
This embodiment can be modified in various ways.
In the above embodiment, the music material composition field 60 on the editing screen has two tracks, the first track 61 and the second track 62, but more tracks may be provided. According to this modification, it is possible to combine a sequence of material IDs of more music materials at a time by a mixing editing operation. Further, although the multi-track sequence area secured in the RAM 12 of the music material management server apparatus 10 has four tracks, it may have a larger number of tracks.
In the music material recording service of the above embodiment, the audio signal of the music material is acquired by the user himself / herself playing a musical instrument connected to the audio interface 27 of the terminal device 20, but a sound source is connected to the audio interface 27. The audio signal of the music material may be acquired by controlling the sound source.
In the music material reproduction process of the above embodiment, after the music material data written in each track of the multi-track sequence area is replaced with an audio signal, the audio signal is mixed with the first track and then sent to the terminal device 20. However, if the terminal device 20 can process audio signals of two channels, the audio signals of two channels may be mixed and then provided to the terminal device 20. Alternatively, the musical instrument part of the music material data written in each track of the multi-track sequence area is first presented to the terminal device 20, and only the audio signals of the two musical instrument parts selected by the user from these are presented to the terminal device 20. You may make it provide.
In the above-described embodiment, the music material management server device 10 is installed on the network 30 assuming use by a plurality of users, and the server device responds to a request from the user's terminal device 20 according to a request from the user's terminal device 20. Although the aspect of providing each of the material editing service and the music material reproduction service has been described, each of these services may be provided by a stand-alone computer device.

音楽素材編集システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a music material editing system. 各ファイルのデータ構造図である。It is a data structure figure of each file. 音楽素材収録処理を示すフローチャートである。It is a flowchart which shows a music material recording process. 音楽素材編集処理を示すフローチャートである。It is a flowchart which shows a music material edit process. 音楽素材編集処理を示すフローチャートである。It is a flowchart which shows a music material edit process. 音楽素材編集処理を示すフローチャートである。It is a flowchart which shows a music material edit process. 音楽素材編集処理を示すフローチャートである。It is a flowchart which shows a music material edit process. 編集画面である。It is an edit screen. ドラッグアンドドロップ操作示す図である。It is a figure which shows drag and drop operation. ファイル属性選択要求画面である。It is a file attribute selection request screen. エフェクト種別選択要求画面である。It is an effect type selection request screen. エフェクト区間選択要求画面である。It is an effect section selection request screen. 編集画面を介した操作の一例を示す図である。It is a figure which shows an example of operation via an edit screen. 音楽素材再生処理を示すフローチャートである。It is a flowchart which shows a music material reproduction | regeneration process. 音楽素材再生処理を示すフローチャートである。It is a flowchart which shows a music material reproduction | regeneration process. 音楽素材再生処理を示すフローチャートである。It is a flowchart which shows a music material reproduction | regeneration process. RAMの状態の遷移を示す図である。It is a figure which shows transition of the state of RAM. RAMの状態の遷移を示す図である。It is a figure which shows transition of the state of RAM.

符号の説明Explanation of symbols

10…音楽素材管理サーバ装置、11,21…CPU、12,22…RAM、13,23…ROM、14,26…通信インターフェース、15,29…ハードディスク、20…端末装置、24…マウス、25…コンピュータディスプレイ、27…オーディオインターフェース、28…スピーカ、30…ネットワーク、50…音楽素材提示欄、51,63…スクロールバー、60…音楽素材合成欄 DESCRIPTION OF SYMBOLS 10 ... Music material management server apparatus, 11, 21 ... CPU, 12, 22 ... RAM, 13, 23 ... ROM, 14, 26 ... Communication interface, 15, 29 ... Hard disk, 20 ... Terminal device, 24 ... Mouse, 25 ... Computer display, 27 ... Audio interface, 28 ... Speaker, 30 ... Network, 50 ... Music material presentation column, 51, 63 ... Scroll bar, 60 ... Music material composition column

Claims (5)

音楽素材のオーディオ信号を表す音楽素材データとその音楽素材の素材識別子とを夫々含んだ各ピースファイルを記憶するピースファイル記憶手段と、
合奏曲の一部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該合成音楽素材に付与する音響効果を表すインサーションエフェクト制御データとを夫々含んだ各コネクトファイルを記憶するコネクトファイル記憶手段と、
合奏曲の全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である楽曲音楽素材の素材識別子と、その楽曲音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該楽曲音楽素材に付与する音響効果を表すシステムエフェクト制御データとを夫々含んだ各リストファイルを記憶するリストファイル記憶手段と、
操作子と、
データ列を記憶する複数のトラックを有するトラックバッファと
を有するシステムを用いた音楽素材加工方法であって、
再生の対象とする楽曲音楽素材を前記操作子の操作に従って選択する再生対象選択工程と、
前記再生対象選択工程にて選択した楽曲音楽素材の素材識別子を含むリストファイルを前記リストファイル記憶手段から読み出し、そのリストファイルに含まれる素材合成管理データが表す素材識別子の各列を前記トラックバッファの各トラックへ記憶すると共に、当該リストファイルからシステムエフェクト制御データを抽出するリストファイル展開工程と、
前記リストファイル展開工程にて各トラックに記憶した素材識別子を夫々含むコネクトファイルを前記コネクトファイル記憶手段から読み出し、それらのコネクトファイルに含まれる素材合成管理データが表す素材識別子の各列を前記リストファイル展開工程にて記憶された素材識別子の各々に換えて各トラックに記憶すると共に、当該コネクトファイルからインサーションエフェクト制御データを抽出するコネクトファイル展開工程と、
前記コネクトファイル展開工程にて各トラックに記憶した素材識別子を含むピースファイルを前記ピースファイル記憶手段から夫々読み出し、それらのピースファイルに含まれる音楽素材データを前記コネクトファイル展開工程にて記憶された素材識別子の各々に換えて各トラックに記憶するピースファイル展開工程と、
前記抽出したインサーションエフェクト制御データに基づく音響効果付与処理を前記ピースファイル展開工程にて各トラックに夫々記憶された音楽素材データに対して施す第1の効果付与工程と、
前記第1の効果付与工程にて音響効果付与処理が施された各トラックの音楽素材データをミキシングするミキシング工程と、
前記抽出したシステムエフェクト制御データに基づく音響効果付与処理を前記ミキシングされた音楽素材データに対して施す第2の効果付与工程と、
前記第2の効果付与工程にて音響効果付与処理が施された音楽素材データを楽音として出力する楽音出力工程と
を有する音楽素材加工方法。
Piece file storage means for storing piece files each including music material data representing an audio signal of the music material and a material identifier of the music material;
The material identifier of the synthetic music material, which is the music material obtained by combining the music materials to be played continuously or in parallel for the length of time corresponding to a part of the performance of the ensemble, and the performance contents of the synthetic music material Is expressed as one or a plurality of columns composed of material identifiers of music materials to be played in succession or in parallel, and insertion effect control data representing sound effects to be given to the synthesized music materials Connect file storage means for storing each connect file including
The material identifier of the music material that is the music material obtained by combining the music materials to be performed continuously or in parallel during the length of time corresponding to the entire performance section of the ensemble, and the performance contents of the music material , Material composition management data represented as one or a plurality of columns composed of material identifiers of the music materials to be played continuously or in parallel, and system effect control data representing the acoustic effect to be given to the music material List file storage means for storing each list file included,
An operator,
A music material processing method using a system having a track buffer having a plurality of tracks for storing a data string,
A reproduction target selection step of selecting music music material to be reproduced according to the operation of the operation element;
A list file including material identifiers of the music material selected in the reproduction target selection step is read from the list file storage means, and each column of material identifiers represented by the material composition management data included in the list file is stored in the track buffer. A list file expansion process for storing each track and extracting system effect control data from the list file;
The connect file including the material identifier stored in each track in the list file development step is read from the connect file storage means, and each column of the material identifier represented by the material composition management data included in the connect file is displayed in the list file. Connected to each track in place of the material identifier stored in the expansion process, and stored in each track, Connect file expansion process of extracting insertion effect control data from the connect file,
The piece file including the material identifier stored in each track in the connect file development step is read from the piece file storage unit, and the music material data included in the piece file is stored in the connect file development step. A piece file development process for storing in each track in place of each identifier;
A first effect applying step of applying an acoustic effect applying process based on the extracted insertion effect control data to the music material data stored in each track in the piece file developing step;
A mixing step of mixing the music material data of each track that has been subjected to the sound effect applying process in the first effect applying step;
A second effect applying step of applying an acoustic effect applying process based on the extracted system effect control data to the mixed music material data;
A music material processing method comprising: a music sound output step of outputting the music material data subjected to the sound effect applying process in the second effect applying step as a musical sound.
請求項1に記載の音楽素材加工方法において、
前記ピースファイル展開工程は、
前記コネクトファイル展開工程にて各トラックに記憶した素材識別子の各々を処理対象としてそれらの素材識別子を含むピースファイルが前記ピースファイル記憶手段にあるか否かを順次判断し、処理対象となった素材識別子を含むピースファイルがあると判断すると、そのピースファイルに含まれる音声素材データを当該処理対象の素材識別子に換えてトラックに記憶する一方、処理対象となった素材識別子を含むピースファイルがないと判断するたびに、当該処理対象の素材識別子を含むコネクトファイルを前記コネクトファイル記憶手段から読み出し、読み出したコネクトファイルに含まれる素材合成管理データが表す素材識別子の一つ又は複数の列を当該処理対象の素材識別子に換えてトラックに記憶する処理を再帰的に繰り返すことにより、前記コネクトファイル展開工程にて各トラックに記憶された素材識別子のすべてを音楽素材データに置換する工程
を有する音楽素材加工方法。
The music material processing method according to claim 1,
The piece file development process includes:
Each of the material identifiers stored in each track in the connect file development step is processed, and it is sequentially determined whether or not there is a piece file including the material identifiers in the piece file storage means, and the material that has been processed If it is determined that there is a piece file including the identifier, the audio material data included in the piece file is stored in the track in place of the material identifier to be processed, and there is no piece file including the material identifier to be processed. Each time a determination is made, a connect file including the material identifier of the processing target is read from the connect file storage means, and one or more columns of material identifiers represented by the material composition management data included in the read connect file are processed. Recursively repeat the process of storing in the track instead of the material identifier of The music material processing method comprising the step of replacing all of the material identifier stored in each track in the connect file expansion process to the music material data.
請求項1又は2に記載の音楽素材加工方法において、
ある時間長の間に連続して又は並行して演奏させる複数の音楽素材を前記操作子の操作に従って選択すると共に、当該選択した複数の音楽素材を取り纏めて得られる新たな音楽素材に付与する音響効果を前記操作子の操作に従って入力する音楽素材合成指示工程と、
前記選択された複数の音楽素材の素材識別子を一つ又は複数の列として表す素材合成管理データを生成する管理データ生成工程と、
楽曲音楽素材の生成の有無を問い合わせるメッセージを出力するメッセージ出力工程と、
前記メッセージを出力した後、楽曲音楽素材の生成指示が前記操作子の操作に従って入力されなかったとき、前記選択された複数の音楽素材を取り纏めて得られる合成音楽素材に固有の素材識別子と前記入力された音響効果を表すインサーションエフェクト制御データとを生成し、それらの素材識別子及びインサーションエフェクト制御データと前記管理データ生成工程にて生成した素材合成管理データとを含む新たなコネクトファイルを前記コネクトファイル記憶手段に記憶する一方、楽曲音楽素材の生成指示が前記操作子の操作に従って入力されたとき、前記選択された複数の音楽素材を取り纏めて得られる楽曲音楽素材に固有の素材識別子と前記入力された音響効果を表すシステムエフェクト制御データとを生成し、それらの素材識別子及びシステムエフェクト制御データと前記管理データ生成工程にて生成した素材合成管理データとを含む新たなリストファイルを前記リストファイル記憶手段に記憶する新規ファイル蓄積工程と
を更に有する音楽素材加工方法。
The music material processing method according to claim 1 or 2,
A sound to be given to a new music material obtained by selecting a plurality of music materials to be played continuously or in parallel for a certain length of time according to the operation of the operation element and collecting the selected music materials. A music material composition instruction step for inputting an effect according to the operation of the operation element;
A management data generation step of generating material composition management data representing the material identifiers of the selected plurality of music materials as one or a plurality of columns;
A message output step for outputting a message for inquiring whether or not music material is generated;
After outputting the message, when the music music material generation instruction is not input according to the operation of the operation element, the material identifier unique to the synthetic music material obtained by collecting the plurality of selected music materials and the input Insertion effect control data representing the generated acoustic effect, and a new connect file including the material identifier and insertion effect control data and the material composition management data generated in the management data generation step While storing in the file storage means, when a music music material generation instruction is input in accordance with the operation of the operation element, the material identifier unique to the music music material obtained by collecting the plurality of selected music materials and the input System effect control data representing the generated sound effect and identifying the material And music material processing method further has a new file storage step of storing a new list file including the Material Synthetic management data generated by the management data generating step and the system effect control data to the list file storage unit.
請求項1乃至3に記載の音楽素材加工方法において、
所定の信号入力デバイスを介して音楽素材のオーディオ信号を入力する工程と、
前記入力したオーディオ信号を表す音楽素材データに固有の素材識別子を生成し、生成した素材識別子と当該音楽素材データとを含んだ新たなピースファイルを前記ピースファイル記憶手段に記憶する工程と
を更に有する音楽素材加工方法。
The music material processing method according to any one of claims 1 to 3,
Inputting a music material audio signal via a predetermined signal input device;
A step of generating a unique material identifier for the music material data representing the input audio signal, and storing a new piece file including the generated material identifier and the music material data in the piece file storage means. Music material processing method.
音楽素材のオーディオ信号を表す音楽素材データとその音楽素材の素材識別子とを夫々含んだ各ピースファイルを記憶するピースファイル記憶手段と、
合奏曲の一部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である合成音楽素材の素材識別子と、その合成音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該合成音楽素材に付与する音響効果を表すインサーションエフェクト制御データとを夫々含んだ各コネクトファイルを記憶するコネクトファイル記憶手段と、
合奏曲の全部の演奏区間に相当する時間長の間に続けて又は並行して演奏する音楽素材を取り纏めて得た音楽素材である楽曲音楽素材の素材識別子と、その楽曲音楽素材の演奏内容を、前記続けて又は並行して演奏する各音楽素材の素材識別子より成る一つ又は複数の列として表した素材合成管理データと、当該楽曲音楽素材に付与する音響効果を表すシステムエフェクト制御データとを夫々含んだ各リストファイルを記憶するリストファイル記憶手段と、
操作子と、
データ列を記憶する複数のトラックを有するトラックバッファと、
再生の対象とする楽曲音楽素材を前記操作子の操作に従って選択する再生対象選択手段と、
前記再生対象選択手段によって選択された楽曲音楽素材の素材識別子を含むリストファイルを前記リストファイル記憶手段から読み出し、そのリストファイルに含まれる素材合成管理データが表す素材識別子の各列を前記トラックバッファの各トラックへ記憶すると共に、当該リストファイルからシステムエフェクト制御データを抽出するリストファイル展開手段と、
前記リストファイル展開手段が各トラックに記憶した素材識別子を夫々含むコネクトファイルを前記コネクトファイル記憶手段から読み出し、それらのコネクトファイルに含まれる素材合成管理データが表す素材識別子の各列を前記リストファイル展開手段が記憶した素材識別子の各々に換えて各トラックに記憶すると共に、当該コネクトファイルからインサーションエフェクト制御データを抽出するコネクトファイル展開手段と、
前記コネクトファイル展開手段が各トラックに記憶した素材識別子を含むピースファイルを前記ピースファイル記憶手段から夫々読み出し、それらのピースファイルに含まれる音楽素材データを前記コネクトファイル展開手段が記憶した素材識別子の各々に換えて各トラックに記憶するピースファイル展開手段と、
前記抽出したインサーションエフェクト制御データに基づく音響効果付与処理を前記ピースファイル展開手段が各トラックに夫々記憶した音楽素材データに対して施す第1の効果付与手段と、
前記第1の効果付与手段が音響効果付与処理を施した各トラックの音楽素材データをミキシングするミキシング手段と、
前記抽出したシステムエフェクト制御データに基づく音響効果付与処理を前記ミキシングした音楽素材データに対して施す第2の効果付与手段と、
前記第2の効果付与手段が音響効果付与処理を施した音楽素材データを楽音として出力する楽音出力手段と
を有する音楽素材加工システム。
Piece file storage means for storing piece files each including music material data representing an audio signal of the music material and a material identifier of the music material;
The material identifier of the synthetic music material, which is the music material obtained by combining the music materials to be played continuously or in parallel for the length of time corresponding to a part of the performance of the ensemble, and the performance contents of the synthetic music material Is expressed as one or a plurality of columns composed of material identifiers of music materials to be played in succession or in parallel, and insertion effect control data representing sound effects to be given to the synthesized music materials Connect file storage means for storing each connect file including
The material identifier of the music material that is the music material obtained by combining the music materials to be performed continuously or in parallel during the length of time corresponding to the entire performance section of the ensemble, and the performance contents of the music material , Material composition management data represented as one or a plurality of columns composed of material identifiers of the music materials to be played continuously or in parallel, and system effect control data representing the acoustic effect to be given to the music material List file storage means for storing each list file included,
An operator,
A track buffer having a plurality of tracks for storing data strings;
Reproduction target selection means for selecting music music material to be reproduced according to the operation of the operation element;
A list file including material identifiers of the music material selected by the reproduction target selection unit is read from the list file storage unit, and each column of material identifiers represented by the material composition management data included in the list file is stored in the track buffer. List file expansion means for storing each track and extracting system effect control data from the list file;
The connect file containing the material identifier stored in each track by the list file developing means is read from the connect file storing means, and each column of material identifiers represented by the material composition management data included in the connect file is expanded in the list file. Connect file expansion means for storing in each track instead of each material identifier stored by the means, and extracting insertion effect control data from the connect file;
Each piece file containing the material identifier stored in each track by the connect file development means is read out from the piece file storage means, and each of the material identifiers stored in the piece file is stored in the piece file storage means. Piece file expansion means for storing in each track instead of,
First effect applying means for applying the sound effect applying process based on the extracted insertion effect control data to the music material data stored in each track by the piece file developing means;
Mixing means for mixing the music material data of each track on which the first effect applying means has been subjected to the sound effect applying process;
A second effect applying means for applying the sound effect applying process based on the extracted system effect control data to the mixed music material data;
A music material processing system comprising: a music sound output means for outputting the music material data subjected to the sound effect applying process by the second effect applying means as a music sound.
JP2005316600A 2005-10-31 2005-10-31 Music material processing method and music material processing system Expired - Fee Related JP4581965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005316600A JP4581965B2 (en) 2005-10-31 2005-10-31 Music material processing method and music material processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005316600A JP4581965B2 (en) 2005-10-31 2005-10-31 Music material processing method and music material processing system

Publications (2)

Publication Number Publication Date
JP2007121876A true JP2007121876A (en) 2007-05-17
JP4581965B2 JP4581965B2 (en) 2010-11-17

Family

ID=38145765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005316600A Expired - Fee Related JP4581965B2 (en) 2005-10-31 2005-10-31 Music material processing method and music material processing system

Country Status (1)

Country Link
JP (1) JP4581965B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022049732A1 (en) * 2020-09-04 2022-03-10 ローランド株式会社 Information processing device and information processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06175656A (en) * 1992-10-11 1994-06-24 Casio Comput Co Ltd Effect adding device
JP2002258844A (en) * 2001-03-05 2002-09-11 Yamaha Corp Musical sound playing device
JP2003015643A (en) * 2001-06-27 2003-01-17 Casio Comput Co Ltd Controller and program for control processing
JP2003224630A (en) * 2001-10-05 2003-08-08 Motorola Inc Mobile wireless communication handset with sound mixer and method therefor
JP2004220708A (en) * 2003-01-15 2004-08-05 Teac Corp Audio-reproducing device
JP2004279756A (en) * 2003-03-17 2004-10-07 Yamaha Corp Device and program for using content related to sound or musical sound
JP2005033826A (en) * 2001-06-15 2005-02-03 Yamaha Corp Portable mixing recording apparatus and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06175656A (en) * 1992-10-11 1994-06-24 Casio Comput Co Ltd Effect adding device
JP2002258844A (en) * 2001-03-05 2002-09-11 Yamaha Corp Musical sound playing device
JP2005033826A (en) * 2001-06-15 2005-02-03 Yamaha Corp Portable mixing recording apparatus and program
JP2003015643A (en) * 2001-06-27 2003-01-17 Casio Comput Co Ltd Controller and program for control processing
JP2003224630A (en) * 2001-10-05 2003-08-08 Motorola Inc Mobile wireless communication handset with sound mixer and method therefor
JP2004220708A (en) * 2003-01-15 2004-08-05 Teac Corp Audio-reproducing device
JP2004279756A (en) * 2003-03-17 2004-10-07 Yamaha Corp Device and program for using content related to sound or musical sound

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022049732A1 (en) * 2020-09-04 2022-03-10 ローランド株式会社 Information processing device and information processing method
US11922913B2 (en) 2020-09-04 2024-03-05 Roland Corporation Information processing device, information processing method, and non-transitory computer readable recording medium

Also Published As

Publication number Publication date
JP4581965B2 (en) 2010-11-17

Similar Documents

Publication Publication Date Title
US8513512B2 (en) Personalized music remixing
JP4670591B2 (en) Music material editing method and music material editing system
KR101014117B1 (en) Electronic musical apparatus for reproducing received music content
JP2001092464A (en) Musical sound generation method, method for recording musical sound generating data, and recorded with meiudm recording musical sound generating data
JP4581965B2 (en) Music material processing method and music material processing system
JP4340809B2 (en) Mobile communication terminal and program
JP4670540B2 (en) Music material editing method, material editing method and music material editing system
JP4211709B2 (en) Automatic performance device and computer program applied to the same
JP2007122634A (en) Method and system for calculating charge for using musical material
JP7397090B2 (en) Sound device, sound system, image generation method, and image generation program
CN1734552B (en) Electronic musical apparatus for reproducing received music content
JP6648586B2 (en) Music editing device
JP2006337702A (en) Karaoke service method and karaoke system
JP4270102B2 (en) Automatic performance device and program
JP4016447B2 (en) Video playback device
KR100826659B1 (en) Method for listening specific performance part which is erased or selected from music file
JP2003141859A (en) Image and audio reproducing system, program and recording medium
JP6699137B2 (en) Data management device, content playback device, content playback method, and program
JP2005208117A (en) Karaoke machine with song editing function, remote controller for karaoke, song editing program, processing method of karaoke machine, and karaoke system, and information processing terminal, karaoke machine, remote controller for karaoke, and song editing server used to structure the system
JP4571001B2 (en) A karaoke device that provides the user with the lyrics along with the accompaniment music that includes the user&#39;s singing voice
JP3532485B2 (en) Editing method, apparatus, and program recording medium for reducing the number of channels of electronic music data
JP4389884B2 (en) Karaoke equipment
JP4366212B2 (en) Karaoke recording system
JP3855908B2 (en) Performance data creation device and program
JP2001282291A (en) Voice data processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees