JP3381581B2 - Performance data editing device and recording medium storing performance data editing program - Google Patents
Performance data editing device and recording medium storing performance data editing programInfo
- Publication number
- JP3381581B2 JP3381581B2 JP29019197A JP29019197A JP3381581B2 JP 3381581 B2 JP3381581 B2 JP 3381581B2 JP 29019197 A JP29019197 A JP 29019197A JP 29019197 A JP29019197 A JP 29019197A JP 3381581 B2 JP3381581 B2 JP 3381581B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- style
- accompaniment
- time
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、演奏データ編集装
置及び演奏データ編集プログラムを記録した記録媒体に
係り、特にメロディ等のソングデータに対応する(伴
奏)スタイルシーケンスデータの切り離し(分割)、合
成等の編集処理を容易にすべく演奏データの編集を支援
する演奏データ編集装置及び演奏データ編集プログラム
を記録した記録媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a performance data editing device and a recording medium recording a performance data editing program, and in particular, separation (division) and synthesis of (accompaniment) style sequence data corresponding to song data such as a melody. The present invention relates to a performance data editing device and a recording medium having a performance data editing program recorded therein for supporting editing of performance data so as to facilitate editing processing of the performance data.
【0002】[0002]
【従来の技術】従来より演奏情報としてのソング(シー
ケンス)データに対応する伴奏を行うべく、(伴奏)ス
タイルシーケンスデータを用いて自動伴奏を行う自動演
奏装置が知られている。この様な自動演奏装置におい
て、ユーザの作成した(伴奏)スタイルシーケンスデー
タは、所望の伴奏スタイルを所望のタイミングで演奏
(発音)させるように、発音のタイミングデータ及び発
音のスタイルを指定するためのスタイルデータ(含む、
セクションデータ)を時系列に配置した構成となってい
る。2. Description of the Related Art Conventionally, there has been known an automatic performance device for performing automatic accompaniment using (accompaniment) style sequence data in order to perform accompaniment corresponding to song (sequence) data as performance information. In such an automatic performance device, the (accompaniment) style sequence data created by the user is used to specify the pronunciation timing data and the pronunciation style so that the desired accompaniment style is played (pronounced) at a desired timing. Style data (including,
Section data) is arranged in chronological order.
【0003】上記従来の自動演奏装置において、所望の
スタイルシーケンスデータを編集する場合に、既に存在
するスタイルシーケンスデータを構成する数値データあ
るいは所定の文字列で表現された文字データを直接変更
することにより所望のスタイルシーケンスデータを得る
ように構成したものが知られている。In the conventional automatic performance device described above, when the desired style sequence data is edited, by directly changing the numerical data or the character data expressed by a predetermined character string which constitutes the existing style sequence data. It is known to be configured to obtain desired style sequence data.
【0004】また、従来の自動演奏装置において、ソン
グ(シーケンス)データ(=楽音の発音等を表す各イベ
ント毎のタイミングデータ及びイベントデータを時系列
的に配置したデータ)を画面表示し、マウスなどの入出
力装置の操作により、ソング(シーケンス)データの切
り離し(分割)、合成などの編集を行えるようにしたも
のも知られている。Further, in the conventional automatic performance device, song (sequence) data (= timing data for each event representing the pronunciation of a musical sound and data in which event data is arranged in time series) is displayed on the screen and a mouse or the like is displayed. There is also known a device which can perform editing such as separation (division) and composition of song (sequence) data by operating the input / output device.
【0005】すなわち、従来の自動演奏装置における編
集機能では、表示されたソング(シーケンス)データの
所望の位置を指定し、当該データ箇所でソング(シーケ
ンス)データを編集するように構成していた。より具体
的には、ソング(シーケンス)データの分割処理を行う
場合には、分割したい位置を、ディスプレイの画面上で
マウスカーソル等により指定し、当該指定位置で、ソン
グ(シーケンス)データを区切ることとなっていた。That is, in the editing function of the conventional automatic performance device, a desired position of the displayed song (sequence) data is designated, and the song (sequence) data is edited at the data position. More specifically, when performing division processing of song (sequence) data, specify the position to be divided with a mouse cursor or the like on the screen of the display, and divide the song (sequence) data at the specified position. It was.
【0006】[0006]
【発明が解決しようとする課題】ここで、上記従来のソ
ングデータ編集装置における編集手法を単純にスタイル
シーケンスデータの編集に適用した場合について考え
る。Now, let us consider a case where the editing method in the conventional song data editing apparatus is simply applied to the editing of style sequence data.
【0007】例えば、指定した分割位置があるスタイル
データの演奏途中の位置であった場合には、スタイルシ
ーケンスデータ内の当該指定位置には、もともとスタイ
ルシーケンスデータを構成するスタイルデータが存在し
ないため、当該位置にスタイルデータを区切るためのデ
ータを挿入することにより、当該挿入位置で伴奏が終了
し、その後、当該スタイルシーケンスデータ内におい
て、次のスタイルデータの発音開始データが読み出され
るまで、何ら伴奏が行われないという不具合が生じるこ
ととなっていた。For example, when the designated division position is a position in the middle of the performance of the style data, the style data that originally forms the style sequence data does not exist at the designated position in the style sequence data. By inserting the data for delimiting the style data at the position, the accompaniment ends at the insertion position, and thereafter, no accompaniment is performed until the pronunciation start data of the next style data is read in the style sequence data. There was a problem that it would not be performed.
【0008】また、上記従来の演奏データ編集装置にお
いては、上記のような不具合を回避すべく、スタイルシ
ーケンスデータを数値入力により編集しており、編集操
作が煩わしいという問題点があった。さらに、上記のよ
うな数値入力による演奏データ編集装置では、スタイル
シーケンスデータと対応するソングデータを照らし合わ
せながら編集を行うことは困難であり、ソングデータに
合致させるべくスタイルシーケンスデータを作成あるい
は編集する作業は非常に煩わしいものとなっていた。特
に初心者においては、この点が作業を困難とするものと
なっていた。Further, in the above-mentioned conventional performance data editing apparatus, the style sequence data is edited by inputting numerical values in order to avoid the above problems, and there is a problem that the editing operation is troublesome. Further, it is difficult for the performance data editing apparatus for inputting numerical values as described above to edit while comparing the style sequence data with the corresponding song data, and the style sequence data is created or edited to match the song data. The work was very cumbersome. Especially for beginners, this point makes the work difficult.
【0009】そこで、本発明の第1の目的は、スタイル
シーケンスデータを編集した場合でも、伴奏が行われな
い区間が生じる等の不具合が生じることなく、簡単な操
作で所望のスタイルシーケンスデータを正確に作成する
ことが可能な演奏データ編集装置及び演奏データ編集プ
ログラムを記録した記録媒体を提供することにある。Therefore, a first object of the present invention is to accurately obtain a desired style sequence data by a simple operation without causing a defect such as a section in which no accompaniment is performed even when the style sequence data is edited. (EN) Provided are a performance data editing device and a recording medium having a performance data editing program recorded therein.
【0010】また、本発明の第2の目的は、スタイルシ
ーケンスデータの編集操作が簡単な演奏データ編集装置
及び演奏データ編集プログラムを記録した記録媒体を提
供することにある。さらに、本発明の第3の目的は、ソ
ング(シーケンス)データとスタイルシーケンスデータ
を対照しつつ編集作業を行うことが可能な演奏データ編
集装置及び演奏データ編集プログラムを記録した記録媒
体を提供することにある。A second object of the present invention is to provide a performance data editing apparatus and a recording medium having a performance data editing program recorded therein, in which the editing operation of style sequence data is simple. Further, a third object of the present invention is to provide a performance data editing device capable of performing editing work while comparing song (sequence) data and style sequence data, and a recording medium recording the performance data editing program. It is in.
【0011】[0011]
【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の構成は、自動演奏装置において用い
られる演奏データの編集を行うための演奏データ編集装
置において、前記演奏データは、スタイルデータを時系
列順に並べたスタイルシーケンスデータを含み、前記ス
タイルデータは、指定された伴奏スタイルによる伴奏時
間を求めるための伴奏時間データと、前記伴奏スタイル
を指定するためのスタイルナンバデータとを含み、各ス
タイルデータの伴奏時間データから求まる伴奏時間を所
定形状を有する編集対象マークとして表示する表示手段
と、ユーザによる前記編集対象マークに対する切離操作
に基づいて分離位置を指定するための分離位置指定手段
と、前記指定された分離位置に対応する一つのスタイル
データの伴奏時間データから求まる伴奏時間を、前記一
つのスタイルデータによる伴奏の開始位置から前記分離
位置までに相当する伴奏時間に変更して第1の新スタイ
ルデータを生成する生成手段と、前記分離位置から前記
一つのスタイルデータによる伴奏の終了位置までに相当
する伴奏時間を有する第2の新スタイルデータを生成
し、生成した第2の新スタイルデータを前記スタイルシ
ーケンスデータ中の前記分離位置に挿入する挿入手段と
を備えたことを特徴としている。In order to solve the above-mentioned problems, the structure according to claim 1 is a performance data editing apparatus for editing performance data used in an automatic performance apparatus, wherein the performance data is a style. Time data
It contains style sequence data arranged in column order,
Tile data is for accompaniment with the specified accompaniment style
Accompaniment time data for determining the interval and the accompaniment style
The style number data for specifying
The accompaniment time calculated from the accompaniment time data of tile data
Display means for displaying as an edit target mark having a fixed shape
And a detaching operation for the edit target mark by the user
Position specifying means for specifying the separation position based on
And one style corresponding to the specified separation position
The accompaniment time obtained from the data
Separation from the start position of accompaniment by one style data
Change the accompaniment time to the position and change to the first new style
Generating means for generating data, and
Equivalent to the end position of accompaniment with one style data
Second new style data with accompaniment time
The generated second new style data to the style
Insertion means for inserting the sequence data into the separation position .
【0012】請求項2記載の構成は、自動演奏装置にお
いて用いられる演奏データの編集を行うための演奏デー
タ編集装置において、前記演奏データは、スタイルデー
タを時系列順に並べたスタイルシーケンスデータを含
み、前記スタイルデータは、指定された伴奏スタイルに
よる伴奏時間を求めるための伴奏時間データと、前記伴
奏スタイルを指定するためのスタイルナンバデータとを
含み、各スタイルデータの伴奏時間データから求まる伴
奏時間を所定形状を有する編集対象マークとして表示す
る表示手段と、ユーザによる前記編集対象マークに対す
る合成操作に基づいて合成位置を指定するための合成位
置指定手段と、前記指定された合成位置よりも時系列的
に前側のスタイルデータの伴奏時間データから求まる伴
奏時間を、前記前側のスタイルデータの伴奏時間から求
まる伴奏時間と前記合成位置よりも時系列的に後側のス
タイルデータの伴奏時間データから求まる伴奏時間とを
加算した伴奏時間に変更して新スタイルデータを生成す
る生成手段と、前記後側のスタイルデータを削除する削
除手段とを備えたことを特徴としている。According to a second aspect of the present invention , an automatic performance device is provided.
Performance data for editing the performance data
In the editing device, the performance data is
Data including style sequence data in which
Only the accompaniment style specified in the style data
The accompaniment time data for obtaining the accompaniment time
Style number data to specify the playing style
Included, accompaniment obtained from accompaniment time data of each style data
The playing time is displayed as an edit target mark having a predetermined shape.
Display means and the user's edit target mark
Position to specify the composition position based on the composition operation
Position designation means and time-sequentially than the designated synthetic position
And the accompaniment time obtained from the accompaniment time data of the front style data.
The playing time is calculated from the accompaniment time of the style data on the front side.
The total accompaniment time and the space behind the synthetic position in time series.
Accompaniment time obtained from the accompaniment time data of tile data
Change to the added accompaniment time and generate new style data
And a deletion method to delete the style data on the rear side.
And removing means .
【0013】請求項3記載の構成は、請求項1または2
に記載の構成において、前記表示手段は、前記スタイル
データによる伴奏に対応するソングデータを参照可能に
同時表示することを特徴としている。According to a third aspect of the present invention, there is provided the first or second aspect.
In the configuration described in (1), the display means is the style
It is possible to refer to the song data corresponding to the accompaniment by data
It features simultaneous display .
【0014】請求項4記載の構成は、自動演奏装置のコ
ンピュータに演奏データの編集機能を実現させるための
プログラムを記録したコンピュータ読み取り可能な記録
媒体であって、前記演奏データは、スタイルデータを時
系列順に並べたスタイルシーケンスデータを含み、前記
スタイルデータは、指定された伴奏スタイルによる伴奏
時間を求めるための伴奏時間データと、前記伴奏スタイ
ルを指定するためのスタイルナンバデータとを含み、前
記コンピュータに、各スタイルデータの伴奏時間データ
から求まる伴奏時間を所定形状を有する編集対象マーク
として表示する表示機能と、ユーザによる前記編集対象
マークに対する切離操作に基づいて分離位置を指定する
ための分離位置指定機能と、前記指定された分離位置に
対応する一つのスタイルデータの伴奏時間データから求
まる伴奏時間を、前記一つのスタイルデータによる伴奏
の開始位置から前記分離位置までに相当する伴奏時間に
変更して第1の新スタイルデータを生成する生成機能
と、前記分離位置から前記一つのスタイルデータによる
伴奏の終了位置までに相当する伴奏時間を有する第2の
新スタイルデータを生成し、生成した第2の新スタイル
データを前記スタイルシーケンスデータ中の前記分離位
置に挿入する挿入機能とを実現させることを特徴として
いる。According to a fourth aspect of the present invention , the automatic performance device is
For realizing the performance data editing function on the computer
Computer-readable record of the program
It is a medium, and the performance data is style data.
Including style sequence data arranged in sequence order,
Style data is an accompaniment with a specified accompaniment style
Accompaniment time data for obtaining time and the accompaniment style
Including the style number data for specifying the
On the computer, accompaniment time data of each style data
The accompaniment time obtained from
Display function to display as and the edit target by the user
Specify the separation position based on the separation operation for the mark
Separation position specification function for
Obtained from the accompaniment time data of one corresponding style data
The entire accompaniment time, accompaniment by the one style data
The accompaniment time from the start position to the separation position
Generation function to change and generate the first new style data
According to the one style data from the separation position
The second accompaniment time corresponding to the end position of the accompaniment
Second new style created by creating new style data
The data is the separation position in the style sequence data.
The feature is that it realizes the insertion function of inserting into the storage .
【0015】自動演奏装置のコンピュータに演奏データ
の編集機能を実現させるためのプログラムを記録したコ
ンピュータ読み取り可能な記録媒体であって、前記演奏
データは、スタイルデータを時系列順に並べたスタイル
シーケンスデータを含み、前記スタイルデータは、指定
された伴奏スタイルによる伴奏時間を求めるための伴奏
時間データと、前記伴奏スタイルを指定するためのスタ
イルナンバデータとを含み、前記コンピュータに、各ス
タイルデータの伴奏時間データから求まる伴奏時間を所
定形状を有する編集対象マークとして表示する表示機能
と、ユーザによる前記編集対象マークに対する合成操作
に基づいて合成位置を指定するための合成位置指定機能
と、前記指定された合成位置よりも時系列的に前側のス
タイルデータの伴奏時間データから求まる伴奏時間を、
前記前側のスタイルデータの伴奏時間から求まる伴奏時
間と前記合成位置よりも時系列的に後側のスタイルデー
タの伴奏時間データから求まる伴奏時間とを加算した伴
奏時間に変更して新スタイルデータを生成する生成機能
と、前記後側のスタイルデータを削除する削除機能とを
実現させることを特徴としている。 Performance data to the computer of the automatic performance device
A program that records a program to realize the editing function of
A computer-readable recording medium, wherein the performance
The data is a style in which style data is arranged in chronological order.
Includes sequence data, the style data is specified
Accompaniment for finding the accompaniment time by the specified accompaniment style
Time data and a star for specifying the accompaniment style
Il number data, and
The accompaniment time calculated from the accompaniment time data of tile data
Display function to display as an edit target mark having a fixed shape
And a combining operation for the mark to be edited by the user
Position specification function to specify the composition position based on
And the scan on the front side in time series from the specified composite position.
Accompaniment time obtained from the accompaniment time data of tile data,
At the time of accompaniment obtained from the accompaniment time of the style data on the front side
And the style data on the rear side in time series from the above-mentioned composite position
Accompaniment time obtained from the accompaniment time data
Generation function that changes to playing time and generates new style data
And a delete function to delete the style data on the rear side
It is characterized by realizing it .
【0016】[0016]
【0017】[0017]
【0018】[0018]
【0019】[0019]
【0020】[0020]
【0021】[0021]
【0022】[0022]
【発明の実施の形態】次に図面を参照して本発明の好適
な実施形態について説明する。
〔1〕 実施形態のハードウェア構成
図1に演奏データ編集システムの概要構成ブロック図を
示す。演奏データ編集システム10は、演奏データ編集
システム10全体の制御を行うためのコントローラ11
を備えている。BEST MODE FOR CARRYING OUT THE INVENTION Next, preferred embodiments of the present invention will be described with reference to the drawings. [1] Hardware Configuration of Embodiment FIG. 1 shows a schematic configuration block diagram of a performance data editing system. The performance data editing system 10 includes a controller 11 for controlling the performance data editing system 10 as a whole.
Is equipped with.
【0023】キーボードユニット12は、演奏データの
入力あるいはマニュアル演奏による演奏データの入力を
行う際に演奏者によって操作されるとともに、キーボー
ドユニット12の操作状態は、キーボードインターフェ
ース13及びバス14を介してコントローラ11に出力
されることとなる。The keyboard unit 12 is operated by the performer when the performance data is input or the performance data is input by manual performance, and the operation state of the keyboard unit 12 is controlled by the controller via the keyboard interface 13 and the bus 14. 11 will be output.
【0024】マウス15は、演奏データの入力あるいは
各種データの入力を行う際に操作者によって操作される
とともに、マウス15の操作状態は、マウスインタフェ
ース16及びバス14を介してコントローラ11に出力
されることとなる。タイマ17は、コントローラ11に
接続され、コントローラ11に各種タイミング信号を出
力する。The mouse 15 is operated by the operator when inputting performance data or various data, and the operation state of the mouse 15 is output to the controller 11 via the mouse interface 16 and the bus 14. It will be. The timer 17 is connected to the controller 11 and outputs various timing signals to the controller 11.
【0025】ROM(Read Only Memory)18は、デー
タ変換等に用いられる各種データテーブル、音色、発音
時間等に対応するソングデータ、自動伴奏スタイルに関
連するスタイル関連データ等の読出専用データを記憶す
るとともに、バス14を介して、コントローラ11等に
より読出専用データが読み出されることとなる。A ROM (Read Only Memory) 18 stores read-only data such as various data tables used for data conversion and the like, song data corresponding to timbre, pronunciation time, and style-related data related to an automatic accompaniment style. At the same time, the read-only data is read by the controller 11 or the like via the bus 14.
【0026】RAM(Random Access Memory)19は、
音色、発音時間等に対応し、演奏順序に従ったソング
(シーケンス)データ、自動伴奏スタイルを表し、演奏
順序に従ったスタイルデータで構成されたスタイルシー
ケンスデータ等を一時的に記憶するとともに、バス14
を介して、コントローラ11等によりこれらの記憶デー
タが読み出されることとなる。A RAM (Random Access Memory) 19 is
Corresponding to timbre, pronunciation time, etc., it represents song (sequence) data according to the playing order, automatic accompaniment style, and temporarily stores style sequence data composed of style data according to the playing order. 14
These stored data are read by the controller 11 or the like via the.
【0027】外部インターフェース20は、必要に応
じ、外部電子楽器21、ネットワーク等が接続され、M
IDIインターフェース動作、通信インターフェース動
作をコントローラ11の制御下で行い、外部電子楽器2
1に自動演奏を行わせたりすることとなる。The external interface 20 is connected to an external electronic musical instrument 21, a network, etc., if necessary, and the M
The IDI interface operation and the communication interface operation are performed under the control of the controller 11, and the external electronic musical instrument 2
1 will be made to perform an automatic performance.
【0028】この場合において、外部電子楽器21の図
示しない音源回路の方式としては、波形メモリ方式、F
M方式、物理モデル方式、高調波合成方式、フォルマン
ト合成方式、VCO+VCF+VCAのアナログシンセサイザ方
式などのような方式であってもよい。In this case, as the method of the tone generator circuit (not shown) of the external electronic musical instrument 21, the waveform memory method, F
A method such as an M method, a physical model method, a harmonic synthesis method, a formant synthesis method, or a VCO + VCF + VCA analog synthesizer method may be used.
【0029】また、自動演奏データのフォーマットとし
ては、演奏イベントの発生時刻を一つ前のイベントから
の時間で表した「イベント+相対時間」、演奏イベント
の発生時刻や曲や小節内における絶対時間で表した「イ
ベント+絶対時間」、音符の音高と符長(あるいは休符
と休符長)で演奏データを表した音高(休符)+符長)
方式、演奏の最小分割単位ごとにメモリの領域を確保
し、[演奏イベントの発生する時刻に対応するメモリ領
域に演奏イベントを記憶した「ベタ」方式があげられ
る。As the format of the automatic performance data, "event + relative time", which represents the time at which a performance event occurs from the immediately preceding event, the time at which the performance event occurs and the absolute time within a song or bar "Event + Absolute Time", the pitch and note length (or rest and rest length) of the note, representing the performance data (rest and rest length)
A method, a "solid" method, in which a memory area is secured for each minimum division unit of performance, and [a performance event is stored in a memory area corresponding to the time when the performance event occurs, can be mentioned.
【0030】また、自動演奏データは、複数のチャンネ
ルデータが混在した形式であってもよいし、各チャンネ
ルのデータがトラック後に分かれているような形式であ
ってもよい。The automatic performance data may have a format in which a plurality of channel data are mixed, or a format in which the data of each channel is divided after the track.
【0031】外部記憶装置22は、必要に応じハードデ
ィスクドライブ(HDD)、フレキシブルディスクドラ
イブ(FDD)、CD−ROMドライブ、磁気光ディス
ク(MO:Magneto Optical disk)ドライブ等で構成さ
れ、コントローラ11にバス14を介して接続され、ソ
ング(シーケンス)データ、スタイルシーケンスデータ
などをコントローラ11の制御下で記憶するとともに、
これらのデータの読出が行われる。The external storage device 22 is composed of a hard disk drive (HDD), a flexible disk drive (FDD), a CD-ROM drive, a magnetic optical disk (MO: Magneto Optical disk) drive, etc., if necessary, and is connected to the controller 11 via the bus 14. Connected via, to store song (sequence) data, style sequence data, etc. under the control of the controller 11, and
Reading of these data is performed.
【0032】ディスプレイコントローラ23は、コント
ローラ11にバス14を介して接続されるとともに、コ
ントローラ11の制御下で外部のディスプレイ24の表
示制御を行い、ディスプレイ24に編集中の演奏データ
の表示、操作案内の表示などを行う。The display controller 23 is connected to the controller 11 via the bus 14 and controls the display of the external display 24 under the control of the controller 11 to display the performance data being edited on the display 24 and guide the operation. Is displayed.
【0033】[2] 実施形態の演奏データフォーマッ
ト
ここで、演奏データ編集システム10の動作説明に先立
ち、演奏データのデータフォーマットについて説明す
る。図2に演奏データのデータフォーマットを示す。演
奏データは大別すると、ソング(シーケンス)データ
(図2(a)参照)、スタイルシーケンスデータ(図2
(b)参照)及びスタイル指定データ(図2(c)参
照)を備えて構成されている。[2] Performance Data Format of the Embodiment Here, before explaining the operation of the performance data editing system 10, the data format of the performance data will be described. FIG. 2 shows the data format of performance data. Performance data is roughly classified into song (sequence) data (see FIG. 2A) and style sequence data (see FIG. 2).
(See (b)) and style designation data (see FIG. 2 (c)).
【0034】(2.1) ソング(シーケンス)データの
構成
ソング(シーケンス)データは、図2(a)に示すよう
に、当該ソング(シーケンス)データの開始及び、トラ
ック番号を表すトラックナンバデータTN、当該ソング
データの音色を表す音色ナンバデータNNと、実際の発
音を制御するための複数のメッセージデータMDと、ソ
ング(シーケンス)データの終了を表すエンドデータE
Dと、を備えて構成されている。(2.1) Composition of Song (Sequence) Data As shown in FIG. 2A, the song (sequence) data is composed of the start of the song (sequence) data, the track number data TN indicating the track number, and the track number data TN. Tone number data NN indicating the tone color of the song data, a plurality of message data MD for controlling the actual pronunciation, and end data E indicating the end of the song (sequence) data.
And D.
【0035】メッセージデータMDは、発音タイミング
を表すタイミングデータTDと、発音音高を表すキーナ
ンバデータKNOと、発音の強弱を表すベロシティデータ
VDと、発音開始から発音終了までの時間を表すゲート
タイムデータGDと、を備えて構成されている。The message data MD includes timing data TD representing the sound generation timing, key number data KNO representing the sound pitch, velocity data VD representing the strength of sound generation, and gate time representing the time from the start of sound generation to the end of sound generation. And data GD.
【0036】(2.2) スタイルシーケンスデータの構
成
スタイルシーケンスデータは、大別すると、図2(b)
に示すように、指定された伴奏スタイルによる伴奏開始
を表すスタイル開始データSSTと、演奏中の伴奏スタイ
ルによる伴奏終了を表すスタイル終了データSENと、を
備えて構成されている。(2.2) Structure of Style Sequence Data The style sequence data is roughly classified into FIG. 2 (b).
As shown in FIG. 5, style start data SST indicating the start of the accompaniment by the specified accompaniment style and style end data SEN indicating the end of the accompaniment by the accompaniment style being performed are configured.
【0037】スタイル開始データSSTは、伴奏開始タイ
ミングを表すタイミングデータTD1と、伴奏スタイル
を指定するために参照すべき後述のスタイル指定データ
を特定するためのスタイルナンバデータSNと、当該ス
タイル内の演奏に用いるセクションを指定するセクショ
ンデータSCと、を備えて構成されている。The style start data SST includes timing data TD1 indicating the accompaniment start timing, style number data SN for specifying later-described style designation data to be referred to for designating the accompaniment style, and performance within the style. And section data SC that specifies the section used for.
【0038】スタイル終了データSENは、伴奏終了タイ
ミングを表すタイミングデータTD1’と、演奏中の伴
奏スタイルによる伴奏を終了を指示するためスタイルエ
ンドデータSendと、を備えて構成されている。The style end data SEN comprises timing data TD1 'representing the accompaniment end timing, and style end data Send for instructing the end of the accompaniment by the accompaniment style being played.
【0039】(2.3 ) スタイル指定データの構成
スタイル指定データは、大別すると、図2(c)に示す
ように、スタイルナンバデータSNに一対一で対応する
とともに、後述のセクション指定データSIから構成さ
れる複数のスタイルデータST(図中、スタイル1、ス
タイル2、……スタイル10、スタイル11、……で表
している。)と、スタイル指定データの終了を表すエン
ドデータSTENと、を備えて構成されている。(2.3) Structure of Style Designation Data The style designation data is roughly classified into one-to-one correspondence with the style number data SN as shown in FIG. 2C, and is composed of section designation data SI described later. A plurality of style data ST (shown as style 1, style 2, ... Style 10, style 11, ... In the figure) and end data STEN indicating the end of the style designation data. It is configured.
【0040】より具体的にはスタイルデータSTはロッ
ク、ジャズ等の複数伴奏スタイル毎に設けられ、各伴奏
スタイルは、後述する「メインA」、「フィルインA
A」等の複数セクションに対応する伴奏データから構成
される。More specifically, the style data ST is provided for each of a plurality of accompaniment styles such as rock and jazz, and each accompaniment style has a "main A" and a "fill-in A" which will be described later.
It is composed of accompaniment data corresponding to a plurality of sections such as "A".
【0041】(2.4) セクション指定データの構成
セクション指定データSIは、伴奏スタイルを「イント
ロ」スタイルとするためイントロスタイルに対応する伴
奏データ、伴奏スタイルを「メインA」スタイルとする
ためのメインAスタイルに対応する伴奏データ、伴奏ス
タイルを「メインB」スタイルとするためのメインBス
タイルに対応する伴奏データあるいは伴奏スタイルを
「フィルインAA」とするためのフィルインAAスタイ
ルに対応する伴奏データ等の伴奏データPL及び当該セ
クション指定データSIの終了を表すエンドデータSI
ENを備えて構成されている。(2.4) Structure of section designating data The section designating data SI is accompaniment data corresponding to the intro style to set the accompaniment style to the "intro" style, and main A style to set the accompaniment style to the "main A" style. Accompaniment data corresponding to the accompaniment data, accompaniment data corresponding to the main B style for making the accompaniment style "main B" style, or accompaniment data corresponding to the fill-in AA style for making the accompaniment style "fill-in AA" PL and end data SI indicating the end of the section designation data SI
It is configured with EN.
【0042】(2.5) 伴奏データの構成
伴奏データPLは、大別すると、複数セクションの演奏
データに対応するトラックデータTRを備えて構成され
ている。トラックデータTRは、トラック番号を表すト
ラックナンバデータTN2、当該伴奏データPLの音色
を表す音色ナンバデータNN2と、実際の発音を制御す
るための複数のメッセージデータMD2と、当該トラッ
クデータTRの終了を表すエンドデータTRENと、を備
えて構成されている。(2.5) Structure of Accompaniment Data When roughly classified, the accompaniment data PL is composed of track data TR corresponding to performance data of a plurality of sections. The track data TR includes track number data TN2 indicating a track number, tone color number data NN2 indicating a tone color of the accompaniment data PL, a plurality of message data MD2 for controlling actual sounding, and the end of the track data TR. And end data TREN that represents the end data.
【0043】メッセージデータMD2は、発音タイミン
グを表すタイミングデータTD2と、発音音高を表すキ
ーナンバデータKNO2と、発音の強弱を表すベロシティ
データVD2と、発音開始から発音終了までの時間を表
すゲートタイムデータGD2と、を備えて構成されてい
る。The message data MD2 includes timing data TD2 representing tone generation timing, key number data KNO2 representing tone pitch, velocity data VD2 representing tone intensity, and gate time representing time from tone start to tone finish. And data GD2.
【0044】伴奏データPLは、イントロ、メインA、
メインB等の各セクション毎の演奏データより構成さ
れ、該各セクション毎の演奏データはベース、コードリ
ズム等の複数トラックより構成されている。Accompaniment data PL includes intro, main A,
It is composed of performance data for each section such as the main B, and the performance data for each section is composed of a plurality of tracks such as bass and chord rhythm.
【0045】〔3〕 第1実施形態の動作
(3.1) 動作説明
次に図3ないし図15を参照して第1実施形態の動作を
説明する。図3に実施形態のメイン処理フローチャート
を示す。電源が投入されると、コントローラ11により
各種データの設定、RAM19上におけるメモリ領域の
確保などの初期化処理が行われる(ステップS1)。[3] Operation of First Embodiment (3.1) Description of Operation Next, the operation of the first embodiment will be described with reference to FIGS. 3 to 15. FIG. 3 shows a main processing flowchart of the embodiment. When the power is turned on, the controller 11 performs initialization processing such as setting various data and securing a memory area on the RAM 19 (step S1).
【0046】つぎにコントローラ11は、キーボードユ
ニット12、キーボードインターフェース13及びバス
14を介して、あるいは、マウス15、マウスインター
フェース16及びバス14を介して、スタイルシーケン
スデータの作成指定がなされたか否かを判別する(ステ
ップS2)。Next, the controller 11 determines whether or not style sequence data creation has been designated via the keyboard unit 12, the keyboard interface 13 and the bus 14, or via the mouse 15, the mouse interface 16 and the bus 14. It is determined (step S2).
【0047】具体的には、当該作成指定は、図6の上部
に示したように、ボタン内の「えんぴつ」マークボタン
をマウス15でクリックすることによりなされる。ステ
ップS2の判別において、スタイルシーケンスデータの
作成指定がなされていない場合には(ステップS2;N
o)、処理をステップS4に移行する。Specifically, the creation designation is made by clicking the "pencil" mark button in the button with the mouse 15, as shown in the upper part of FIG. If it is determined in step S2 that the creation of style sequence data is not specified (step S2; N
o), the process proceeds to step S4.
【0048】ステップS2の判別において、スタイルシ
ーケンスデータの作成指定がなされた場合には(ステッ
プS2;Yes)、キーボードユニット12、キーボー
ドインターフェース13及びバス14を介して、あるい
は、マウス15、マウスインターフェース16及びバス
14を介して指定されたソング(シーケンス)データに
対応して、ディスプレイ24の画面上に、図4に示すよ
うに、処理ウィンドウ30がオープンされ、処理をスタ
イルシーケンスデータの生成処理ルーチンに移行する
(ステップS3)。When the creation of style sequence data is designated in the determination in step S2 (step S2; Yes), the keyboard unit 12, the keyboard interface 13 and the bus 14 are used, or the mouse 15 and the mouse interface 16 are used. In response to the song (sequence) data specified via the bus 14 and the bus 14, a processing window 30 is opened on the screen of the display 24 as shown in FIG. 4, and the processing is changed to a style sequence data generation processing routine. The process moves (step S3).
【0049】(3.1.1) 処理ウィンドウ
ここで、スタイルシーケンスデータの生成処理ルーチン
の動作説明に先立ち、処理ウィンドウ30について詳細
に説明する。処理ウィンドウ30は、トラック番号を表
示するトラック番号表示領域31と、スタイルシーケン
スデータ作成対象のソング(シーケンス)データに含ま
れるトラック及び当該トラックを構成する一または複数
のブロック並びに各ブロックのブロック番号を表示する
生成対象特定表示領域32と、生成対象特定表示領域3
2に表示されているブロックのコード進行を表示するコ
ード進行データ表示領域33と、生成対象特定表示領域
32に表示されているブロックに対応させて作成される
シーケンスデータをブロック形状(=編集対象マークに
相当)で表示するスタイル情報表示領域34と、を備え
て構成されている。(3.1.1) Processing Window Here, the processing window 30 will be described in detail prior to the description of the operation of the style sequence data generation processing routine. The processing window 30 displays a track number display area 31 for displaying track numbers, a track included in song (sequence) data for which style sequence data is to be created, one or a plurality of blocks constituting the track, and a block number of each block. Generation target specific display area 32 and generation target specific display area 3
The chord progression data display area 33 for displaying the chord progression of the block displayed in No. 2 and the sequence data created corresponding to the block displayed in the generation target specific display area 32 have the block shape (= edit target mark). Corresponding to the style information display area 34).
【0050】なお、スタイル情報表示領域34における
表示の形状はブロック形状に限るものではなく、当該ス
タイル情報についての演奏時間に対応する情報を視覚的
にユーザが把握できる形状であればかまわない。The display shape in the style information display area 34 is not limited to the block shape, and may be any shape as long as the user can visually recognize the information corresponding to the playing time of the style information.
【0051】(3.1.2) スタイルシーケンスデータの
生成処理ルーチン
図5にスタイルシーケンスデータの生成処理ルーチンを
示す。コントローラ11は、作成するスタイルシーケン
スデータにおける発音時間の長さの指定処理に移行し、
ユーザに発音時間の長さを指定させる(ステップS2
1)。例えば、図6に示すように、操作者は、キーボー
ドユニット12あるいはマウス15を介して、ディスプ
レイ24の画面上で発音時間長指定カーソル40の始端
40S及び終端40Eを指定することにより発音時間長
指定カーソル40の水平方向の長さLに対応する発音時
間長を指定することとなる。(3.1.2) Style Sequence Data Generation Processing Routine FIG. 5 shows a style sequence data generation processing routine. The controller 11 shifts to the process of designating the length of the pronunciation time in the created style sequence data,
Let the user specify the length of pronunciation time (step S2)
1). For example, as shown in FIG. 6, the operator specifies the sounding time length by designating the start end 40S and the end 40E of the sounding time length specifying cursor 40 on the screen of the display 24 via the keyboard unit 12 or the mouse 15. The sound generation time length corresponding to the horizontal length L of the cursor 40 is designated.
【0052】より具体的には、マウス15を介して発音
時間長を指定する婆い、発音を開始したい位置でマウス
15をクリック(例えば、2ボタン式マウスの場合、左
ボタンを1回押し下げる)し、そのままの状態(ドラッ
グ)で発音終了位置までマウス15のカーソルを移動さ
せ、クリックを解除することにより行う。More specifically, the mouse 15 is used to specify the pronunciation time length via the mouse 15, and the mouse 15 is clicked at the position where the pronunciation is desired to start (for example, in the case of a two-button mouse, the left button is pressed once). Then, in this state (drag), the cursor of the mouse 15 is moved to the sound generation end position and the click is released.
【0053】次にコントローラ11は、作成するスタイ
ルシーケンスデータのスタイルを選択するためのスタイ
ル選択処理ウィンドウを表示するスタイル選択画面表示
処理に移行する(ステップS22)。Next, the controller 11 shifts to the style selection screen display processing for displaying the style selection processing window for selecting the style of the style sequence data to be created (step S22).
【0054】より具体的には、図7に示すスタイル選択
処理ウィンドウ45を表示する。スタイル選択処理ウィ
ンドウ45は、スタイル指定データに対応するデータフ
ァイル名を表示するファイル表示領域46と、ファイル
表示領域46で操作者が指定したデータファイル名を有
するスタイル指定データを構成するセクション指定デー
タSIを表示するセクション表示領域47と、を備えて
構成されている。More specifically, the style selection processing window 45 shown in FIG. 7 is displayed. The style selection processing window 45 includes a file display area 46 for displaying a data file name corresponding to the style designation data, and section designation data SI forming style designation data having a data file name designated by the operator in the file display area 46. And a section display area 47 for displaying.
【0055】また、スタイル選択処理ウィンドウ45
は、ファイル表示領域46で操作者が指定したデータフ
ァイル名を有するスタイル指定データのスタイル名を表
示するスタイル名表示領域48と、指定されたセクショ
ン指定データSIに設定されている拍子を表示する拍子
表示領域49と、を備えて構成されている。In addition, the style selection processing window 45
Is a style name display area 48 for displaying the style name of the style designation data having the data file name designated by the operator in the file display area 46, and a time signature for displaying the time signature set in the designated section designation data SI. And a display area 49.
【0056】さらにスタイル選択処理ウィンドウ45
は、スタイル指定されたセクション指定データSIに設
定されているスタイルテンポを表示するスタイルテンポ
表示領域50と、スタイルテンポ表示領域50で設定さ
れているスタイルテンポを有効(ON)にするか否(OF
F)かを対応するためのラジオスイッチが設けられたス
タイルテンポスイッチ指定領域51と、当該セクション
指定データSIの発音開始タイミングを小節数、拍数等
で表示する開始位置表示領域52と、当該セクション指
定データSIの発音終了タイミングを小節数、拍数等で
表示する終了位置表示領域53と、を備えて構成されて
いる。Further, the style selection processing window 45
Indicates whether to enable (ON) the style tempo display area 50 for displaying the style tempo set in the style specification section designation data SI and the style tempo set in the style tempo display area 50 (OF
F) or a style tempo switch designation area 51 provided with a radio switch, a start position display area 52 for displaying the sounding start timing of the section designation data SI in terms of the number of measures, the number of beats, etc. An end position display area 53 for displaying the sounding end timing of the designated data SI by the number of measures, the number of beats, and the like.
【0057】さらにまた、スタイル選択処理ウィンドウ
45は、現在設定されているセクション指定データSI
に対応する伴奏を視聴するための試聴ボタン54と、現
在のスタイル選択処理ウィンドウ45で表示されている
内容で、スタイルシーケンスデータのスタイルを選択し
てスタイルシーケンスデータを作成するための指示を与
える作成ボタン55と、スタイル選択処理ウィンドウを
閉じ、スタイル選択処理を終了するための終了ボタン5
6と、を備えて構成されている。Furthermore, the style selection processing window 45 displays the section designation data SI currently set.
A preview button 54 for viewing the accompaniment corresponding to, and a creation for giving an instruction for creating a style sequence data by selecting the style of the style sequence data with the content displayed in the current style selection processing window 45 Button 55 and end button 5 for closing the style selection processing window and ending the style selection processing
6 is provided.
【0058】次にコントローラ11は、操作者によりス
タイル選択処理ウィンドウ45において、所望のスタイ
ル名(データファイル名)及びセクション指定データS
Iが選択されると(ステップS23)、スタイルシーケ
ンス作成を実行すべきか否かを判別する(ステップS2
4)。すなわち、作成ボタン55によりスタイルシーケ
ンスデータを作成する旨の指示が与えられたか否かを判
別する。Next, the controller 11 causes the operator to select a desired style name (data file name) and section designation data S in the style selection processing window 45.
When I is selected (step S23), it is determined whether or not style sequence creation should be executed (step S2).
4). That is, it is determined whether or not an instruction to create style sequence data is given by the create button 55.
【0059】ステップS24の判別において、スタイル
シーケンスデータを作成する旨の指示が与えられなかっ
た場合には(ステップS24;No)、処理をステップ
S4(図3参照)に移行する。If it is determined in step S24 that no instruction to create style sequence data is given (step S24; No), the process proceeds to step S4 (see FIG. 3).
【0060】ステップS24の判別において、スタイル
シーケンスデータを作成する旨の指示が与えられた場合
には(ステップS24;Yes)、操作者によりスタイ
ル選択処理ウィンドウ45において、選択されたスタイ
ル名(データファイル名)、セクション指定データS
I、発音開始タイミング、発音終了タイミングに基づ
き、図2(b)に示すように、スタイル開始データSST
及びスタイル終了データSENを現在生成対象特定表示領
域32に選択され、表示されているソング(シーケン
ス)データの対応する位置に挿入する(ステップS2
5)。In the determination in step S24, when an instruction to create style sequence data is given (step S24; Yes), the style name selected in the style selection processing window 45 by the operator (data file Name), section designation data S
Based on I, sound generation start timing, and sound generation end timing, as shown in FIG. 2B, style start data SST
And the style end data SEN are selected in the current generation target specific display area 32 and inserted into the corresponding position of the displayed song (sequence) data (step S2).
5).
【0061】そして、コントローラ11は、作成された
スタイルシーケンスデータを、図8に示すように、スタ
イル情報表示領域34にセクション名(図8では、「Ma
in B」)とともに、ブロック表示し(ステップS2
6)、処理をステップS4に移行する。Then, the controller 11 stores the created style sequence data in the style information display area 34 as shown in FIG.
in B ”) and block display (step S2)
6), the process proceeds to step S4.
【0062】(3.1.3) 切離処理
つぎにコントローラ11は、キーボードユニット12、
キーボードインターフェース13及びバス14を介し
て、あるいは、マウス15、マウスインターフェース1
6及びバス14を介して、スタイルシーケンスデータの
切離処理指定がなされたか否かを判別する(ステップS
4)。(3.1.3) Detachment Processing Next, the controller 11 includes the keyboard unit 12,
Via the keyboard interface 13 and the bus 14, or the mouse 15 and the mouse interface 1
It is determined whether or not style sequence data separation processing has been designated via 6 and the bus 14 (step S).
4).
【0063】具体的には、当該切離処理指定は、図11
の上部に示したボタン内の「はさみマークボタンをマウ
ス15を用いてクリックすることによりなされる。ステ
ップS4の判別において、スタイルシーケンスデータの
切離処理指定がなされていない場合には(ステップS
4;No)、処理をステップS6に移行する。Specifically, the separation processing designation is as shown in FIG.
This is done by clicking the "scissor mark button" in the buttons shown at the top of the mouse with the mouse 15. In the determination of step S4, if the separation processing of style sequence data is not designated (step S
4; No), and moves the process to step S6.
【0064】ステップS4の判別において、スタイルシ
ーケンスデータの切離処理指定がなされた場合には(ス
テップS4;Yes)、処理をスタイルシーケンスデー
タの切離処理ルーチンに移行する(ステップS5)。In the determination in step S4, if the style sequence data separation processing is designated (step S4; Yes), the process proceeds to the style sequence data separation processing routine (step S5).
【0065】(3.1.3.1) 切離処理ルーチン
図9にスタイルシーケンスデータの切離処理ルーチンを
示す。コントローラ11は、切離位置指定処理に移行
し、操作者にスタイルシーケンスデータの切り離し位置
を指定させる(ステップS31)。(3.1.3.1) Separation Processing Routine FIG. 9 shows a separation processing routine for style sequence data. The controller 11 shifts to the cut-off position designation processing and causes the operator to specify the cut-off position of the style sequence data (step S31).
【0066】より具体的には、図8に示すように、操作
者は、キーボードユニット12あるいはマウス15を介
して、ディスプレイ24の画面上で切離位置SPを指定
することとなる。More specifically, as shown in FIG. 8, the operator designates the separation position SP on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0067】次にコントローラ11は、切離位置SPに
対応するスタイルシーケンスデータの切離処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する(ステップ
S32)。ステップS32の判別において、切離処理の
実行の指示が与えられなかった場合には(ステップS3
2;No)、処理をステップS6(図3参照)に移行す
るNext, the controller 11 determines whether or not an instruction to execute the cutting process of the style sequence data corresponding to the cutting position SP has been given by the operator via the keyboard unit 12 or the mouse 15 (step). S32). In the determination in step S32, if the instruction to execute the disconnection process is not given (step S3
2; No), the process moves to step S6 (see FIG. 3).
【0068】ステップS32の判別において、切離処理
の実行の指示が与えられた場合には(ステップS32;
Yes)、図10に示すように、切離位置SPに対応す
るタイミングデータ及び切離したスタイルシーケンスデ
ータの前半部分の終了を示すスタイルエンドデータ並び
に当該後半部分のスタイルシーケンスデータの先頭発音
スタイル及びセクションを表す当該前半部分のスタイル
データと同一のスタイルナンバデータSN及び同一のセ
クションデータSCを指定された切離位置に挿入する
(ステップS33)。In the determination in step S32, if an instruction to execute the separation process is given (step S32;
Yes), as shown in FIG. 10, the timing data corresponding to the separation position SP, the style end data indicating the end of the first half of the separated style sequence data, and the leading pronunciation style and section of the latter half of the style sequence data are displayed. The same style number data SN and the same section data SC as the style data of the first half portion to be expressed are inserted at the specified cutoff position (step S33).
【0069】そして、コントローラ11は、切離された
二つのスタイルデータを、図11に示すように、スタイ
ル情報表示領域34にセクション名(図11では、双方
とも「Main B」)とともに、新たな編集対象マークとし
てブロック表示し(ステップS34)、処理をステップ
S6に移行する。Then, the controller 11 adds the two separated style data to the style information display area 34 with a new section name (both "Main B" in FIG. 11) in the style information display area 34, as shown in FIG. Blocks are displayed as edit target marks (step S34), and the process proceeds to step S6.
【0070】(3.1.4) 合成処理
つぎにコントローラ11は、キーボードユニット12、
キーボードインターフェース13及びバス14を介し
て、あるいは、マウス15、マウスインターフェース1
6及びバス14を介して、スタイルシーケンスデータの
合成処理指定がなされたか否かを判別する(ステップS
6)。(3.1.4) Compositing Process Next, the controller 11 includes the keyboard unit 12,
Via the keyboard interface 13 and the bus 14, or the mouse 15 and the mouse interface 1
6 and the bus 14 are used to determine whether or not style sequence data synthesis processing is designated (step S).
6).
【0071】具体的には、合成処理指定は、図15の上
部に示したように、ボタン内の「ボンド(接着剤)」マ
ークボタンをマウスを用いてクリックすることによりな
される。Specifically, as shown in the upper part of FIG. 15, the synthesis processing designation is made by clicking the "bond (adhesive)" mark button in the button with the mouse.
【0072】ステップS6の判別において、スタイルシ
ーケンスデータの合成処理指定がなされていない場合に
は(ステップS6;No)、処理をステップS8に移行
する。ステップS6の判別において、スタイルシーケン
スデータの合成処理指定がなされた場合には(ステップ
S6;Yes)、処理をスタイルシーケンスデータの合
成処理ルーチンに移行する(ステップS7)。If it is determined in step S6 that the synthesis processing of style sequence data has not been designated (step S6; No), the process proceeds to step S8. In the determination in step S6, when the synthesis processing of style sequence data is designated (step S6; Yes), the processing shifts to the synthesis processing routine of style sequence data (step S7).
【0073】(3.1.4.1) 合成処理ルーチン
図12にスタイルシーケンスデータの合成処理ルーチン
を示す。コントローラ11は、合成位置指定処理に移行
し、操作者にスタイルシーケンスデータの合成位置を指
定させる(ステップS41)。(3.1.4.1) Composition Processing Routine FIG. 12 shows a composition processing routine of style sequence data. The controller 11 shifts to the synthesis position designation processing, and causes the operator to designate the synthesis position of the style sequence data (step S41).
【0074】より具体的には、図14に示すように、操
作者は、キーボードユニット12あるいはマウス15を
介して、ディスプレイ24の画面上で合成位置SYを指
定することとなる。More specifically, as shown in FIG. 14, the operator designates the combining position SY on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0075】次にコントローラ11は、合成位置SYに
対応するスタイルシーケンスデータの合成処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する(ステップ
S42)。Next, the controller 11 determines whether or not an instruction to execute the combination processing of the style sequence data corresponding to the combination position SY is given by the operator via the keyboard unit 12 or the mouse 15 (step S42). .
【0076】ステップS42の判別において、合成処理
の実行の指示が与えられなかった場合には(ステップS
42;No)、処理をステップS8(図3参照)に移行
するステップS42の判別において、合成処理の実行の
指示が与えられた場合には(ステップS42;Ye
s)、図13に示すように、合成が指示された位置より
前側のスタイルデータの終了タイミングを表すスタイル
終了データSEN(=タイミングデータTD2P及びスタイ
ルエンドデータSendP)、後側のスタイルデータのスタ
イルナンバデータSNP及びセクションデータSCPを削
除する(ステップS43)。If it is determined in step S42 that the instruction to execute the combining process is not given (step S42).
42; No), and when the instruction to execute the combining process is given in the determination in step S42 that shifts the process to step S8 (see FIG. 3) (step S42; Ye
s), as shown in FIG. 13, style end data SEN (= timing data TD2P and style end data SendP) indicating the end timing of the style data on the front side of the position where synthesis is instructed, and the style number of the style data on the rear side. The data SNP and the section data SCP are deleted (step S43).
【0077】そして、コントローラ11は、合成するこ
とにより得られたスタイルシーケンスデータを、図15
に示すように、スタイル情報表示領域34にセクション
名(図15では、「Main B」)とともに、新たな編集対
象マークとしてブロック表示し(ステップS44)、処
理をステップS8に移行する。Then, the controller 11 uses the style sequence data obtained by the synthesis as shown in FIG.
As shown in, the section name (“Main B” in FIG. 15) is displayed in a block as a new edit target mark in the style information display area 34 (step S44), and the process proceeds to step S8.
【0078】続いて、自動演奏の再生開始及び終了等の
図示しない指示に従い、ソングデータ及び作成されたス
タイルシーケンスデータに基づく自動演奏の発音処理を
行う(ステップS8)。この自動演奏の発音処理は、従
来より公知であるMIDIデータに基づく楽音発音であ
り、ここでは、その詳細な説明は省略する。Then, in accordance with instructions (not shown) such as start and end of reproduction of the automatic performance, sound generation processing of the automatic performance is performed based on the song data and the created style sequence data (step S8). This automatic performance sound generation processing is music sound generation based on conventionally known MIDI data, and a detailed description thereof will be omitted here.
【0079】次に、図4に示すように、画面表示された
スタイルシーケンスデータの所望ブロックのスタイルや
セクションの変更を行う(ステップS9)。具体的に
は、画面上の所望スタイルシーケンスデータ中のブロッ
クにマウス15を操作してカーソルを移動させる。Next, as shown in FIG. 4, the style and section of the desired block of the style sequence data displayed on the screen are changed (step S9). Specifically, the mouse 15 is operated to move the cursor to a block in the desired style sequence data on the screen.
【0080】その後、マウス15の図示しないボタンを
クリックすると、図14に示したスタイル及びセクショ
ン名を列挙したリストボックスが表示される。そして表
示されたリストボックス内の所望セクション名をマウス
15を用いて選択することにより、当該ブロックに設定
されているセクションが選択されたセクションに変更さ
れる。After that, when a button (not shown) of the mouse 15 is clicked, a list box listing the styles and section names shown in FIG. 14 is displayed. Then, by selecting the desired section name in the displayed list box with the mouse 15, the section set in the block is changed to the selected section.
【0081】スタイルの変更についても同様であり、図
中、リスト内の「スタイルの選択」をマウス15を用い
て選択すると、スタイルを列挙したリストを表すダイア
ログボックスが画面上に表示される。そして、ユーザ
は、表示されたリスト内から所望の変更後のスタイル名
をマウス15を用いて選択することとなる。The same applies to changing the style. In the figure, when "select style" in the list is selected using the mouse 15, a dialog box showing a list of styles is displayed on the screen. Then, the user uses the mouse 15 to select the desired changed style name from the displayed list.
【0082】以上の処理によりスタイルシーケンスデー
タの各ブロックsのスタイル及びセクションの設定変更
が可能となる。続いてソングデータの選択等のその他の
処理を行い(ステップS10)、電源を断状態にするよ
う指示されたか否かを判別する(ステップS11)。With the above processing, it is possible to change the setting of the style and section of each block s of the style sequence data. Subsequently, other processing such as selection of song data is performed (step S10), and it is determined whether or not an instruction to turn off the power is given (step S11).
【0083】ステップS11の判別において、電源を断
状態にすべく指示がなされていない場合には(ステップ
S11;No)、処理をステップS2に移行し、ステッ
プS2からステップS11の処理を同様に繰り返すこと
となる。ステップS11の判別において、電源を断状態
にすべく指示がなされた場合には(ステップS11;Y
es)、電源を断状態として、処理を終了する。In the determination in step S11, if the instruction to turn off the power is not issued (step S11; No), the process proceeds to step S2, and the processes from step S2 to step S11 are similarly repeated. It will be. In the determination in step S11, if an instruction is issued to turn off the power (step S11; Y
es), the power is turned off, and the process ends.
【0084】以上の説明のように、本第1実施形態によ
れば、スタイルデータの切離、合成後に作成されるスタ
イルシーケンスデータにおいて、伴奏が演奏されない区
間が発生するなどの不都合が生じず、簡単な操作で所望
のスタイルシーケンスデータを正確に作成することがで
きる。As described above, according to the first embodiment, inconveniences such as the occurrence of a section in which the accompaniment is not played occur in the style sequence data created after the style data is separated and synthesized, The desired style sequence data can be accurately created by a simple operation.
【0085】また、スタイルシーケンスデータをスタイ
ル情報表示領域にセクション名とともに、編集対象マー
クとしてブロック表示しているので、マウス等の入出力
装置を用いて、切り離し及び合成等の編集処理が視覚的
に行え、編集操作を容易とできる。Further, since the style sequence data is displayed in the style information display area along with the section name as a block to be edited as a block, the input / output device such as a mouse is used to visually perform the edit processing such as separation and composition. This can be done and the editing operation can be facilitated.
【0086】さらにソングデータの表示と同時に、スタ
イルシーケンスデータをディスプレイ24の表示画面に
表示することにより、ユーザはソングデータとスタイル
シーケンスデータとを関連づけてみることができ、ソン
グデータに照らし合わせながら、スタイルシーケンスデ
ータの流れを読みとることが可能となり、より高度な編
集作業を行える。Further, by displaying the style sequence data on the display screen of the display 24 simultaneously with the display of the song data, the user can try to associate the song data with the style sequence data. It is possible to read the flow of style sequence data and perform more advanced editing work.
【0087】[4]第2実施形態
上記第1実施形態においては、伴奏スタイルの開始タイ
ミング及び終了タイミングをスタイル開始データSSTに
おけるタイミングデータTD1及びスタイル終了データ
SEN(=タイミングデータTD1’及びスタイルエンド
データSend)により規定していたが、本第2実施形態
は、これらに代えて、伴奏スタイルの開始タイミングか
ら終了タイミングまでの発音時間長を表す発音時間長デ
ータDLENをスタイルシーケンスデータに含ませる場合
の実施形態である。[4] Second Embodiment In the first embodiment, the start timing and end timing of the accompaniment style are set to the timing data TD1 and style end data SEN (= timing data TD1 'and style end data) in the style start data SST. However, in the second embodiment, in the case where the style sequence data includes the sounding time length data DLEN indicating the sounding time length from the start timing to the end timing of the accompaniment style, instead of the above. It is an embodiment.
【0088】(4.1) 第2実施形態のスタイルシーケ
ンスデータの構成
図16に第2実施形態のスタイルシーケンスデータのフ
ォーマットの一例を示す。図16において、図3の第1
実施形態と同様の部分には同一の符号を付す。スタイル
シーケンスデータは、複数のスタイルボックスデータS
B及びスタイルシーケンスデータの終了を表わすエンド
データSENを備えて構成されている。(4.1) Structure of Style Sequence Data of Second Embodiment FIG. 16 shows an example of the format of style sequence data of the second embodiment. 16, the first of FIG.
The same parts as those in the embodiment are designated by the same reference numerals. The style sequence data is a plurality of style box data S.
B and end data SEN indicating the end of the style sequence data.
【0089】スタイルボックスデータSBは、スタイル
発音の開始タイミングを表すタイミングデータTD1
と、後述のスタイルナンバデータにより指定された伴奏
スタイルによる演奏の開始タイミング(=タイミングデ
ータTD1のタイミングに相当)から演奏の終了タイミ
ングまでの発音時間長を表す発音時間長データSLEN
と、伴奏スタイルを指定するために参照すべき後述のス
タイル指定データを特定するためのスタイルナンバデー
タSNと、当該スタイル内の演奏に用いるセクションを
指定するセクションデータSCと、を備えて構成されて
いる。The style box data SB is the timing data TD1 representing the start timing of style sounding.
And sounding time length data SLEN representing the sounding time length from the start timing (= corresponding to the timing of the timing data TD1) of the performance by the accompaniment style specified by the style number data described later to the end timing of the performance.
And style number data SN for specifying later-described style designation data to be referred to for designating an accompaniment style, and section data SC for designating a section used for performance in the style. There is.
【0090】次にスタイルシーケンスデータの切離処理
指定がなされた場合の処理及びスタイルシーケンスデー
タの合成処理指定がなされた場合の処理について図1、
図3、図17及び図18を参照して説明する。Next, the processing when the separation processing of style sequence data is designated and the processing when the synthesis processing of style sequence data is designated are shown in FIG.
This will be described with reference to FIGS. 3, 17 and 18.
【0091】(4.2) 第2実施形態の切離処理
まず、コントローラ11は、キーボードユニット12、
キーボードインターフェース13及びバス14を介し
て、あるいは、マウス15、マウスインターフェース1
6及びバス14を介して、スタイルシーケンスデータの
切離処理指定がなされたか否かを判別する(ステップS
4)。(4.2) Separation Processing of Second Embodiment First, the controller 11 includes the keyboard unit 12,
Via the keyboard interface 13 and the bus 14, or the mouse 15 and the mouse interface 1
It is determined whether or not style sequence data separation processing has been designated via 6 and the bus 14 (step S).
4).
【0092】ステップS4の判別において、スタイルシ
ーケンスデータの切離処理指定がなされていない場合に
は(ステップS4;No)、処理をステップS6に移行
する。ステップS4の判別において、スタイルシーケン
スデータの切離処理指定がなされた場合には(ステップ
S4;Yes)、処理をスタイルシーケンスデータの切
離処理ルーチンに移行する(ステップS5)。If it is determined in step S4 that the style sequence data separation process has not been designated (step S4; No), the process proceeds to step S6. In the determination in step S4, when the style sequence data separation process is designated (step S4; Yes), the process proceeds to the style sequence data separation process routine (step S5).
【0093】切離処理ルーチンにおいては、コントロー
ラ11は、切離位置指定処理に移行し、操作者にスタイ
ルシーケンスデータの切り離し位置を指定させる。より
具体的には、図8に示したように、操作者は、キーボー
ドユニット12あるいはマウス15を介して、ディスプ
レイ24の画面上で切離位置SPを指定することとな
る。In the separation processing routine, the controller 11 shifts to the separation position designation processing, and causes the operator to designate the separation position of the style sequence data. More specifically, as shown in FIG. 8, the operator will specify the separation position SP on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0094】次にコントローラ11は、切離位置SPに
対応するスタイルシーケンスデータの切離処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する。上述した
切離処理の実行の指示が与えられたか否かの判別におい
て、切離処理の実行の指示が与えられなかった場合に
は、処理を合成処理を行うか否かの判別処理に移行するNext, the controller 11 determines whether or not an instruction to execute the cutting process of the style sequence data corresponding to the cutting position SP is given by the operator via the keyboard unit 12 or the mouse 15. In the above-described determination of whether or not the instruction to execute the separation process has been given, when the instruction to execute the separation process has not been given, the process proceeds to the process of determining whether or not to perform the combining process.
【0095】切離処理の実行の指示が与えられたか否か
の判別において、切離処理の実行の指示が与えられた場
合には、図17に示すように、新たなスタイルボックス
データSBNを挿入すべき位置より前に存在するスタイ
ルボックスデータSBであって、もっとも時系列的に最
後に位置するスタイルボックスデータSB1の発音時間
長データSLEN1を当該スタイルボックスデータSB1を
構成するタイミングデータTD11及び新たなスタイルボ
ックスデータSBNを構成するタイミングデータTD1N
に基づいて算出し、変更する。When it is determined whether or not an instruction to execute the detaching process is given, if an instruction to execute the detaching process is given, new style box data SBN is inserted as shown in FIG. The style box data SB existing before the position to be set, and the sounding time length data SLEN1 of the style box data SB1 located at the end in the most time series are used as the timing data TD11 and the new timing data TD11 constituting the style box data SB1. Timing data TD1N composing style box data SBN
Calculate and change based on.
【0096】そして、新たなスタイルボックスデータS
BNを構成するタイミングデータTD1N及び新たなスタ
イルボックスデータSBNを挿入すべき位置より後ろに
存在するスタイルボックスデータSBであって、もっと
も時系列的に最初に位置するスタイルボックスデータS
B2を構成するタイミングデータTD12に基づいて、新
たなスタイルボックスデータSBNの発音時間長データ
SLENNを算出する。Then, the new style box data S
The style box data SB existing after the position where the timing data TD1N forming the BN and the new style box data SBN should be inserted, and the style box data S located first in time series
Based on the timing data TD12 forming B2, the tone generation time length data SLENN of the new style box data SBN is calculated.
【0097】さらに新たなスタイルボックスデータSB
Nを構成するスタイルナンバデータとしてスタイルボッ
クスデータSB1のスタイルナンバデータSN1を用い、
新たなスタイルボックスデータSBNを構成するセクシ
ョンデータとしてスタイルボックスデータSB1のセク
ションデータSC1を用いることにより新たなスタイル
ボックスデータSBNを生成する。Further new style box data SB
The style number data SN1 of the style box data SB1 is used as the style number data forming N,
The new style box data SBN is generated by using the section data SC1 of the style box data SB1 as the section data forming the new style box data SBN.
【0098】そして、スタイルボックスデータSB1と
スタイルボックスデータSB2の間に新たなスタイルボ
ックスデータSBNを挿入する。次に、コントローラ1
1は、切離された二つのスタイルデータを、図11に示
したように、スタイル情報表示領域34にセクション名
とともに、新たな編集対象マークとしてブロック表示
し、処理をステップS6に移行する。Then, new style box data SBN is inserted between the style box data SB1 and the style box data SB2. Next, controller 1
11, the two separated style data are displayed in a block as a new edit target mark together with the section name in the style information display area 34 as shown in FIG. 11, and the process proceeds to step S6.
【0099】(4.3) 第2実施形態の合成処理
まず、コントローラ11は、キーボードユニット12、
キーボードインターフェース13及びバス14を介し
て、あるいは、マウス15、マウスインターフェース1
6及びバス14を介して、スタイルシーケンスデータの
合成処理指定がなされたか否かを判別する(ステップS
6)。(4.3) Compositing Process of Second Embodiment First, the controller 11 includes the keyboard unit 12,
Via the keyboard interface 13 and the bus 14, or the mouse 15 and the mouse interface 1
6 and the bus 14 are used to determine whether or not style sequence data synthesis processing is designated (step S).
6).
【0100】ステップS6の判別において、スタイルシ
ーケンスデータの合成処理指定がなされていない場合に
は(ステップS6;No)、処理をステップS8に移行
する。ステップS6の判別において、スタイルシーケン
スデータの合成処理指定がなされた場合には(ステップ
S6;Yes)、処理をスタイルシーケンスデータの合
成処理ルーチンに移行する(ステップS5)。When it is determined in step S6 that the synthesis processing of style sequence data is not designated (step S6; No), the process proceeds to step S8. If it is determined in step S6 that the synthesis processing of style sequence data has been designated (step S6; Yes), the processing proceeds to the synthesis processing routine of style sequence data (step S5).
【0101】合成処理ルーチンにおいては、コントロー
ラ11は、合成位置指定処理に移行し、操作者にスタイ
ルシーケンスデータの合成位置を指定させる。より具体
的には、図14に示したように、操作者は、キーボード
ユニット12あるいはマウス15を介して、ディスプレ
イ24の画面上で合成位置SYを指定することとなる。In the synthesizing routine, the controller 11 shifts to the synthesizing position designating process, and prompts the operator to designate the synthesizing position of the style sequence data. More specifically, as shown in FIG. 14, the operator designates the composite position SY on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0102】次にコントローラ11は、合成位置SYに
対応するスタイルシーケンスデータの合成処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する。合成処理
の実行の指示が与えられたか否かの判別において、合成
処理の実行の指示が与えられなかった場合には、処理を
ステップS8(図3参照)に移行するNext, the controller 11 determines whether or not an instruction to execute the synthesis processing of the style sequence data corresponding to the synthesis position SY has been given by the operator via the keyboard unit 12 or the mouse 15. When it is determined whether or not the instruction to execute the synthesizing process is given, if the instruction to execute the synthesizing process is not given, the process proceeds to step S8 (see FIG. 3).
【0103】合成処理の実行の指示が与えられたか否か
の判別において、合成処理の実行の指示が与えられた場
合には、図18に示すように、合成が指示された二つの
スタイルボックスデータのうち、前側のスタイルボック
スデータSB11の発音時間長データSLEN11を、元の発
音時間長データSLEN11に対応する発音時間長に削除す
べき後側のスタイルボックスデータSBDの発音時間長
データSLENDに対応する発音時間長を加算した発音時間
長に対応するものに変更する。In the determination of whether or not the instruction to execute the synthesizing process has been given, when the instruction to execute the synthesizing process is given, as shown in FIG. Of the above, the tone duration data SLEN11 of the front style box data SB11 corresponds to the tone duration data SLEND of the rear style box data SBD that should be deleted to the tone duration corresponding to the original tone duration data SLEN11. Change to the one that corresponds to the pronunciation time length with the addition of the pronunciation time length.
【0104】そして、スタイルボックスデータSBDを
削除する。そして、コントローラ11は、合成すること
により得られた新たなスタイルボックスデータSB11
を、図15に示したように、スタイル情報表示領域34
にセクション名とともに、新たな編集対象マークとして
ブロック表示し、処理をステップS8に移行する。Then, the style box data SBD is deleted. The controller 11 then adds the new style box data SB11 obtained by combining.
, As shown in FIG.
In addition to the section name, the block is displayed as a new edit target mark, and the process proceeds to step S8.
【0105】以上の説明のように、本第2実施形態にお
いても、第1実施形態の場合と同様に容易にスタイルシ
ーケンスデータの編集が容易に行えることとなる。以上
の第2実施形態の説明においては、新たなスタイルボッ
クスデータSBNを構成するスタイルナンバデータとし
てスタイルボックスデータSB1のスタイルナンバデー
タSN1を用い、新たなスタイルボックスデータSBNを
構成するセクションデータとしてスタイルボックスデー
タSB1のセクションデータSC1を用いることにより新
たなスタイルボックスデータSBNを生成していたが、
スタイルボックスデータSB1のスタイルナンバデータ
SN1と異なるスタイルナンバデータあるいはスタイル
ボックスデータSB1のセクションデータSC1と異なる
セクションデータを操作者が指定するように構成するこ
とも可能である。As described above, also in the second embodiment, the style sequence data can be easily edited as in the case of the first embodiment. In the above description of the second embodiment, the style number data SN1 of the style box data SB1 is used as the style number data that forms the new style box data SBN, and the style box is used as the section data that forms the new style box data SBN. Although the new style box data SBN was generated by using the section data SC1 of the data SB1,
It is also possible for the operator to specify style number data different from the style number data SN1 of the style box data SB1 or section data different from the section data SC1 of the style box data SB1.
【0106】[5]第3実施形態
上記第2実施形態においては、スタイルシーケンスデー
タを複数のスタイルボックスデータSB及びスタイルシ
ーケンスデータの終了を表わすエンドデータSENで構
成するようにしていたが、本第3実施形態は、スタイル
ボックスデータとは別個にスタイルシーケンスデータを
構成し、スタイルシーケンスデータをスタイルボックス
データを参照するための参照アドレスデータにより構成
した場合の実施形態である。[5] Third Embodiment In the second embodiment, the style sequence data is composed of a plurality of style box data SB and end data SEN indicating the end of the style sequence data. The third embodiment is an embodiment in which the style sequence data is configured separately from the style box data, and the style sequence data is configured by reference address data for referring to the style box data.
【0107】(5.1) 第3実施形態のスタイルシーケ
ンスデータ及びスタイルボックスデータのデータフォー
マット
図19に第3実施形態のスタイルシーケンスデータ及び
スタイルボックスデータのデータフォーマットの一例を
示す。図19において、図16の第2実施形態と同様の
部分には同一の符号を付す。スタイルシーケンスデータ
は、複数のスタイルボックスデータSBのうち、特定の
スタイルボックスデータを参照するためのスタイルボッ
クスデータSBのRAM19上の格納先頭アドレスを表
す複数の参照アドレスデータSAD及びスタイルシーケン
スデータの終了を表わすエンドデータSENを備えて構
成されている。スタイルボックスデータSBは、スタイ
ル発音タイミングを表すタイミングデータTD1と、後
述のスタイルナンバデータにより指定された伴奏スタイ
ルによる演奏の開始タイミング(=タイミングデータT
D1のタイミングに相当)から演奏の終了タイミングま
での発音時間長を表す発音時間長データSLENと、伴奏
スタイルを指定するために参照すべき後述のスタイル指
定データを特定するためのスタイルナンバデータSN
と、当該内の演奏に用いるセクションを指定するセクシ
ョンデータSCと、を備えて構成されている。(5.1) Data Format of Style Sequence Data and Style Box Data of Third Embodiment FIG. 19 shows an example of the data format of style sequence data and style box data of the third embodiment. 19, the same parts as those in the second embodiment shown in FIG. 16 are designated by the same reference numerals. The style sequence data indicates the end of a plurality of reference address data SAD and the style sequence data representing the storage start address of the style box data SB for referring to a specific style box data SB on the RAM 19 among the plurality of style box data SB. The end data SEN is included. The style box data SB is the timing data TD1 representing the style sounding timing and the start timing (= timing data T of the performance by the accompaniment style designated by the style number data described later).
(Corresponding to the timing of D1) to the end time of the performance and the sounding time length data SLEN, and style number data SN for specifying style specification data to be referred to later for specifying the accompaniment style.
And section data SC for designating a section to be used for performance.
【0108】次にスタイルシーケンスデータの切離処理
指定がなされた場合の処理及びスタイルシーケンスデー
タの合成処理指定がなされた場合の処理について図1、
図3、図20及び図21を参照して説明する。Next, regarding the processing when the separation processing of style sequence data is designated and the processing when the synthesis processing of style sequence data is designated, FIG.
This will be described with reference to FIGS. 3, 20 and 21.
【0109】(5.2) 第3実施形態の切離処理
まず、スタイルシーケンスデータの切離処理指定がなさ
れた場合の処理について説明する。(5.2) Separation Processing of Third Embodiment First, the processing when the separation processing of style sequence data is designated will be described.
【0110】まず、コントローラ11は、キーボードユ
ニット12、キーボードインターフェース13及びバス
14を介して、あるいは、マウス15、マウスインター
フェース16及びバス14を介して、スタイルシーケン
スデータの切離処理指定がなされたか否かを判別する
(ステップS4)。First, the controller 11 determines whether or not the style sequence data disconnection processing is designated via the keyboard unit 12, the keyboard interface 13 and the bus 14, or via the mouse 15, the mouse interface 16 and the bus 14. It is determined (step S4).
【0111】ステップS4の判別において、スタイルシ
ーケンスデータの切離処理指定がなされていない場合に
は(ステップS4;No)、処理をステップS6に移行
する。ステップS4の判別において、スタイルシーケン
スデータの切離処理指定がなされた場合には(ステップ
S4;Yes)、処理をスタイルシーケンスデータの切
離処理ルーチンに移行する(ステップS5)。In the determination of step S4, if the style sequence data separation process is not designated (step S4; No), the process proceeds to step S6. In the determination in step S4, when the style sequence data separation process is designated (step S4; Yes), the process proceeds to the style sequence data separation process routine (step S5).
【0112】切離処理ルーチンにおいては、コントロー
ラ11は、切離位置指定処理に移行し、操作者にスタイ
ルシーケンスデータの切り離し位置を指定させる。より
具体的には、図8に示したように、操作者は、キーボー
ドユニット12あるいはマウス15を介して、ディスプ
レイ24の画面上で切離位置SPを指定することとな
る。In the separation processing routine, the controller 11 shifts to the separation position designation processing, and causes the operator to designate the separation position of the style sequence data. More specifically, as shown in FIG. 8, the operator will specify the separation position SP on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0113】次にコントローラ11は、切離位置SPに
対応するスタイルシーケンスデータの切離処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する。上述した
切離処理の実行の指示が与えられたか否かの判別におい
て、切離処理の実行の指示が与えられなかった場合に
は、処理を合成処理を行うか否かの判別処理に移行するNext, the controller 11 determines whether or not an instruction to execute the cutting processing of the style sequence data corresponding to the cutting position SP is given by the operator via the keyboard unit 12 or the mouse 15. In the above-described determination of whether or not the instruction to execute the separation process has been given, when the instruction to execute the separation process has not been given, the process proceeds to the process of determining whether or not to perform the combining process.
【0114】切離処理の実行の指示が与えられたか否か
の判別において、切離処理の実行の指示が与えられた場
合には、切離処理により発生すべき新たなスタイルボッ
クスデータSBNNを作成し、RAM19に格納する。こ
の場合において、図20に示すように、新たなスタイル
ボックスデータSBNNは、スタイル発音の開始タイミン
グを表すタイミングデータTD1NNと、後述のスタイル
ナンバデータにより指定された伴奏スタイルによる演奏
の開始タイミング(=タイミングデータTD1NNのタイ
ミングに相当)から演奏の終了タイミングまでの発音時
間長を表す発音時間長データSLENNNと、伴奏スタイル
を指定するために参照すべき後述のスタイル指定データ
を特定するためのスタイルナンバデータSNNNと、当該
スタイル内の演奏に用いるセクションを指定するセクシ
ョンデータSCNNと、を備えて構成されている。When it is determined whether or not an instruction to execute the detaching process is given, if the instruction to execute the detaching process is given, new style box data SBNN to be generated by the detaching process is created. Then, it is stored in the RAM 19. In this case, as shown in FIG. 20, the new style box data SBNN includes the timing data TD1NN indicating the start timing of style pronunciation and the start timing (= timing of the performance by the accompaniment style specified by the style number data described later). (Corresponding to the timing of the data TD1NN) to the sounding time length data SLENNN indicating the sounding time length from the end timing of the performance, and style number data SNNN for specifying style specification data to be referred to later for specifying the accompaniment style. And section data SCNN designating a section used for performance in the style.
【0115】そして、新たなスタイルボックスデータS
BNNのRAM19上の格納先頭アドレスを表す新たな参
照アドレスデータSADNNを生成し、スタイルシーケンス
データの切離位置に挿入することとなる。Then, the new style box data S
New reference address data SADNN representing the storage start address of the BNN on the RAM 19 is generated and inserted into the cut position of the style sequence data.
【0116】次に新たなスタイルボックスデータSBNN
に対応する新たな参照アドレスデータSADNNを挿入すべ
き位置より前に存在する参照アドレスデータSADであっ
て、もっとも時系列的に最後に位置する参照アドレスデ
ータSAD1に対応するスタイルボックスデータSB1を参
照し、当該スタイルボックスデータSB1の発音時間長
データSLEN11を当該スタイルボックスデータSB1を構
成するタイミングデータTD11及び新たなスタイルボッ
クスデータSBNを構成するタイミングデータTD1NNに
基づいて算出し、変更する。Next, new style box data SBNN
The style box data SB1 corresponding to the reference address data SAD existing before the position at which the new reference address data SADNN corresponding to is to be inserted and which is the last reference address data SAD1 in time series is referred to. , The tone generation time length data SLEN11 of the style box data SB1 is calculated and changed based on the timing data TD11 forming the style box data SB1 and the timing data TD1NN forming the new style box data SBN.
【0117】次に、コントローラ11は、切離された二
つのスタイルデータを、図11に示したように、スタイ
ル情報表示領域34にセクション名とともに、新たな編
集対象マークとしてブロック表示し、処理をステップS
6に移行する。Next, the controller 11 block-displays the two separated style data together with the section name in the style information display area 34 as a new edit target mark as shown in FIG. Step S
Go to 6.
【0118】(5.3) 第3実施形態の合成処理
次にスタイルシーケンスデータの合成処理指定がなされ
た場合の処理について説明する。まず、コントローラ1
1は、キーボードユニット12、キーボードインターフ
ェース13及びバス14を介して、あるいは、マウス1
5、マウスインターフェース16及びバス14を介し
て、スタイルシーケンスデータの合成処理指定がなされ
たか否かを判別する(ステップS6)。(5.3) Compositing Process of the Third Embodiment Next, the process when the composing process of style sequence data is designated will be described. First, the controller 1
1 via the keyboard unit 12, the keyboard interface 13 and the bus 14, or the mouse 1
5, through the mouse interface 16 and the bus 14, it is determined whether or not the synthesis processing designation of style sequence data has been made (step S6).
【0119】ステップS6の判別において、スタイルシ
ーケンスデータの合成処理指定がなされていない場合に
は(ステップS6;No)、処理をステップS8に移行
する。ステップS6の判別において、スタイルシーケン
スデータの合成処理指定がなされた場合には(ステップ
S6;Yes)、処理をスタイルシーケンスデータの合
成処理ルーチンに移行する(ステップS5)。If it is determined in step S6 that the synthesis processing of style sequence data is not designated (step S6; No), the process proceeds to step S8. If it is determined in step S6 that the synthesis processing of style sequence data has been designated (step S6; Yes), the processing proceeds to the synthesis processing routine of style sequence data (step S5).
【0120】合成処理ルーチンにおいては、コントロー
ラ11は、合成位置指定処理に移行し、操作者にスタイ
ルシーケンスデータの合成位置を指定させる。より具体
的には、図14に示したように、操作者は、キーボード
ユニット12あるいはマウス15を介して、ディスプレ
イ24の画面上で合成位置SYを指定することとなる。In the synthesizing process routine, the controller 11 shifts to the synthesizing position designation process, and prompts the operator to designate the synthesizing position of the style sequence data. More specifically, as shown in FIG. 14, the operator designates the composite position SY on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0121】次にコントローラ11は、合成位置SYに
対応するスタイルシーケンスデータの合成処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する。合成処理
の実行の指示が与えられたか否かの判別において、合成
処理の実行の指示が与えられなかった場合には、処理を
ステップS8(図3参照)に移行するNext, the controller 11 determines whether or not an instruction to execute the synthesis processing of the style sequence data corresponding to the synthesis position SY has been given by the operator via the keyboard unit 12 or the mouse 15. When it is determined whether or not the instruction to execute the synthesizing process is given, if the instruction to execute the synthesizing process is not given, the process proceeds to step S8 (see FIG. 3).
【0122】合成処理の実行の指示が与えられたか否か
の判別において、合成処理の実行の指示が与えられた場
合には、図21に示すように、合成が指示された二つの
スタイルボックスSB2及びスタイルボックスSBD1に
それぞれ対応する参照アドレスデータSAD2及び参照ア
ドレスデータSADDのうち、前側の参照アドレスデータ
SAD2に対応するスタイルボックスデータSB2の発音時
間長データSLEN2を、元の発音時間長データSLEN2に対
応する発音時間長に削除すべき後側の参照アドレスデー
タSADDに対応するスタイルボックスデータSBD1の発
音時間長データSLEND1に対応する発音時間長を加算し
た発音時間長に対応するものに変更する。When it is determined whether or not an instruction to execute the combining process is given, when an instruction to execute the combining process is given, as shown in FIG. 21, the two style boxes SB2 to which the combining instruction is given. Of the reference address data SAD2 and the reference address data SADD corresponding to the style box SBD1 respectively, the tone generation time length data SLEN2 of the style box data SB2 corresponding to the reference address data SAD2 on the front side corresponds to the original tone generation time length data SLEN2. The tone generation time length is changed to that corresponding to the tone generation time length obtained by adding the tone generation time length corresponding to the tone generation time length data SLEND1 of the style box data SBD1 corresponding to the reference address data SADD on the rear side to be deleted.
【0123】そして、スタイルボックスデータSBD1及
び参照アドレスデータSADDを削除する。そして、コン
トローラ11は、合成することにより得られた新たなス
タイルボックスデータSB11を、図15に示したよう
に、スタイル情報表示領域34にセクション名ととも
に、新たな編集対象マークとしてブロック表示し、処理
をステップS8に移行する。Then, the style box data SBD1 and the reference address data SADD are deleted. Then, the controller 11 block-displays the new style box data SB11 obtained by the synthesis as a new edit target mark together with the section name in the style information display area 34, as shown in FIG. To step S8.
【0124】以上の説明のように、本第3実施形態にお
いても、第1実施形態及び第2実施形態の場合と同様に
容易にスタイルシーケンスデータの編集が容易に行える
こととなる。As described above, also in the third embodiment, the style sequence data can be easily edited as in the first and second embodiments.
【0125】[6]第4実施形態
本第4実施形態は、上記第3実施形態におけるスタイル
ボックスデータに新たにイベントボックスデータを参照
するイベント参照アドレスデータを設けた場合の実施形
態である。[6] Fourth Embodiment The fourth embodiment is an embodiment in which event reference address data for newly referring to event box data is provided in the style box data in the third embodiment.
【0126】(6.1) 第4実施形態のスタイルシーケ
ンスデータ、スタイルボックスデータ及びイベントボッ
クスデータのデータフォーマット
図22に第4実施形態のスタイルシーケンスデータ、ス
タイルボックスデータ及びイベントボックスデータのデ
ータフォーマットの一例を示す。図22において、図1
9の第3実施形態と同様の部分には同一の符号を付す。(6.1) Data Format of Style Sequence Data, Style Box Data and Event Box Data of Fourth Embodiment FIG. 22 shows an example of data format of style sequence data, style box data and event box data of the fourth embodiment. Show. In FIG. 22, FIG.
The same parts as those in the third embodiment of No. 9 are denoted by the same reference numerals.
【0127】スタイルシーケンスデータは、複数のスタ
イルボックスデータSBDのうち、特定のスタイルボッ
クスデータを参照するためのスタイルボックスデータS
BDのRAM19上の格納先頭アドレスを表す複数の参
照アドレスデータSADR及びスタイルシーケンスデータ
の終了を表わすエンドデータSENを備えて構成されて
いる。The style sequence data is the style box data S for referencing a specific style box data among the plurality of style box data SBD.
It is configured to include a plurality of reference address data SADR representing the head address stored on the RAM 19 of the BD and end data SEN representing the end of the style sequence data.
【0128】スタイルボックスデータSBDは、同期タ
イミングを表すタイミングデータTD1と、後述のスタ
イルナンバデータにより指定された伴奏スタイルによる
演奏の開始タイミング(=タイミングデータTD1のタ
イミングに相当)から演奏の終了タイミングまでの発音
時間長を表す発音時間長データSLENと、伴奏スタイル
を指定するために参照すべき後述のスタイル指定データ
を特定するためのスタイルナンバデータSNと、当該ス
タイル開始データSSTの属するセクションを表すセクシ
ョンデータSCと、当該スタイルボックスデータSBD
に対応する演奏時における初期設定(例えば、音色やテ
ンポ等)を表す初期設定データSIと、後述のイベント
ボックスデータのRAM19上の格納先頭アドレスを表
す複数の参照アドレスデータSADEと、当該スタイルボ
ックスデータの終了を表すエンドデータSBENと、を備
えて構成されている。The style box data SBD includes the timing data TD1 representing the synchronization timing and the performance start timing (corresponding to the timing data TD1 timing) of the accompaniment style specified by the style number data described later from the performance end timing. Sound duration data SLEN that represents the duration of the sound, style number data SN that identifies style specification data that will be referred to later to specify the accompaniment style, and a section that represents the section to which the style start data SST belongs. Data SC and the relevant style box data SBD
Corresponding to the initial setting data SI indicating the initial setting (for example, tone color or tempo) at the time of performance, a plurality of reference address data SADE indicating the storage head address of the event box data described later on the RAM 19, and the style box data concerned. And end data SBEN indicating the end of the.
【0129】イベントボックスデータEBは、同期タイ
ミングを表すタイミングデータTDと、イベントデータ
EVと、を備えて構成されている。イベントデータEV
の一例としては、発音開始タイミングを表すキーオンデ
ータKONと、発音の強弱を表すベロシティデータVD
と、発音開始から発音終了までの時間を表すゲートタイ
ムデータGDと、を備えて構成されている。The event box data EB is composed of timing data TD representing the synchronization timing and event data EV. Event data EV
As an example, key-on data KON indicating the sounding start timing and velocity data VD indicating the strength of sounding
And gate time data GD representing the time from the start of sound generation to the end of sound generation.
【0130】次にスタイルシーケンスデータの切離処理
指定がなされた場合の処理及びスタイルシーケンスデー
タの合成処理指定がなされた場合の処理について図1及
び図3を参照して説明する。Next, the processing when the separation processing of style sequence data is designated and the processing when the synthesis processing of style sequence data is designated will be described with reference to FIGS. 1 and 3.
【0131】(6.2) 第4実施形態の切離処理
まず、スタイルシーケンスデータの切離処理指定がなさ
れた場合の処理について説明する。まず、コントローラ
11は、キーボードユニット12、キーボードインター
フェース13及びバス14を介して、あるいは、マウス
15、マウスインターフェース16及びバス14を介し
て、スタイルシーケンスデータの切離処理指定がなされ
たか否かを判別する(ステップS4)。(6.2) Separation Processing of Fourth Embodiment First, the processing when the separation processing of style sequence data is designated will be described. First, the controller 11 determines whether or not the style sequence data disconnection processing is designated via the keyboard unit 12, the keyboard interface 13 and the bus 14, or via the mouse 15, the mouse interface 16 and the bus 14. Yes (step S4).
【0132】ステップS4の判別において、スタイルシ
ーケンスデータの切離処理指定がなされていない場合に
は(ステップS4;No)、処理をステップS6に移行
する。ステップS4の判別において、スタイルシーケン
スデータの切離処理指定がなされた場合には(ステップ
S4;Yes)、処理をスタイルシーケンスデータの切
離処理ルーチンに移行する(ステップS5)。In the determination in step S4, if the style sequence data separation process is not designated (step S4; No), the process proceeds to step S6. In the determination in step S4, when the style sequence data separation process is designated (step S4; Yes), the process proceeds to the style sequence data separation process routine (step S5).
【0133】切離処理ルーチンにおいては、コントロー
ラ11は、切離位置指定処理に移行し、操作者にスタイ
ルシーケンスデータの切り離し位置を指定させる。より
具体的には、図8に示したように、操作者は、キーボー
ドユニット12あるいはマウス15を介して、ディスプ
レイ24の画面上で切離位置SPを指定することとな
る。In the separation processing routine, the controller 11 shifts to the separation position designation processing, and causes the operator to designate the separation position of the style sequence data. More specifically, as shown in FIG. 8, the operator will specify the separation position SP on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0134】次にコントローラ11は、切離位置SPに
対応するスタイルシーケンスデータの切離処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する。上述した
切離処理の実行の指示が与えられたか否かの判別におい
て、切離処理の実行の指示が与えられなかった場合に
は、処理を合成処理を行うか否かの判別処理に移行するNext, the controller 11 determines whether or not an instruction to execute the cutting process of the style sequence data corresponding to the cutting position SP is given by the operator via the keyboard unit 12 or the mouse 15. In the above-described determination of whether or not the instruction to execute the separation process has been given, when the instruction to execute the separation process has not been given, the process proceeds to the process of determining whether or not to perform the combining process.
【0135】切離処理の実行の指示が与えられたか否か
の判別において、切離処理の実行の指示が与えられた場
合には、切離処理により発生すべき新たなスタイルボッ
クスデータSBDを作成し、RAM19に格納する。そ
して、新たなスタイルボックスデータSBDのRAM1
9上の格納先頭アドレスを表す新たな参照アドレスデー
タSADRを生成し、スタイルシーケンスデータの切離位
置に挿入することとなる。When it is determined whether or not an instruction to execute the detaching process is given, if the instruction to execute the detaching process is given, new style box data SBD to be generated by the detaching process is created. Then, it is stored in the RAM 19. And RAM1 of the new style box data SBD
The new reference address data SADR representing the storage start address on 9 is generated and inserted at the separation position of the style sequence data.
【0136】次に新たなスタイルボックスデータSBD
に対応する新たな参照アドレスデータSADRを挿入すべ
き位置より前に存在する参照アドレスデータSADRであ
って、もっとも時系列的に最後に位置する参照アドレス
データSADRに対応するスタイルボックスデータSBD
を参照し、当該スタイルボックスデータSBDの発音時
間長データSLENを当該スタイルボックスデータSBD
を構成するタイミングデータTD1及び新たなスタイル
ボックスデータSBDを構成するタイミングデータTD
1に基づいて算出し、変更する。Next, new style box data SBD
Style box data SBD corresponding to the reference address data SADR existing before the position where the new reference address data SADR corresponding to
And the sounding duration data SLEN of the style box data SBD is referred to.
Data TD1 forming the new style box data SBD and the timing data TD forming the new style box data SBD
Calculate based on 1 and change.
【0137】次に、コントローラ11は、切離された二
つのスタイルデータを、図11に示したように、スタイ
ル情報表示領域34にセクション名とともに、新たな編
集対象マークとしてブロック表示し、処理をステップS
6に移行する。Next, the controller 11 block-displays the two separated style data together with the section name in the style information display area 34 as a new edit target mark as shown in FIG. Step S
Go to 6.
【0138】(6.2.1) イベントボックスデータの新
規作成
同様にして、スタイルボックスデータに新たなイベント
ボックスデータEBを追加する場合には、まず、新たな
イベントボックスデータEBを作成し、RAM19に格
納する。(6.2.1) New Creation of Event Box Data Similarly, when new event box data EB is added to style box data, first, new event box data EB is created and stored in RAM 19. To do.
【0139】そして、新たなイベントボックスデータE
BのRAM19上の格納先頭アドレスを表す新たな参照
アドレスデータSADEを生成し、スタイルボックスデー
タSBDの所望の位置に挿入することとなる。Then, the new event box data E
The new reference address data SADE representing the storage start address on the RAM 19 of B is generated and inserted into the desired position of the style box data SBD.
【0140】(6.3) 第4実施形態の合成処理
次にスタイルシーケンスデータの合成処理指定がなされ
た場合の処理について説明する。まず、コントローラ1
1は、キーボードユニット12、キーボードインターフ
ェース13及びバス14を介して、あるいは、マウス1
5、マウスインターフェース16及びバス14を介し
て、スタイルシーケンスデータの合成処理指定がなされ
たか否かを判別する(ステップS6)。(6.3) Compositing Process of Fourth Embodiment Next, the process when the composing process of style sequence data is designated will be described. First, the controller 1
1 via the keyboard unit 12, the keyboard interface 13 and the bus 14, or the mouse 1
5, through the mouse interface 16 and the bus 14, it is determined whether or not the synthesis processing designation of style sequence data has been made (step S6).
【0141】ステップS6の判別において、スタイルシ
ーケンスデータの合成処理指定がなされていない場合に
は(ステップS6;No)、処理をステップS8に移行
する。ステップS6の判別において、スタイルシーケン
スデータの合成処理指定がなされた場合には(ステップ
S6;Yes)、処理をスタイルシーケンスデータの合
成処理ルーチンに移行する(ステップS5)。If it is determined in step S6 that the synthesis processing of style sequence data has not been designated (step S6; No), the process proceeds to step S8. If it is determined in step S6 that the synthesis processing of style sequence data has been designated (step S6; Yes), the processing proceeds to the synthesis processing routine of style sequence data (step S5).
【0142】合成処理ルーチンにおいては、コントロー
ラ11は、合成位置指定処理に移行し、操作者にスタイ
ルシーケンスデータの合成位置を指定させる。より具体
的には、図14に示したように、操作者は、キーボード
ユニット12あるいはマウス15を介して、ディスプレ
イ24の画面上で合成位置SYを指定することとなる。In the synthesizing process routine, the controller 11 shifts to the synthesizing position designation process, and prompts the operator to designate the synthesizing position of the style sequence data. More specifically, as shown in FIG. 14, the operator designates the composite position SY on the screen of the display 24 via the keyboard unit 12 or the mouse 15.
【0143】次にコントローラ11は、合成位置SYに
対応するスタイルシーケンスデータの合成処理の実行の
指示が操作者によりキーボードユニット12あるいはマ
ウス15を介して与えられた否かを判別する。合成処理
の実行の指示が与えられたか否かの判別において、合成
処理の実行の指示が与えられなかった場合には、処理を
ステップS8(図3参照)に移行するNext, the controller 11 determines whether or not an instruction to execute the synthesis processing of the style sequence data corresponding to the synthesis position SY is given by the operator via the keyboard unit 12 or the mouse 15. When it is determined whether or not the instruction to execute the synthesizing process is given, if the instruction to execute the synthesizing process is not given, the process proceeds to step S8 (see FIG. 3).
【0144】合成処理の実行の指示が与えられたか否か
の判別において、合成処理の実行の指示が与えられた場
合には、合成が指示された二つのスタイルボックスSB
Dにそれぞれ対応する参照アドレスデータSADRのう
ち、前側の参照アドレスデータSADRに対応するスタイ
ルボックスデータSBDの発音時間長データSLENを、
元の発音時間長データSLENに対応する発音時間長に削
除すべき後側の参照アドレスデータSADRに対応するス
タイルボックスデータSBDの発音時間長データSLEN
に対応する発音時間長を加算した発音時間長に対応する
ものに変更する。In the determination as to whether or not the instruction to execute the combining process is given, if the instruction to execute the combining process is given, the two style boxes SB to which the combining is instructed.
Of the reference address data SADR corresponding to D, the tone generation time length data SLEN of the style box data SBD corresponding to the reference address data SADR on the front side,
The pronunciation time length data SLEN of the style box data SBD corresponding to the reference address data SADR on the rear side to be deleted to the pronunciation time length corresponding to the original pronunciation time length data SLEN
The pronunciation time length corresponding to is added to change to the one corresponding to the pronunciation time length.
【0145】(6.3.1) スタイルボックスデータ及び
対応参照アドレスデータの削除
そして、後ろ側のスタイルボックスデータSBD及び対
応する参照アドレスデータSADRを削除する。そして、
コントローラ11は、合成することにより得られた新た
なスタイルボックスデータSBDを、図15に示したよ
うに、スタイル情報表示領域34にセクション名ととも
に、新たな編集対象マークとしてブロック表示し、処理
をステップS8に移行する。(6.3.1) Deletion of Style Box Data and Corresponding Reference Address Data Then, the rear style box data SBD and corresponding reference address data SADR are deleted. And
As shown in FIG. 15, the controller 11 displays the new style box data SBD obtained by synthesizing the new style box data SBD in the style information display area 34 together with the section name in a block as a new edit target mark. The process moves to S8.
【0146】(6.3.2) イベントボックスデータの削
除
なお、イベントボックスデータEBを削除する場合に
は、対応する参照アドレスデータSADEとともに削除す
ることにより行う。(6.3.2) Deleting Event Box Data When deleting the event box data EB, the event box data EB is deleted together with the corresponding reference address data SADE.
【0147】以上の説明のように、本第4実施形態にお
いても、第1実施形態、第2実施形態及び第3実施形態
の場合と同様に容易にスタイルシーケンスデータの編集
が容易に行えることとなる。As described above, also in the fourth embodiment, it is possible to easily edit the style sequence data as in the first, second and third embodiments. Become.
【0148】〔7〕 実施形態の効果
以上の説明のように、上記各実施形態によれば、編集後
に作成されるスタイルシーケンスデータにおいて、伴奏
が演奏されない区間が発生するなどの不都合が生じず、
簡単な操作で所望のスタイルシーケンスデータを正確に
作成することができる。[7] Effects of the Embodiments As described above, according to the above-described embodiments, inconveniences such as the occurrence of a section in which the accompaniment is not played in the style sequence data created after editing does not occur.
The desired style sequence data can be accurately created by a simple operation.
【0149】また、スタイルシーケンスデータをスタイ
ル情報表示領域にセクション名とともに、編集対象マー
クとしてブロック表示することにより、マウス等の入出
力装置を用いて、切り離し及び合成等の編集処理が視覚
的に行えるため、編集操作を容易とすることができる。By displaying the style sequence data in the style information display area together with the section name as a block to be edited, the input / output device such as a mouse can be used to visually perform editing processing such as separation and composition. Therefore, the editing operation can be facilitated.
【0150】さらにソングデータとともに、スタイルシ
ーケンスデータをディスプレイ上の画面に表示すること
により、操作者はソングデータとスタイルシーケンスデ
ータとを関連づけてみることができるため、ソングデー
タに照らし合わせながら、スタイルシーケンスデータの
流れを読みとることが可能となり、より高度な編集作業
を行えることとなる。Further, by displaying the style sequence data together with the song data on the screen of the display, the operator can try to associate the song data and the style sequence data with each other. It becomes possible to read the flow of data and to perform more advanced editing work.
【0151】〔8〕 実施形態の変形例
上記実施形態においては、切離位置及び合成位置を任意
の位置としていたが、処理を簡略化すべく、例えば、切
離位置及び合成位置を小節単位で指定するように指定可
能な位置を限定するように構成することも可能である。[8] Modification of Embodiment In the above embodiment, the cut position and the combined position are set to arbitrary positions. However, in order to simplify the processing, for example, the cut position and the combined position are specified in units of measures. It is also possible to configure so as to limit the positions that can be designated.
【0152】また、上記実施形態においては、外部電子
楽器として、専用のハードウェアを用いる場合について
説明したが、専用のハードウェアを用いて構成するもの
に限らず、DSP+マイクロプログラムを用いて電子楽
器を構成するようにしてもよいし、CPU+ソフトウェ
アのプログラムで電子楽器を構成するようにしてもよ
い。Further, in the above embodiment, the case where the dedicated hardware is used as the external electronic musical instrument has been described, but the external electronic musical instrument is not limited to the configuration using the dedicated hardware, and an electronic musical instrument using the DSP + microprogram is used. May be configured, or the electronic musical instrument may be configured by a program of CPU + software.
【0153】また、上記実施形態においては、鍵盤楽器
タイプの電子楽器の場合を一例として説明したが、弦楽
器タイプの電子楽器、管楽器タイプの電子楽器、打楽器
タイプの電子楽器を用いるような構成とすることも可能
である。さらに発音チャンネルは、一つの発音回路を時
分割で使用することによって複数の発音チャンネルを形
成するようなものでもよいし、一つの発音チャンネルが
一つの発音回路で構成されるような形式でもよい。In the above embodiment, the case of a keyboard musical instrument type electronic musical instrument has been described as an example. However, a string musical instrument type electronic musical instrument, a wind instrument type electronic musical instrument, and a percussion musical instrument type electronic musical instrument are used. It is also possible. Further, the sound generation channel may be one in which a plurality of sound generation channels are formed by using one sound generation circuit in a time division manner, or may be in a form in which one sound generation channel is constituted by one sound generation circuit.
【0154】また、上記実施形態においては、制御プロ
グラム及び制御用データをROMに記憶していたが、R
OMに制御プログラムが記憶されていない場合には、ハ
ードディスクドライブ内の制御プログラムを記憶させて
おき、それをRAMに転送することによりROMに制御
プログラムを記憶させている場合と同様の動作をコント
ローラに行わせることができる。このように構成するこ
とにより、制御プログラムの追加やバージョンアップな
どの措置が容易に行えることとなる。In the above embodiment, the control program and the control data are stored in the ROM.
When the control program is not stored in the OM, the control program in the hard disk drive is stored in advance, and the same operation as in the case where the control program is stored in the ROM by transferring it to the RAM is performed by the controller. Can be done. With such a configuration, it is possible to easily take measures such as adding a control program or upgrading the version.
【0155】また、ROMあるいは外部記憶装置に制御
プログラムが記憶されていない場合には、通信インター
フェース並びにLAN(Local Area Network)、インタ
ーネットあるいは電話回線などの通信ネットワークを介
して、サーバコンピュータから制御プログラム及び制御
用データのダウンロードをおこなって、RAMに転送す
ることにより、ROMに制御プログラムを記憶させてい
る場合と同様の動作をコントローラに行わせることがで
きる。When the control program is not stored in the ROM or the external storage device, the control program and the control program are transmitted from the server computer via a communication interface and a communication network such as a LAN (Local Area Network), the Internet or a telephone line. By downloading the control data and transferring it to the RAM, it is possible to cause the controller to perform the same operation as when the control program is stored in the ROM.
【0156】このように構成することによっても、制御
プログラムの追加やバージョンアップなどの措置が容易
に行えることとなる。また、上記実施形態においては、
伴奏スタイルに含まれるトラック(例えば、16トラッ
ク)に対して一括表示及び一括編集を行う構成としてい
たが、各トラックごとに表示及び編集を行うように構成
することも可能である。With such a structure, it is possible to easily add a control program or upgrade the version. In the above embodiment,
The tracks (for example, 16 tracks) included in the accompaniment style are collectively displayed and collectively edited, but it is also possible to display and edit each track.
【0157】さらに上記実施形態においては、編集前及
び編集後のスタイルシーケンスデータを矩形状のブロッ
ク表示としていたが、これらに限るものではなく、演奏
時間情報を表現可能な形状であれば、例えば、長軸方向
の長さが演奏時間に応じて変化する楕円形状や、底辺の
長さが演奏時間に応じて変化する三角形のような多角形
状等の他の形状で表現するように構成することも可能で
ある。Further, in the above-described embodiment, the style sequence data before and after editing is displayed as a rectangular block. However, the present invention is not limited to this, and if the shape is such that performance time information can be expressed, for example, It may be configured to be represented by other shapes such as an elliptical shape whose length in the major axis direction changes depending on the playing time, and a polygonal shape such as a triangle whose base length changes depending on the playing time. It is possible.
【0158】[0158]
【発明の効果】請求項1、請求項4、請求項8,請求項
9及び請求項10記載の構成によれば、伴奏スタイルデ
ータを当該伴奏スタイルデータについての演奏時間に対
応する所定形状を有する編集対象マークとして表示し、
ユーザの前記編集対象マークに対する操作を介して伴奏
スタイルデータの分割または合成を行うように構成して
いるので、スタイルシーケンスデータの編集操作を視覚
的に行うことができ、スタイルシーケンスデータの編集
操作を簡単、かつ、容易なものとすることができる。According to the configurations of claims 1, 4, 8, 9, and 10, the accompaniment style data has a predetermined shape corresponding to the performance time of the accompaniment style data. Displayed as an edit target mark,
Since the accompaniment style data is configured to be divided or combined through the user's operation on the edit target mark, the style sequence data can be edited visually, and the style sequence data can be edited. It can be simple and easy.
【0159】請求項2及び請求項5記載の構成によれ
ば、伴奏スタイルデータの分割を行うに際し、切離位置
に応じた分離用データの生成、挿入あるいは演奏時間デ
ータの変更を行うので、スタイルシーケンスデータを分
割した場合でも、伴奏が行われない区間が生じる等の不
具合を生じることなく、簡単な操作で所望のスタイルシ
ーケンスデータを正確に作成することができる。According to the configurations of claims 2 and 5, when the accompaniment style data is divided, the separation data is generated and inserted or the performance time data is changed according to the separation position. Even if the sequence data is divided, desired style sequence data can be accurately created by a simple operation without causing a problem such as a section in which no accompaniment is performed.
【0160】請求項3及び請求項6記載の構成によれ
ば、伴奏スタイルデータの合成を行うに際し、合成位置
に応じた演奏時間データの変更あるいは伴奏スタイルデ
ータ等の削除を行うので、スタイルシーケンスデータの
合成を行う場合でも、伴奏が行われない区間が生じる等
の不具合を生じることなく、簡単な操作で所望のスタイ
ルシーケンスデータを正確に作成することができる。According to the configurations of claims 3 and 6, when the accompaniment style data is synthesized, the performance time data is changed or the accompaniment style data or the like is deleted according to the synthesis position. Even when synthesizing, the desired style sequence data can be accurately created by a simple operation without causing a problem such as a section in which no accompaniment is performed.
【0161】請求項7または請求項11の構成によれ
ば、ソング(シーケンス)データとスタイルシーケンス
データを対照しつつ編集作業を行うことが可能となるた
め、ソングデータに照らし合わせながら、スタイルシー
ケンスデータの流れを読みとることが可能となり、より
高度な編集作業を行えることとなる。According to the seventh or eleventh aspect, since it is possible to perform editing work while comparing the song (sequence) data with the style sequence data, the style sequence data can be compared with the song data. It becomes possible to read the flow of and to perform more advanced editing work.
【図1】 演奏データ編集システムの概要構成ブロック
図である。FIG. 1 is a schematic block diagram of a performance data editing system.
【図2】 演奏データのデータフォーマットの説明図で
ある。FIG. 2 is an explanatory diagram of a data format of performance data.
【図3】 実施形態のメイン処理フローチャートであ
る。FIG. 3 is a main processing flowchart of the embodiment.
【図4】 メイン処理ウィンドウの説明図である。FIG. 4 is an explanatory diagram of a main processing window.
【図5】 第1実施形態のスタイルシーケンスデータの
作成処理フローチャートである。FIG. 5 is a flowchart of a style sequence data creation process according to the first embodiment.
【図6】 スタイル長設定時の処理ウィンドウの状態説
明図である。FIG. 6 is an explanatory diagram of a state of a processing window when setting a style length.
【図7】 スタイル選択時の処理ウィンドウの状態説明
図である。FIG. 7 is an explanatory diagram of a state of a processing window when a style is selected.
【図8】 スタイルシーケンスデータ作成後の処理ウィ
ンドウの状態説明図である。FIG. 8 is an explanatory diagram of a state of a processing window after creating style sequence data.
【図9】 第1実施形態のスタイルシーケンスデータの
切離処理フローチャートである。FIG. 9 is a flowchart for separating style sequence data according to the first embodiment.
【図10】 第1実施形態の切離処理の説明図である。FIG. 10 is an explanatory diagram of separation processing according to the first embodiment.
【図11】 実施形態の切離(分割)処理後の表示状態
説明図である。FIG. 11 is an explanatory diagram of a display state after disconnection (division) processing according to the embodiment.
【図12】 第1実施形態のスタイルシーケンスデータ
の合成処理フローチャートである。FIG. 12 is a flowchart of a synthesis processing of style sequence data according to the first embodiment.
【図13】 第1実施形態の合成処理の説明図である。FIG. 13 is an explanatory diagram of a combination process according to the first embodiment.
【図14】 実施形態の合成処理中の表示状態説明図で
ある。FIG. 14 is an explanatory diagram of a display state during the combining process according to the embodiment.
【図15】 実施形態の合成処理後の表示状態説明図で
ある。FIG. 15 is an explanatory diagram of a display state after the combining process according to the embodiment.
【図16】 第2実施形態のスタイルシーケンスデータ
のデータフォーマットの説明図である。FIG. 16 is an explanatory diagram of a data format of style sequence data according to the second embodiment.
【図17】 第2実施形態の切離処理の説明図である。FIG. 17 is an explanatory diagram of a separation process according to the second embodiment.
【図18】 第2実施形態の合成処理の説明図である。FIG. 18 is an explanatory diagram of a synthesis process of the second embodiment.
【図19】 第3実施形態のスタイルシーケンスデータ
及びスタイルボックスデータのデータフォーマットの説
明図である。FIG. 19 is an explanatory diagram of data formats of style sequence data and style box data according to the third embodiment.
【図20】 第3実施形態の切離処理の説明図である。FIG. 20 is an explanatory diagram of separation processing according to the third embodiment.
【図21】 第3実施形態の合成処理の説明図である。FIG. 21 is an explanatory diagram of a synthesis process of the third embodiment.
【図22】 第4実施形態のスタイルシーケンスデー
タ、スタイルボックスデータ及びイベントボックスデー
タのデータフォーマットの説明図である。FIG. 22 is an explanatory diagram of data formats of style sequence data, style box data, and event box data according to the fourth embodiment.
10…演奏データ編集システム、11…コントローラ、
12…キーボードユニット、13…キーボードインター
フェース、14…バス、15…マウス、16…マウスイ
ンターフェース、17…タイマ、18…ROM、19…
RAM、20…外部インターフェース、21…外部電子
楽器、22…外部記憶装置、23…ディスプレイコント
ローラ、24…ディスプレイ、30…処理ウィンドウ、
31…トラック番号表示領域、32…生成対象特定表示
領域、33…コード進行データ表示領域、34…スタイ
ル情報表示領域、40…発音時間長指定カーソル、45
…スタイル選択処理ウィンドウ、46…ファイル表示領
域、47…セクション表示領域、48…スタイル名表示
領域、49…拍子表示領域、50…スタイルテンポ表示
領域、51…スタイルテンポスイッチ指定領域、52…
開始位置表示領域、53…終了位置表示領域、54…試
聴ボタン、55…作成ボタン、56…終了ボタン10 ... Performance data editing system, 11 ... Controller,
12 ... Keyboard unit, 13 ... Keyboard interface, 14 ... Bus, 15 ... Mouse, 16 ... Mouse interface, 17 ... Timer, 18 ... ROM, 19 ...
RAM, 20 ... External interface, 21 ... External electronic musical instrument, 22 ... External storage device, 23 ... Display controller, 24 ... Display, 30 ... Processing window,
31 ... Track number display area, 32 ... Generation target specific display area, 33 ... Chord progression data display area, 34 ... Style information display area, 40 ... Pronunciation duration designation cursor, 45
... Style selection processing window, 46 ... File display area, 47 ... Section display area, 48 ... Style name display area, 49 ... Time signature display area, 50 ... Style tempo display area, 51 ... Style tempo switch designation area, 52 ...
Start position display area, 53 ... End position display area, 54 ... Audition button, 55 ... Create button, 56 ... End button
───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡村 康彦 静岡県浜松市中沢町10番1号 ヤマハ株 式会社内 (72)発明者 福島 由子 静岡県浜松市中沢町10番1号 ヤマハ株 式会社内 (56)参考文献 特開 平7−64545(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10H 1/00 101 - 102 G10H 1/36 - 1/42 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yasuhiko Okamura 10-1 Nakazawa-machi, Hamamatsu-shi, Shizuoka Yamaha stock company (72) Inventor Yuko Fukushima 10-1 Nakazawa-machi, Hamamatsu-shi, Shizuoka Yamaha stock company (56) References JP-A-7-64545 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G10H 1/00 101-102 G10H 1/36-1/42
Claims (5)
ータの編集を行うための演奏データ編集装置において、 前記演奏データは、スタイルデータを時系列順に並べた
スタイルシーケンスデータを含み、前記スタイルデータ
は、指定された伴奏スタイルによる伴奏時間を求めるた
めの伴奏時間データと、前記伴奏スタイルを指定するた
めのスタイルナンバデータとを含み、 各スタイルデータの伴奏時間データから求まる伴奏時間
を所定形状を有する編集対象マークとして表示する表示
手段と、 ユーザによる前記編集対象マークに対する切離操作に基
づいて分離位置を指定するための分離位置指定手段と、 前記指定された分離位置に対応する一つのスタイルデー
タの伴奏時間データから求まる伴奏時間を、前記一つの
スタイルデータによる伴奏の開始位置から前記分離位置
までに相当する伴奏時間に変更して第1の新スタイルデ
ータを生成する生成手段と、 前記分離位置から前記一つのスタイルデータによる伴奏
の終了位置までに相当する伴奏時間を有する第2の新ス
タイルデータを生成し、生成した第2の新スタイルデー
タを前記スタイルシーケンスデータ中の前記分離位置に
挿入する挿入手段と を備えたことを特徴とする演奏デー
タ編集装置。1. A performance data editing device for editing performance data used in an automatic performance device, wherein the performance data comprises style data arranged in chronological order.
The style data including style sequence data
Determines the accompaniment time for the specified accompaniment style.
The accompaniment time data and the accompaniment style are specified.
Accompaniment time obtained from the accompaniment time data of each style data including the style number data for
Display that displays as an edit target mark having a predetermined shape
Means and a user's separation operation for the mark to be edited.
Separation position designating means for designating the separation position, and one style data corresponding to the specified separation position.
The accompaniment time obtained from the accompaniment time data of the
From the start position of the accompaniment by the style data to the separation
Change to the accompaniment time equivalent to
Generating means for generating data and accompaniment by the one style data from the separation position
The second new track with an accompaniment time equivalent to the end position of
Generates tile data and creates the second new style data
Data to the separation position in the style sequence data.
An apparatus for editing performance data, comprising: an inserting means for inserting .
ータの編集を行うための演奏データ編集装置において、 前記演奏データは、スタイルデータを時系列順に並べた
スタイルシーケンスデータを含み、前記スタイルデータ
は、指定された伴奏スタイルによる伴奏時間を求めるた
めの伴奏時間データと、前記伴奏スタイルを指定するた
めのスタイルナンバデータとを含み、 各スタイルデータの伴奏時間データから求まる伴奏時間
を所定形状を有する編集対象マークとして表示する表示
手段と、 ユーザによる前記編集対象マークに対する合成操作に基
づいて合成位置を指定 するための合成位置指定手段と、 前記指定された合成位置よりも時系列的に前側のスタイ
ルデータの伴奏時間データから求まる伴奏時間を、前記
前側のスタイルデータの伴奏時間から求まる伴奏時間と
前記合成位置よりも時系列的に後側のスタイルデータの
伴奏時間データから求まる伴奏時間とを加算した伴奏時
間に変更して新スタイルデータを生成する生成手段と、 前記後側のスタイルデータを削除する削除手段と を備え
たことを特徴とする演奏データ編集装置。 2. A playing device used in an automatic playing device.
In the performance data editing apparatus for editing the performance data, the performance data includes style data arranged in chronological order.
The style data including style sequence data
Determines the accompaniment time for the specified accompaniment style.
The accompaniment time data and the accompaniment style are specified.
Accompaniment time obtained from the accompaniment time data of each style data including the style number data for
Display that displays as an edit target mark having a predetermined shape
Means and a synthesizing operation for the mark to be edited by the user.
A composite position designating means for designating a composite position based on the above, and a styling in front of the specified composite position in time series.
The accompaniment time obtained from the accompaniment time data
The accompaniment time obtained from the accompaniment time of the style data on the front side
Of the style data on the rear side in time series from the composite position
Accompaniment time when the accompaniment time obtained from the accompaniment time data is added
Comprising generation means for generating a new-style data change between, and deletion means for deleting the style data of the rear
A performance data editing device characterized in that
よる伴奏に対応するソングデータを参照可能に同時表示
することを特徴とする請求項1または2に記載の演奏デ
ータ編集装置。 3. The display means displays the style data.
Simultaneous display of song data corresponding to the accompaniment
The performance data according to claim 1 or 2, characterized in that
Data editing device.
タの編集機能を実現させるためのプログラムを記録した
記録媒体であって、 前記演奏データは、スタイルデータを時系列順に並べた
スタイルシーケンスデータを含み、前記スタイルデータ
は、指定された伴奏スタイルによる伴奏時間を求めるた
めの伴奏時間データと、前記伴奏スタイルを指定するた
めのスタイルナンバデータとを含み、 前記コンピュータに、 各スタイルデータの伴奏時間データから求まる伴奏時間
を所定形状を有する編集対象マークとして表示する表示
機能と、 ユーザによる前記編集対象マークに対する切離操作に基
づいて分離位置を指定するための分離位置指定機能と、 前記指定された分離位置に対応する一つのスタイルデー
タの伴奏時間データから求まる伴奏時間を、前記一つの
スタイルデータによる伴奏の開始位置から前記分離位置
までに相当する伴奏時間に変更して第1の新スタイルデ
ータを生成する生成機能と、 前記分離位置から前記一つのスタイルデータによる伴奏
の終了位置までに相当する伴奏時間を有する第2の新ス
タイルデータを生成し、生成した第2の新スタイルデー
タを前記スタイルシーケンスデータ中の前記分離位置に
挿入する挿入機 能とを実現させるためのプログラムを記
録したコンピュータ読み取り可能な記録媒体。 4. A computer of an automatic performance device stores performance data.
A program for realizing the editing function of the computer was recorded.
It is a recording medium, and the performance data is style data arranged in chronological order.
The style data including style sequence data
Determines the accompaniment time for the specified accompaniment style.
The accompaniment time data and the accompaniment style are specified.
Accompaniment time obtained from the accompaniment time data of each style data in the computer, including the style number data for
Display that displays as an edit target mark having a predetermined shape
Based on the function and the user's separation operation for the edit target mark.
Separation position specification function for specifying the separation position based on the above, and one style data corresponding to the specified separation position.
The accompaniment time obtained from the accompaniment time data of the
From the start position of the accompaniment by the style data to the separation
Change to the accompaniment time equivalent to
Data generation function and accompaniment by the one style data from the separation position
The second new track with an accompaniment time equivalent to the end position of
Generates tile data and creates the second new style data
Data to the separation position in the style sequence data.
Serial programs for realizing an insertion function for inserting
Recorded computer-readable recording medium.
タの編集機能を実現させるためのプログラムを記録した
記録媒体であって、 前記演奏データは、スタイルデータを時系列順に並べた
スタイルシーケンスデータを含み、前記スタイルデータ
は、指定された伴奏スタイルによる伴奏時間を求めるた
めの伴奏時間データと、前記伴奏スタイルを指定するた
めのスタイルナンバデータとを含み、 前記コンピュータに、 各スタイルデータの伴奏時間データから求まる伴奏時間
を所定形状を有する編集対象マークとして表示する表示
機能と、 ユーザによる前記編集対象マークに対する合成操作に基
づいて合成位置を指定するための合成位置指定機能と、 前記指定された合成位置よりも時系列的に前側のスタイ
ルデータの伴奏時間データから求まる伴奏時間を、前記
前側のスタイルデータの伴奏時間から求まる伴奏時間と
前記合成位置よりも時系列的に後側のスタイルデータの
伴奏時間データから求まる伴奏時間とを加算した伴奏時
間に変更して新スタイルデータを生成する生成機能と、 前記後側のスタイルデータを削除する削除機能とを実現
させるためのプログラムを記録したコンピュータ読み取
り可能な記録媒体。 5. A computer of an automatic performance device is provided with performance data.
A program for realizing the editing function of the computer was recorded.
It is a recording medium, and the performance data is style data arranged in chronological order.
The style data including style sequence data
Determines the accompaniment time for the specified accompaniment style.
The accompaniment time data and the accompaniment style are specified.
Accompaniment time obtained from the accompaniment time data of each style data in the computer, including the style number data for
Display that displays as an edit target mark having a predetermined shape
Based on the function and the compositing operation for the mark to be edited by the user.
A composite position designating function for designating a composite position based on the above, and a style on the front side in time series of the specified composite position.
The accompaniment time obtained from the accompaniment time data
The accompaniment time obtained from the accompaniment time of the style data on the front side
Of the style data on the rear side in time series from the composite position
Accompaniment time when the accompaniment time obtained from the accompaniment time data is added
Realize the generation function to change the time to generate new style data and the deletion function to delete the style data on the rear side.
Computer read recording program for
Recordable media.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29019197A JP3381581B2 (en) | 1997-10-22 | 1997-10-22 | Performance data editing device and recording medium storing performance data editing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29019197A JP3381581B2 (en) | 1997-10-22 | 1997-10-22 | Performance data editing device and recording medium storing performance data editing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11126068A JPH11126068A (en) | 1999-05-11 |
JP3381581B2 true JP3381581B2 (en) | 2003-03-04 |
Family
ID=17752937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29019197A Expired - Fee Related JP3381581B2 (en) | 1997-10-22 | 1997-10-22 | Performance data editing device and recording medium storing performance data editing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3381581B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3700532B2 (en) | 2000-04-17 | 2005-09-28 | ヤマハ株式会社 | Performance information editing / playback device |
JP3785934B2 (en) | 2001-03-05 | 2006-06-14 | ヤマハ株式会社 | Automatic accompaniment apparatus, method, program and medium |
JP3778175B2 (en) * | 2003-04-28 | 2006-05-24 | ヤマハ株式会社 | Chord information display device and method, and recording medium therefor |
-
1997
- 1997-10-22 JP JP29019197A patent/JP3381581B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11126068A (en) | 1999-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3740908B2 (en) | Performance data processing apparatus and method | |
US6403871B2 (en) | Tone generation method based on combination of wave parts and tone-generating-data recording method and apparatus | |
JP3484988B2 (en) | Performance information editing method and recording medium storing performance information editing program | |
JP3700532B2 (en) | Performance information editing / playback device | |
JP3551087B2 (en) | Automatic music playback device and recording medium storing continuous music information creation and playback program | |
JP3381581B2 (en) | Performance data editing device and recording medium storing performance data editing program | |
JP2004078095A (en) | Playing style determining device and program | |
JP3407623B2 (en) | Chord progression creation support device and recording medium recording chord progression creation support program | |
JP3709821B2 (en) | Music information editing apparatus and music information editing program | |
US6355871B1 (en) | Automatic musical performance data editing system and storage medium storing data editing program | |
JP3843688B2 (en) | Music data editing device | |
JP2000214853A (en) | Music composing device | |
JP4552769B2 (en) | Musical sound waveform synthesizer | |
JP3487176B2 (en) | Performance information creation display device and recording medium therefor | |
JP3956961B2 (en) | Performance data processing apparatus and method | |
JP3709820B2 (en) | Music information editing apparatus and music information editing program | |
JP3371774B2 (en) | Chord detection method and chord detection device for detecting chords from performance data, and recording medium storing a chord detection program | |
JP3823951B2 (en) | Performance information creation and display device and recording medium therefor | |
JP3797180B2 (en) | Music score display device and music score display program | |
JP3267226B2 (en) | Automatic accompaniment device and medium recording automatic accompaniment control program | |
JP3669335B2 (en) | Automatic performance device | |
JP4186802B2 (en) | Automatic accompaniment generator and program | |
JP3327188B2 (en) | Chord progression creation support device and recording medium recording chord progression creation support program | |
JP3562341B2 (en) | Editing method and apparatus for musical sound data | |
JP3775039B2 (en) | Melody generator and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081220 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081220 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091220 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111220 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |