JP2000214853A - Music composing device - Google Patents

Music composing device

Info

Publication number
JP2000214853A
JP2000214853A JP11288013A JP28801399A JP2000214853A JP 2000214853 A JP2000214853 A JP 2000214853A JP 11288013 A JP11288013 A JP 11288013A JP 28801399 A JP28801399 A JP 28801399A JP 2000214853 A JP2000214853 A JP 2000214853A
Authority
JP
Japan
Prior art keywords
music
accompaniment
accompaniment pattern
data
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11288013A
Other languages
Japanese (ja)
Inventor
Yasuto Saito
康人 齋藤
Hiroko Mejika
寛子 女鹿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland Corp
Original Assignee
Roland Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roland Corp filed Critical Roland Corp
Priority to JP11288013A priority Critical patent/JP2000214853A/en
Publication of JP2000214853A publication Critical patent/JP2000214853A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To accomplish music composing work accurately and rapidly by enabling a tune portion of a musical piece under composition to be listened on a trial basis at the site, in order to check if it is good or bad while the musical piece is being composed with a music composing apparatus, in a music composing device for composing music on a display screen by using a computer or the like. SOLUTION: This music composing device is equipped with a memory means for memorizing a plurality of accompaniment patterns, an accompaniment-pattern display means for displaying the plurality of accompaniment patterns on a screen, a musical piece preparing area display means for displaying a musical piece preparing area for preparing musical data by combining the accompaniment patterns with each other, a sound-generation designating means for selecting an arbitrary accompaniment pattern from among the plurality of accompaniment patterns and designating it for sound generation, a musical sound generating means for generating musical sound signals for generating sounds according to the accompaniment pattern designated by the sound-generation designating means, and a musical piece preparing means for preparing musical data by selecting an arbitrary accompaniment pattern from among the plurality of accompaniment patterns and installing it in the musical piece preparing area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は計算機(コンピュータ)
などを用いてディスプレイ画面上で作曲を行う作曲装置
に関するものである。
The present invention relates to a computer (computer).
The present invention relates to a music composer that composes music on a display screen using the same.

【0002】[0002]

【従来の技術】従来、楽譜をコンピュータを利用して作
成する装置としては例えば特公平3−24679号に提
案された楽譜作成装置がある。この装置は画面上に譜表
と音符群を表示し、その音符群のうちから任意の音符を
ライトペンで一つ一つ選択して譜表に書き込むというも
のであり、それまで手書きで行っていた楽譜作成を機械
的に行えるようにしている。
2. Description of the Related Art Conventionally, as an apparatus for creating a musical score using a computer, there is, for example, a musical score creating apparatus proposed in Japanese Patent Publication No. Hei 3-24679. This device displays a staff and a group of notes on the screen, selects arbitrary notes from the group of notes with a light pen, and writes them on the staff. Creation can be done mechanically.

【0003】またパーソナルコンピュータ用の楽譜作成
ソフトウェア(例えば商品名“Bandin a box ”など)
が市販されており、これらのものは、楽譜作成にあたっ
てまず最初にシートに対して音楽スタイル(ジャズ、ワ
ルツ等の伴奏スタイル)を指定し、次に小節の頭から順
次に伴奏パターンとコードを詰め込んで作曲を行う。あ
るいは伴奏パターンの変わりめの所で、次に変わる伴奏
パターン番号を書き込んでいく(次の伴奏パターン変更
のポイントまではその伴奏パターンが繰り返されるとい
う、いわゆるリアルタイム自動伴奏楽器と同じ動作)。
この方法では、初めに指定されたスタイルの伴奏パター
ンは全てメインパターン(オーソドックスなパターン)
になり、この後に指定した部分だけをフィルインにした
り、エンディングにしたり指定して作曲をする。
[0003] Music score creation software for personal computers (for example, product name "Bandin a box" etc.)
These are available on the market. In the case of musical score creation, music styles (accompaniment styles such as jazz and waltz) are first specified for the sheet, and then accompaniment patterns and chords are packed sequentially from the beginning of the bar. Compose with. Alternatively, at the point where the accompaniment pattern is changed, the next accompaniment pattern number is written (the same operation as a so-called real-time automatic accompaniment instrument in which the accompaniment pattern is repeated until the next accompaniment pattern change point).
In this method, all accompaniment patterns of the style specified first are the main patterns (orthodox patterns)
Then, only the specified part is filled in or ending, and the song is composed.

【0004】[0004]

【発明が解決しようとする課題】上述した従来の楽譜作
成装置では、作成した楽譜の曲のよし悪しをチェックす
るには、楽譜をいったん作成した後に、試聴のためにそ
の演奏を指示することで、その楽譜曲全体を自動演奏す
ることによっている。
In the above-described conventional music score creating apparatus, in order to check the quality of the music of the created music score, once the music score is created, the performance is instructed for audition. By playing the entire score automatically.

【0005】このため、楽譜作成中に、その作成してい
る曲部分のよし悪し(例えば使用する伴奏パターンやコ
ードが適当かなど)をその場でチェックすることができ
なかった。このため、楽譜全体をいったん作成した後に
その試聴をして、作成時の予想と反した気に入らない部
分があれば、再度その部分を作り直すなどの作業が必要
である。特にその修正のために曲全体を楽譜中に再度入
力し直す必要が生ずるような場合もある。このため、そ
の作業にはかなりの労力が必要であり、時間がかかるも
のであった。
[0005] For this reason, during music score creation, it is not possible to check on the spot whether the music portion being created is good (for example, whether an accompaniment pattern or a chord to be used is appropriate). For this reason, once the entire score has been created, it is necessary to listen to it and, if there is a part that does not satisfy the expectations at the time of creation, rework the part again. In particular, in some cases, it may be necessary to re-input the entire song into the score for the correction. For this reason, the work required considerable labor and time.

【0006】本発明はかかる問題点に鑑みてなされたも
のであり、作曲装置で楽曲を作成している最中にも、そ
の作曲中の曲部分をその場で試聴してそのよし悪しを確
認できるようにして、作曲作業を的確にかつ速やかに行
えるようにすることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and even while a music composition device is creating a music composition, the user listens to the music portion of the music composition on the spot and checks the quality of the composition. It is an object of the present invention to be able to perform music composition work accurately and promptly.

【0007】[0007]

【課題を解決するための手段および作用】図1は本発明
に係る作曲装置を概要的に示している図である。上述の
課題を解決するために、本発明に係る作曲装置は、一つ
の形態として、複数の伴奏パターンを記憶する記憶手段
と、上記複数の伴奏パターンを画面に表示する伴奏パタ
ーン表示手段と、伴奏パターンを組み合わせて楽曲デー
タを作成するための楽曲作成領域を画面に表示する楽曲
作成領域表示手段と、上記複数の伴奏パターンのうちか
ら任意の伴奏パターンを選択してして発音指示する発音
指示手段と、上記発音指示手段で指示された伴奏パター
ンを発音するための楽音信号を発生する楽音発生手段
と、上記複数の伴奏パターンのうちから任意の伴奏パタ
ーンを選択して上記楽曲作成領域に組み付けて楽曲デー
タを作成する楽曲作成手段とを備える。この作曲装置で
は、画面に表示された楽曲作成領域において、楽曲作成
手段により伴奏パターンを適宜選択してそれら選択した
伴奏パターンを組み合わせて楽曲データを作成するにあ
たり、その使用する伴奏パターンの発音を発音指示手段
により指示することで、その伴奏パターンの楽音信号を
楽音発生手段によりその場で発生して、スピーカなどで
発音させることができる。これにより、使用する伴奏パ
ターンが適当か否かをその場でチェックすることができ
る。
FIG. 1 is a diagram schematically showing a music composition apparatus according to the present invention. In order to solve the above-described problems, a composition device according to the present invention includes, as one form, a storage unit that stores a plurality of accompaniment patterns, an accompaniment pattern display unit that displays the plurality of the accompaniment patterns on a screen, and an accompaniment. Music creation area display means for displaying a music creation area for creating music data by combining patterns on a screen, and sound instructing means for selecting an arbitrary accompaniment pattern from among the plurality of accompaniment patterns and instructing sound generation And a tone generating means for generating a tone signal for generating the accompaniment pattern designated by the pronunciation instructing means; and selecting an arbitrary accompaniment pattern from the plurality of accompaniment patterns and assembling the selected accompaniment pattern in the music composition area. Music creating means for creating music data. In this music composition device, in the music composition area displayed on the screen, when the music composition means appropriately selects accompaniment patterns and combines the selected accompaniment patterns to create music data, the pronunciation of the accompaniment pattern used is pronounced. By instructing by the instructing means, the musical sound signal of the accompaniment pattern can be generated on the spot by the musical sound generating means and sounded by a speaker or the like. This makes it possible to check on the spot whether or not the accompaniment pattern to be used is appropriate.

【0008】また、本発明に係る作曲装置は、他の形態
として、楽曲データを作成するための楽曲作成領域を画
面に表示する楽曲作成領域表示手段と、上記楽曲作成領
域で作成する楽曲の任意部分に対してコードを指定する
コード指定手段と、上記指定コードによる発音を指示す
る指示手段と、上記指示手段の指示に従ってその指定コ
ードで上記任意部分の楽曲データを発音するための楽音
信号を発生する楽音発生手段と、上記楽曲作成領域の設
定内容に基づいて楽曲データを作成する楽曲作成手段と
を備える。この作曲装置では、画面に表示された楽曲作
成領域において、コード指定手段で楽曲のコードを適宜
に指定しつつ楽曲データを作成していくが、その際、コ
ードを指定した時などに指示手段によりその発音を指示
すると、その指定したコードによる楽曲データの楽音信
号をその場で発生して、スピーカなどで発音させること
ができる。これにより、使用するコードが適当か否かを
その場でチェックすることができる。
According to another aspect of the music composition device of the present invention, there is provided a music composition area display means for displaying a music composition area for creating music data on a screen, and an arbitrary music composition created in the music composition area. Code designating means for designating a chord for a portion, instructing means for instructing sounding by the designated code, and generating a tone signal for sounding the music data of the arbitrary portion with the designated code in accordance with the instruction of the instruction means Music generating means for generating music data based on the setting contents of the music creating area. In this music composition device, in the music composition area displayed on the screen, the music data is created while appropriately designating the code of the music by the code designating means. When the pronunciation is instructed, a tone signal of the music data by the designated code is generated on the spot and can be emitted by a speaker or the like. Thus, it is possible to check on the spot whether the code to be used is appropriate or not.

【0009】[0009]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図2には本発明の一実施例としての作曲装置のシ
ステム構成が示される。図2において、1はFD駆動装
置を含むパーソナルコンピュータの本体装置、2はディ
スプレイ装置、3はキーボード、4はマウスであり、楽
譜作成ソフトウェアを格納したフロッピィディスク5を
本体装置1にセットすることでパーソナルコンピュータ
が作曲装置として機能するようになっている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 shows a system configuration of a music composition apparatus as one embodiment of the present invention. In FIG. 2, 1 is a main unit of a personal computer including an FD drive, 2 is a display device, 3 is a keyboard, 4 is a mouse, and a floppy disk 5 storing music creation software is set in the main unit 1. A personal computer functions as a music composition device.

【0010】6は本体装置1からのコンピュータ信号に
よる楽譜データをMIDIデータに変換するMIDI変
換器、7はMIDI変換器6からのMIDIデータに基
づいて各種パートの音源信号をアナログ波形で発生する
マルチ音源、8、9はマルチ音源7からの音源信号を発
音するための左右のスピーカである。
Reference numeral 6 denotes a MIDI converter for converting musical score data based on a computer signal from the main unit 1 into MIDI data. Reference numeral 7 denotes a multi-unit for generating tone generator signals of various parts based on the MIDI data from the MIDI converter 6 as analog waveforms. The sound sources 8, 9 are left and right speakers for generating sound source signals from the multi sound source 7.

【0011】この実施例装置では、図3に示されるよう
に、ディスプレイ画面上にキャンバスと称される、曲の
進行に対応する時系列である楽譜作成領域を表示し、予
め用意された伴奏パターン、メロディ、音声、映像のデ
ータベースから所望のデータを適宜に選択してこのキャ
ンバス上にいわば貼り付け、さらにコードを入力するこ
とにより作曲を行い楽譜データを作成していく。
In this embodiment, as shown in FIG. 3, a musical score creation area called a canvas, which is a time series corresponding to the progress of music, is displayed on a display screen, and an accompaniment pattern prepared in advance is displayed. The desired data is appropriately selected from a melody, audio, and video database, pasted on this canvas, so to speak, and a code is input to compose music to create musical score data.

【0012】図4にはこのキャンバス10の構成例が示
される。このキャンバス10はディスプレイ画面上にウ
ィンドウの形で表示されており、伴奏パターン、メロデ
ィ、、音声、映像(動画、静止画)の素片データを貼り
付け、コードを入力して曲を完成させるシートとして機
能するものである。図示のように、小節単位に区切られ
たライン(譜表に対応するもの)11からなり、このラ
イン11の上半分は映像データと音声データを貼り付け
るための領域、下半分はメロディと伴奏パターンを貼り
付けるための領域であり、最下部には拍単位でコード指
定アイコンが音符の形で表示されていてここにコードを
拍単位で設定できるようになっている。
FIG. 4 shows a configuration example of the canvas 10. This canvas 10 is displayed in the form of a window on the display screen, and is a sheet for pasting unit data of accompaniment patterns, melodies, audio and video (moving images, still images), and inputting a code to complete a song. It functions as. As shown in the figure, a line (corresponding to a staff) 11 is divided into measures. The upper half of the line 11 is a region for pasting video data and audio data, and the lower half is a melody and accompaniment pattern. This is an area for pasting, and at the bottom, a chord designation icon is displayed in the form of a note in beat units, and a chord can be set here in beat units.

【0013】またキャンバス10の上側には各種制御用
の領域が設けられていてマウス4を滑らして位置指定す
ることで各種制御操作を行えるようになっている。例え
ばメロディアイコン(melo)を指定すれば後述のメロディ
パレットが、伴奏パターンアイコン(ptn) を指定すれば
伴奏パターンパレットが、映像アイコン(movie) を指定
すれば映像パレットが、音声アイコン(sound) を指定す
れば音声パレットがそれぞれディスプレイ画面上に呼び
出されてキャンバスのラインと重ならないように表示さ
れる。
On the upper side of the canvas 10, various control areas are provided, and various control operations can be performed by sliding the mouse 4 to specify a position. For example, if the melody icon (melo) is specified, the melody palette described later is specified.If the accompaniment pattern icon (ptn) is specified, the accompaniment pattern palette is specified.If the video icon (movie) is specified, the video palette is set to the sound icon (sound). If specified, each voice palette is called on the display screen and displayed so as not to overlap the line on the canvas.

【0014】伴奏パターン、メロディ、コード、映像、
音声の素片データはそれらのデータ名を予め登録した表
(以下、パレットと称する)をディスプレイ画面上にウ
ィンドウの形で呼び出して所望のものを適宜に選択でき
るようになっている。これらのパレットは例えば伴奏パ
ターンを登録するパレットは伴奏パターンパレット、メ
ロディを登録するパレットはメロディパレットなどと呼
ぶ。
Accompaniment pattern, melody, chord, video,
As for the voice segment data, a table (hereinafter referred to as a “palette”) in which those data names are registered in advance is called in the form of a window on a display screen, and a desired one can be selected appropriately. For example, a palette for registering an accompaniment pattern is called an accompaniment pattern palette, and a palette for registering a melody is called a melody palette.

【0015】図5にはパレットの例として伴奏パターン
パレットが示される。種々の伴奏が伴奏パターンとして
素片の形で予め作成されてそれぞれにパターン名が付さ
れており、これらのパターン名にそれぞれ対応してその
パターンのロール名と小節数が登録されている。ロール
名はその伴奏パターンの音楽上の役割を表すもので、イ
ントロ(Intro) 、フィルイン(Fillin)、メイン(Main)、
エンディング(Ending)などがある。小節数はそのパター
ン名の伴奏パターンの長さを表す。このような伴奏パタ
ーンパレットが各スタイル(傾向の同じ一群の伴奏パタ
ーンを一纏めにしたもので、例えばロック、ジャズ、ブ
ルース、ワルツ別などに纏めたもの)別に用意される。
FIG. 5 shows an accompaniment pattern palette as an example of the palette. Various accompaniment patterns are created in the form of segments as accompaniment patterns in advance, and pattern names are given to the accompaniment patterns. The role names and the number of measures of the patterns are registered in correspondence with these pattern names. The role name indicates the musical role of the accompaniment pattern, including intro (Intro), fill-in (Fillin), main (Main),
There is an ending (Ending). The number of measures indicates the length of the accompaniment pattern of the pattern name. Such an accompaniment pattern palette is prepared separately for each style (a group of accompaniment patterns of the same tendency, for example, rock, jazz, blues, waltz, etc.).

【0016】図6には伴奏パターンパレット内の各伴奏
パターンについてその内容(パラメータ)を細かく設定
するためのウィンドウ(パターン情報ウィンドウ)の表
示例が示される。図示のように、ウィンドウ上側領域を
用いてテンポ(Tempo) 、拍(Meter) 、小節数(Meas)、ロ
ール(Role)、パターン名(Name)、コピーライト(Copyrig
ht) 、メモ(Memo)などを設定できる。ここでロールは上
述のようにイントロ、メイン、フィルイン、エンディン
グのうちから何れかを選択できる。また一つの伴奏パタ
ーンは10のトラックで構成されており、ウィンドウ下
側領域を用いて各トラックについてパート(Part)、トラ
ック名(Name)、音色(Tone)、メモ(Memo)を設定できる。
このうちパートとしてはベースパート(Bass)、伴奏パー
ト(Acmp)、ドラムパート(Drum)のうちから何れかを選択
して設定することができる。
FIG. 6 shows a display example of a window (pattern information window) for finely setting the contents (parameters) of each accompaniment pattern in the accompaniment pattern palette. As shown in the figure, the tempo (Tempo), beat (Meter), number of measures (Meas), roll (Role), pattern name (Name), copyright (Copyrig
ht), memo (Memo), etc. can be set. Here, the roll can be selected from among intro, main, fill-in, and ending as described above. One accompaniment pattern is composed of ten tracks, and a part (Part), a track name (Name), a tone (Tone), and a memo (Memo) can be set for each track using the lower area of the window.
The part can be set by selecting any one of a bass part (Bass), an accompaniment part (Acmp), and a drum part (Drum).

【0017】同様にして、メロディパレット、音声パレ
ット、映像パレットについても各種パラメータをウィン
ドウにより設定できるようになっている。なおメロディ
パレットはシーケンサなどで再生したメロディをリアル
タイム録音したり、あるいはユーザ自身がメロディをキ
ーボード(鍵盤)などを用いて自作して登録するなどし
て作成する。音声パレットは人の声やその他の種々の効
果音などを予め作成して登録することで作成する。また
映像パレットは動画や静止画などの映像を予め作成して
登録することで作成する。
Similarly, various parameters can be set for the melody palette, the audio palette, and the video palette using windows. The melody palette is created by recording a melody reproduced by a sequencer or the like in real time, or by creating and registering a melody by using a keyboard (keyboard). The voice palette is created by creating and registering a human voice and various other sound effects in advance. The video palette is created by creating and registering a video such as a moving image or a still image in advance.

【0018】キャンバス上に各種データを貼り付ける方
法を伴奏パターンの場合を例にして以下に説明する。ま
ず、ディスプレイ画面上にウィンドウにより図5のよう
な伴奏パターンパレットを呼び出して表示し、その伴奏
パターンパレット内の、キャンバスに貼り付けたい伴奏
パターンの位置にマウスを持っていきクリックすること
でパレットからその伴奏パターンを掴み上げる。そし
て、その伴奏パターンをクリックしたままそれを貼り付
けたいキャンバス内のライン位置(図4に示すライン1
1の下半分領域)に運んでマウスボタンを離すことによ
り、その伴奏パターンをキャンバンに貼り付ける(すな
わち書き込む)。このデータの貼付けにあたってはキャ
ンバス上の貼付け場所を小節単位または拍(ビート)単
位で選ぶことができる。なお、表示されている伴奏パタ
ーンを聴いてみたい場合には、その伴奏パターンの位置
にマウスを持っていき、ダブルクリックなどの操作によ
り自動演奏されるようにする。
A method of pasting various data on a canvas will be described below by taking an accompaniment pattern as an example. First, the accompaniment pattern palette as shown in FIG. 5 is called and displayed on the display screen by a window, and the mouse is moved to the position of the accompaniment pattern to be pasted on the canvas in the accompaniment pattern palette, and clicked. Grab that accompaniment pattern. Then, while clicking the accompaniment pattern, click the line position in the canvas where you want to paste it (line 1 shown in FIG. 4).
1 lower half area) and release the mouse button to paste (ie, write) the accompaniment pattern onto the canvas. In pasting this data, the pasting place on the canvas can be selected in a measure unit or a beat (beat) unit. When the user wants to listen to the displayed accompaniment pattern, he or she brings the mouse to the position of the accompaniment pattern, and the performance is automatically performed by an operation such as double-click.

【0019】メロディ、音声、映像についても伴奏パタ
ーンと同様に、それらのパレットをディスプレイ画面に
呼び出してそれらのパレット中から所望のデータを掴み
出し、キャンバスに貼りつけていく。この貼付けも小節
単位または拍(ビート)単位で選ぶことができる。例え
ば図4には、メロディの貼付けと共に、ライン11に映
像として静止画(Pict) と動画(movie) を、また音声(s
ound) を貼り付けた例が示される。映像と音声について
は、一のデータを貼り付けた位置から次の他のデータの
貼り付けられた位置まではそのデータが継続される。
As with the accompaniment pattern, the melody, audio and video are called out on the display screen, and the desired data is grabbed from the pallets and pasted on the canvas. This pasting can also be selected in measures or in beats. For example, FIG. 4 shows a still image (Pict) and a moving image (movie) as a video,
ound) is shown. For video and audio, the data is continued from the position where one piece of data is pasted to the position where another piece of data is pasted.

【0020】この貼付けにあたっては、例えば図7の
(1)に示されるように、一の伴奏パターン(例えば
B)を先頭小節を異ならせるなどして隣接する小節の伴
奏パターン(例えばA)に重なり合わせることも可能で
ある。この場合の重なり部分の処理としては図7の
(2)〜(4)に示されるように以下の三つの処理方法
を指定することができる。
In this pasting, for example, as shown in (1) of FIG. 7, one accompaniment pattern (eg, B) is overlapped with an accompaniment pattern (eg, A) of an adjacent measure by changing the first measure. It is also possible to match. In this case, the following three processing methods can be designated as the processing of the overlapping portion as shown in (2) to (4) of FIG.

【0021】処理方法1では図7(2)に示すように後
の小節の伴奏パターンBが前の小節の伴奏パターンAを
マスクする。処理方法2では図7(3)に示すように前
の小節の伴奏パターンAが後の小節の伴奏パターンBを
マスクする。処理方法3では図7(4)に示すように伴
奏パターンAと伴奏パターンBが共存するようにする。
共存の仕方としては、伴奏パターンがMIDIデータの
場合、 伴奏パターンAと伴奏パターンBを完全に混ぜて発音
出力する. 伴奏パターンAと伴奏パターンBをMIDIチャネル
毎に論理和(OR)をとって出力する.などがある。
In processing method 1, as shown in FIG. 7 (2), the accompaniment pattern B of the subsequent bar masks the accompaniment pattern A of the preceding bar. In the processing method 2, as shown in FIG. 7C, the accompaniment pattern A of the preceding bar masks the accompaniment pattern B of the subsequent bar. In the processing method 3, as shown in FIG. 7D, the accompaniment pattern A and the accompaniment pattern B coexist.
As a coexistence method, when the accompaniment pattern is MIDI data, the accompaniment pattern A and the accompaniment pattern B are completely mixed and output. An accompaniment pattern A and an accompaniment pattern B are ORed for each MIDI channel and output. and so on.

【0022】上記のの場合、例えば MIDIチャネル番号 伴奏パターンA 伴奏パターンB OR出力 1 ○ × → A 2 × × → − 3 × ○ → B 4 ○ ○ → A ・ ・ ・ ・ ・ ・ ・ ・ などとする。但し、○は伴奏パターン有り、×は伴奏パ
ターン無しを表す。つまり、MIDIチャネル1はOR
出力として伴奏パターンAを、MIDIチャネル3はO
R出力として伴奏パターンBを選択出力し、MIDIチ
ャネル2は出力を出さない。MIDIチャネル4のよう
に伴奏パターンA、Bが共にあるチャネルにおいては、
前の伴奏パターンを優先させる、後の伴奏パターンを優
先させる、どちらを優先させるかその都度設定する、な
どにその処理を決める。
In the above case, for example, MIDI channel number Accompaniment pattern A Accompaniment pattern BOR output 1 ○ × → A 2 × × → -3 × ○ → B 4 ○ ○ → A · · · · · · · · I do. However, ○ indicates that there is an accompaniment pattern, and × indicates that there is no accompaniment pattern. That is, MIDI channel 1 is OR
Accompaniment pattern A as output, MIDI channel 3
The accompaniment pattern B is selectively output as the R output, and the MIDI channel 2 does not output. In a channel having both accompaniment patterns A and B such as MIDI channel 4,
The processing is determined to prioritize the preceding accompaniment pattern, prioritize the subsequent accompaniment pattern, or set which one is prioritized each time.

【0023】上記の小節に跨がるデータの重なりは他の
メロディ、音声、映像のデータについても同じにように
可能であり、このうちメロディについては伴奏パターン
と同じ取扱いを行う。音声については、重なり部分で、 前の音声Aと後の音声Bを完全に混ぜて出力する. 前の音声Aをフェードアウトしながら後の音声Bをフ
ェードインする.などするとよい。映像については重な
り部分で後述するような種々の映像効果を指定して場面
転換を図るようにする。
The overlapping of the data over the above measures can be similarly applied to other melody, audio and video data, and the melody is treated in the same manner as the accompaniment pattern. As for the voice, the preceding voice A and the following voice B are completely mixed and output at the overlapping part. Fade out the previous sound A while fading in the next sound B. And so on. With regard to the video, various video effects, which will be described later, are designated in the overlapping portion, and the scene is changed.

【0024】図8および図9には上述のデータの重なり
処理をウィンドウにより設定する手法が示される。ここ
で、図8は伴奏パターン(MIDIデータ)、メロディ
(MIDIデータ)、音声についての設定用のウィンド
ウ、図9は映像についての設定用のウィンドウを示す。
FIGS. 8 and 9 show a method of setting the above-mentioned data overlapping process by using a window. Here, FIG. 8 shows a window for setting an accompaniment pattern (MIDI data), a melody (MIDI data), and audio, and FIG. 9 shows a window for setting an image.

【0025】まず伴奏パターン、メロディ、音声の場合
について説明すると、図8のウィンドウ(ダイアログ)
をディスプレイ画面に呼び出して重なり処理を設定し、
指定された音響効果で前のデータAから後のデータBへ
と移行させる。データの重なり処理の種類としては、ス
トリーム(Stream)の欄によって前述の図7に対応させ
て、データAを優先、データBを優先、データAとデー
タBの共存、のうちから一つをマウスにより選択する。
共存を選択した場合、チャネル(Channel) の欄を用いて
MIDIチャネルが重なっている場合(前述のMIDI
チャネル4の場合)にデータAとデータBの何れを優先
させるかの設定をマウスにより選択する。
First, the case of accompaniment pattern, melody, and voice will be described.
On the display screen to set the overlap processing,
A transition is made from the preceding data A to the following data B with the designated sound effect. As for the type of data overlapping processing, one of the data A priority, the data B priority, and the coexistence of the data A and the data B is assigned to the mouse in accordance with the above-mentioned FIG. Select by.
When the coexistence is selected, when the MIDI channels are overlapped using the channel column (the above-described MIDI
The setting of which of data A and data B is prioritized in the case of channel 4) is selected by a mouse.

【0026】データAからデータBへの移行時に音響効
果を付与するときにはMIDIの欄を用いて音響効果の
設定をマウスで行う。設定できる音響効果としては、 フェード(Fade)効果:データAの音量を徐々に下げて
データBの音量を徐々に上げていく(特に音声などの場
合に効果的). ワイプ(Wipe)効果:パン(Pan) 効果と音量によってデ
ータAの音を中央から左右へと移動させつつ消去し、一
方、データBの音を左右から中央へ現れるようになどす
る. ベンド(Bend)効果:データAの音高をデータBの音高
へベンド効果で移行させて切り替える. モデュレーション(Modurtate) 効果:データAとデー
タBにモデュレーション効果を付加しながら切り替え
る. がある。これらの効果は一つ、あるいは複数を選択して
付加することが可能である。付加された効果はデータA
とデータBの重なり合う時間内、あるいはMIDI効果
処理時間設定用のタイマ(Time)の欄に設定した時間内に
処理される。
When a sound effect is applied at the time of transition from data A to data B, the sound effect is set using a mouse using the MIDI column. The sound effects that can be set are: Fade effect: the volume of data A is gradually decreased and the volume of data B is gradually increased (especially effective for voices, etc.). Wipe effect: The sound of data A is moved while moving from the center to the left and right by the pan effect and volume, and the sound of data B is made to appear from the left and right to the center. Bend (Bend) ) Effect: The pitch of data A is shifted to the pitch of data B with a bend effect and switched. Modulation effect: Switching while adding a modulation effect to data A and data B. One or more of these effects can be selected and added. The added effect is data A
The processing is performed within the time when data and data B overlap, or within the time set in the timer (Time) column for setting the MIDI effect processing time.

【0027】次に映像の場合について説明すると、図9
のウィンドウ(ダイアログ)をディスプレイ画面に呼び
出して重なり処理を設定し、指定された効果で前の映像
Aから後の映像Bへと移行させる。映像の重なり処理の
種類としては、上述同様にストリーム(Stream)の欄によ
って前述の図7に対応させて選択する。
Next, the case of an image will be described.
Window (dialog) is called on the display screen to set the overlap processing, and the transition from the previous video A to the subsequent video B is performed with the specified effect. As described above, the type of the video overlap processing is selected in accordance with the above-described FIG.

【0028】映像Aから映像Bへの移行時に映像効果を
付与するときには映像(Picture) の欄を用いて映像効果
の設定をマウスで行う。設定できる映像効果としては、 ワイプ(Wipe)効果:映像Aを、右から左へ、左から右
へ、上から下へ、あるいは下から上へと消去させつつ代
わりに映像Bを画面に入れて画面転換する. ブラインド(Blinds)効果:横方向または縦方向に映像
Aを分割し、各分割区間にワイプ効果を付加する. 円(Circle)効果、楕円(Ovel)効果、正方形(Square)効
果、長方形(Rectangle) 効果:中央から各方向へ、ある
いは各方向から中央へと、円、楕円、正方形、長方形で
ワイプ効果を付加する. カーテン(Curtains)効果:中央から左右へ、あるいは
左右から中央へとワイプ効果を付加する. フラッシュ(Flush) 効果:映像Aと映像Bを短時間交
互に映し出しながら映像Bへと移行させる. フェード(Fade)効果:映像Aを濃→淡によって消去
し、代わりに映像Bを淡→濃によって画面に映し出して
いくなどする. モルフィン(Morphing)効果:映像Aの画像形状と映像
Bの画像形状による効果を付加する.がある。
When a video effect is applied at the time of transition from the video A to the video B, the video effect is set using a mouse using the picture column. Image effects that can be set include: Wipe effect: Image A is erased from right to left, left to right, top to bottom, or bottom to top, and instead image B is put on the screen. The screen is changed. Blinds effect: The image A is divided horizontally or vertically, and a wipe effect is added to each divided section. A circle effect, an ellipse (Ovel) effect, a square (Square) effect, Rectangle effect: Adds a circle, ellipse, square, or rectangle wipe effect from the center to each direction or from each direction to the center. Curtains effect: Center to left or right or left to right to center Flash effect: The video A and the video B are shifted to the video B while being alternately projected for a short time. Fade effect: The image A is erased by dark → light, and the image B is projected on the screen by light → dark instead. Morphing effect: Image shape of image A and image shape of image B The effect is added.

【0029】これらの効果は一つ、あるいは複数を選択
して付加することが可能である。付加された効果は映像
Aと映像Bの重なり合う時間内、あるいは映像効果処理
時間設定用のタイマ(Time)の欄に設定した時間内に処理
される。また音声(Sound) の欄は映像に伴った音声の転
換に上述のフェード効果を付加する時に用いられる。
One or more of these effects can be selected and added. The added effect is processed within the time when the image A and the image B overlap, or within the time set in the timer (Time) column for setting the image effect processing time. The column of "Sound" is used when the above-mentioned fade effect is added to the conversion of the sound accompanying the video.

【0030】なお、上述の転換態様の他に、以下に述べ
るように、指定した映像効果に応じて音響効果を決めた
り、音響効果に応じて映像効果を決めたりすることもで
きる。 (1)映像効果に応じた音響効果の付加 指定された映像効果に応じて音響効果を付加させるもの
で、例えば映像効果としてフェード効果が指定された場
合には音響効果としてもフェード効果が自動的に選択さ
れるようにしたり、映像効果として右から左へのワイプ
効果が指定され場合には音響効果としても右から左への
ワイプ効果が自動的に選択されるようにするなど、指定
された映像効果に対応して選択される音響効果の組合わ
せを予め決めておく。
Note that, in addition to the above-described conversion mode, as described below, a sound effect can be determined according to a designated video effect, or a video effect can be determined according to the sound effect. (1) Addition of sound effect according to video effect The sound effect is added according to the specified video effect. For example, when the fade effect is specified as the video effect, the fade effect is automatically used as the sound effect. Or if the right-to-left wipe effect is specified as the video effect, the right-to-left wipe effect is also automatically selected as the sound effect. A combination of sound effects selected according to the video effect is determined in advance.

【0031】(2)音響効果に応じた映像効果の付加 指定された音響効果に応じて映像効果を付加させるもの
で、例えば音響効果としてフェード効果が指定された場
合には映像効果としてもフェード効果が自動的に選択さ
れるようにしたり、音響効果としてベンド効果が指定さ
れ場合には映像効果としてブラインド効果が自動的に選
択されるようにするなど、指定された音響効果に対応し
て選択される映像効果の組合わせを予め決めておく。
(2) Addition of video effect according to sound effect A video effect is added according to the specified sound effect. For example, when a fade effect is specified as the sound effect, the fade effect is also used as the video effect. Is automatically selected, or if the bend effect is specified as the sound effect, the blind effect is automatically selected as the video effect. The combination of video effects to be used is determined in advance.

【0032】次に、コードの指定は、図4のキャンバス
ウィンドウにおけるコード指定アイコンによってコード
ルートとコードタイプを別々に指定することで行う。 (1)コードルートの指定 キーボード3のうちの所定のキー(option key) を押し
ながらキャンバスウィンドウにおけるコードルート指定
を行いたい位置にあるコード指定アイコンをマウスでク
リックしてマウスボタンを押したままにすると、図10
に示すようなコードルートのリストがディスプレイ画面
にウィンドウにより表示される。このリストの中で指定
したいコードルートの位置までマウスを滑らせてマウス
ボタンを離すことにより、上記コード指定アイコンの位
置にそのコードルートを書き込め、それによりその位置
以降のコードルートが指定される。
Next, a code is designated by separately designating a code root and a code type using a code designation icon in the canvas window of FIG. (1) Specifying the chord route While pressing a predetermined key (option key) of the keyboard 3, click the chord designation icon at the position on the canvas window where the chord route is to be designated with the mouse, and hold down the mouse button. Then, FIG.
A list of chord routes as shown in FIG. By sliding the mouse to the position of the code route to be designated in this list and releasing the mouse button, the code route can be written at the position of the code designation icon, thereby designating the code route after that position.

【0033】(2)コードタイプの指定 コードルートの指定のときと異なるキー(command key)
を押しながらキャンバスウィンドウにおけるコードタイ
プ指定を行いたい位置にあるコード指定アイコンをマウ
スでクリックしてマウスボタンを押したままにすると、
図11に示すようなコードルートのリストがディスプレ
イ画面にウィンドウにより表示される。このリストの中
で指定したいコードタイプの位置までマウスを滑らせて
マウスボタンを離すことにより、そのコード指定アイコ
ンの位置にコードタイプを書き込め、それによりその位
置以降のコードタイプが指定される。
(2) Designation of code type A different key (command key) from the designation of code root
Hold down the mouse button on the code specification icon at the position where you want to specify the code type in the canvas window, and hold down the mouse button.
A list of code routes as shown in FIG. 11 is displayed in a window on the display screen. By sliding the mouse to the position of the code type to be designated in this list and releasing the mouse button, the code type can be written at the position of the code designation icon, whereby the code type after that position is designated.

【0034】このように所望のコード指定アイコンの位
置に逐次にコード指定すると、その指定された位置以降
は次の他のコードが指定された位置までその指定された
コードで演奏が行われる。ここで指定されたコードはキ
ャンバス上の伴奏パターンデータに反映されることにな
る。
As described above, when a code is sequentially designated at the position of the desired chord designation icon, a performance is performed with the designated chord after the designated position until the next designated chord is designated. The chord specified here is reflected in the accompaniment pattern data on the canvas.

【0035】コードの指定方法としては上述のマウスを
使ってコードを指定する方法の他にも種々の方法が可能
であり、例えばMIDIキーボード(鍵盤)からの指定
も可能である。この場合、キャンバスウィンドウのコー
ド指定アイコンをクリックして反転させ、MIDIキー
ボードから所望のコードを押鍵して入力すると、そのコ
ードのコードルートとタイプが自動的に判定され、上記
コード指定アイコンの位置にコード入力される。
As a method of designating a code, various methods are possible in addition to the method of designating a code using the mouse described above. For example, designation from a MIDI keyboard (keyboard) is also possible. In this case, when the code designation icon on the canvas window is clicked and highlighted, and a desired code is depressed and input from the MIDI keyboard, the code route and type of the code are automatically determined, and the position of the code designation icon is determined. Is entered into the code.

【0036】また他の指定方法として、図12に示すよ
うなコード指定ウィンドウ(ダイアログ)を用いてもよ
い。すなわち、キャンバスウィンドウ内におけるコード
入力したい位置のコード指定アイコンをマウスボタンで
ダブルクリック(マウスボタンを素早く2回押す)する
と、図12に示すコード指定ウィンドウがディスプレイ
画面に表示されるようにする。このコード指定ウィンド
ウ内においてマウスを用いて機能を指定する。使用でき
る機能としては、 コード(Chord) 、分数コード(On Bass) をキーボード
4等を用いて指定. MIDIキーボード(鍵盤)からのコードの指定.こ
の場合、「録音ボタン」を押してMIDIインからコー
ドを入力するとそのコードのルート、タイプが自動判定
されてコード指定される. 「転回型(Invert)ボタン」を押すことで、入力したコ
ードの転回型を順次に変える.例えば、コードCが入力
されている場合はC3、E3、G3が構成音であるが、
一度上記ボタンが押されるとE3、G3、C4となり、
再度押されるとG3、C4、E4となる。このときボタ
ンが押される度に構成音を発音するようにしてもよい. 「トランスポーズ(Transpose) ボタン」を押すこと
で、既に入力したコードを1オクターブだけ高く(また
は低く)トランスポーズさせる.このとき、変更された
構成音を発音するようにしてもよい. 「モニタボタン」を押すと、MIDI出力端子から入
力コードの楽音データが出力されてその試聴を行える. モニタ用(コード試聴用)の音色を設定できる.があ
る。
As another specifying method, a code specifying window (dialog) as shown in FIG. 12 may be used. That is, when the code designation icon at the position where the code is to be input in the canvas window is double-clicked with the mouse button (the mouse button is quickly pressed twice), the code designation window shown in FIG. 12 is displayed on the display screen. The function is designated using the mouse in the code designation window. As functions that can be used, chord (Chord) and fraction code (On Bass) are specified using the keyboard 4 or the like. Designation of chord from MIDI keyboard (keyboard). In this case, when the "record button" is pressed and a chord is input from the MIDI-in, the root and type of the chord are automatically determined and the chord is designated. By pressing the "Invert button", the inversion type of the input code is changed in order. For example, when a code C is input, C3, E3, and G3 are constituent sounds,
Once the above button is pressed, it becomes E3, G3, C4,
When pressed again, it becomes G3, C4, and E4. At this time, each time the button is pressed, the constituent sound may be emitted. Pressing the "Transpose" button transposes the entered chord by one octave higher (or lower). At this time, the changed constituent sound may be generated. When the "monitor button" is pressed, the tone data of the input code is output from the MIDI output terminal, and the preview can be performed. You can set the tone for monitoring (for listening to chords). There is.

【0037】この実施例システムにおいて、コード指定
されていない小節が発生した場合(例えば5小節目の1
拍目で初めてコード指定されそれ以前の小節すなわち先
頭から4小節目まではコード指定されていないなどの場
合)には、そのようなコード指定されていない小節に貼
られた伴奏パターンをどのように演奏するかが問題とな
る。このような、曲の中でコードが割り当てられていな
い部分の伴奏パターンの演奏の処理方法としては、 予め指定したトラックについては伴奏パターンをアレ
ンジしないでそのまま演奏し、それ以外のトラックはミ
ュートする(トラック単位の処理). 伴奏パターン中の各トラックに、ベース、ドラム、ア
カンプといったパートのカテゴリー分けを予めしてお
き、このパート単位に、アレンジしないでそのまま演奏
する、ミュートにより演奏しない、の何れかを選択す
る.例えばドラム、ベースを演奏すると設定しておけ
ば、コードが割り当てられていない場合、アカンプパー
トのトラックはミュートされ、それ以外はアレンジされ
ていない演奏がそのまま出力される.などが可能であ
る。
In the system of this embodiment, when a bar for which no code is specified occurs (for example, 1 in the fifth bar)
If the chord is specified for the first time on the beat and the bar before that, ie, the first bar is not specified, then the accompaniment pattern affixed to such non-coded bar The question is whether you play. As a method of processing the performance of the accompaniment pattern of a portion to which no chord is assigned in the music, a track designated in advance is played without arranging the accompaniment pattern, and the other tracks are muted ( Track unit processing). Each track in the accompaniment pattern is pre-categorized into parts such as bass, drum, and accomp, and for each of these parts, either one of the parts without any arrangement and the one without mute is selected. For example, if you set to play drums and bass, if no chord is assigned, the tracks of the accomp part will be muted, and otherwise the unarranged performance will be output as is. And so on.

【0038】この処理方法の指定は次のように行う。キ
ャンバス上でコード指定されていない部分に貼られた伴
奏パターンをクリックすると、図13に示すウィンドウ
(ダイアログ)が表示されるようにする。このウィンド
ウを用いて、コード指定されていない小節のどのパー
ト、あるいはトラックを発音させるかを指定する。この
ウィンドウ中の「パートによる」と「トラックによる」
の指定はトグルスイッチになっており、どちらか一方を
選択するようになっている。
This processing method is specified as follows. Clicking on the accompaniment pattern pasted on a portion of the canvas where no chord is specified causes the window (dialog) shown in FIG. 13 to be displayed. Using this window, you can specify which part or track of a bar not specified by a chord is to be sounded. "By Part" and "By Track" in this window
Is designated as a toggle switch so that either one can be selected.

【0039】「パートによる」指定はアカンプ(acmp)、
ドラム(drum)、ベース(bass)の3種類のパートのうちか
ら一つまたは複数を選択して設定でき、パート別にその
パートを発音するか否かを設定する。なお、パートの種
類は前述の図6に示す伴奏パターン情報ウィンドウにお
いて各トラック毎に設定できる。
The "part" designation is a comp (acmp),
One or more parts can be selected and set from three types of parts, a drum and a bass, and whether to sound the part is set for each part. The type of part can be set for each track in the accompaniment pattern information window shown in FIG.

【0040】「トラックによる」指定はトラック番号に
よって指定ができ、トラック別にそのトラックを発音す
るか否かを設定する。トラック番号は複数を同時指定で
き、それら選択されたトラックが発音される。
The "by track" designation can be designated by a track number, and it is set for each track whether or not the track should be pronounced. A plurality of track numbers can be specified at the same time, and the selected tracks are sounded.

【0041】このように、上述の設定によってコード指
定されていない場所でも伴奏パターンを演奏でき、その
演奏はデータがアレンジされないでそのまま出力される
ことになる。なお、コード指定されなかった範囲につい
て、上述のようにアレンジされないものがそのまま出力
される代わりに、所定のコード(スタイル別にコードを
設定するなど)でアレンジしたものを出力するように構
成してもよい。
As described above, the accompaniment pattern can be played even in a place where the chord is not specified by the above setting, and the performance is output as it is without any data arrangement. It should be noted that, for the range in which no code is specified, instead of outputting the unarranged one as described above as it is, an arrangement arranged with a predetermined code (such as setting a code for each style) may be output. Good.

【0042】上記説明のように、キャンバスウィンドウ
においてデータを貼り付けコードを指定することにより
映像付きの曲を完成させる。この際、キャンバスに貼り
付けたデータの管理は図14のようにして行う。図示の
ように、キャンバスに貼られるデータは1拍単位のレコ
ードとして管理される。1拍のレコード中で管理されて
いる項目としては以下のものがある。
As described above, the music with the video is completed by pasting the data in the canvas window and designating the code. At this time, management of the data pasted on the canvas is performed as shown in FIG. As shown in the figure, the data pasted on the canvas is managed as a record for each beat. The items managed in one beat record are as follows.

【0043】Pattern Palette No. :(2byte) 伴奏パ
ターンパレットの番号. Pattern No. :(2byte)伴奏パターンの番号. Pattern Information.:(2byte)伴奏パターンの情報
をビットフラグで示す. Pattern Deviation.:(2byte)パターンの時間のず
れ.このレコードからのずれを分解能のカウントで示
す. Melody Palette No.:(2byte)メロディパレットの番
号. Melody No.:(2byte)メロディの番号. Melody Information. :(2byte)メロディの情報をビ
ットフラグで示す. Melody Deviation. :(2byte)メロディの時間のず
れ.このレコードからのずれを分解能のカウントで示
す. Chord Note No.:(10byte)コードの構成音をMID
Iノート番号で網羅している. On Bass Note NO.:(1byte)分数コードのベースを示
すMIDIノート番号. Chord Deviation.:(2byte)コードの時間のずれ.こ
のレコードからのずれを分解能のカウントで示す. Sound Palette No. :(2byte)音声パレットの番号. Sound No. :(2byte)音声番号. Sound Deviation.:(2byte)音声の時間のずれ.この
レコードからのずれを分解能のカウントで示す. Picture Palette No. :(2byte)静止画パレットの番
号. Picture No. :(2byte)静止画番号. Picture Information.:(2byte)静止画の情報をビッ
トフラグで示す. Picture Deviation.:(2byte)静止画の時間のずれ.
このレコードからのずれを分解能のカウントで示す. Movie Palette No. :(2byte)動画パレットの番号. Movie No. :(2byte)動画番号. Movie Infotmation.:(2byte)動画の情報をビットフ
ラグで示す. Movie Deviation.:(2byte)動画の時間のずれ.この
レコードからのずれを分解能のカウントで示す.
Pattern Palette No .: (2 bytes) Number of accompaniment pattern palette. Pattern No .: (2 bytes) Number of accompaniment pattern. Pattern Information .: (2 bytes) Indicates the accompaniment pattern information with bit flags. Pattern Deviation .: (2byte) pattern time lag. The deviation from this record is indicated by the resolution count. Melody Palette No .: (2 bytes) Melody palette number. Melody No .: (2 bytes) Melody number. Melody Information .: (2 bytes) Melody information is indicated by bit flags. Melody Deviation. : (2byte) Melody time lag. The deviation from this record is indicated by the resolution count. Chord Note No .: (10byte) Chord note of chord
Covered by I note number. On Bass Note NO .: MIDI note number indicating the base of (1 byte) fractional code. Chord Deviation .: (2byte) code time lag. The deviation from this record is indicated by the resolution count. Sound Palette No .: (2 bytes) Number of sound palette. Sound No .: (2 bytes) sound number. Sound Deviation .: (2byte) Time lag of sound. The deviation from this record is indicated by the resolution count. Picture Palette No .: (2 bytes) Still picture palette number. Picture No .: (2 bytes) Still image number. Picture Information .: (2 bytes) Information of the still image is indicated by a bit flag. Picture Deviation .: (2 bytes) Time lag of still image.
The deviation from this record is indicated by the resolution count. Movie Palette No .: (2 bytes) Movie Palette No. Movie No .: (2 bytes) Movie number. Movie Infotmation .: (2 bytes) Movie information is indicated by bit flags. Movie Deviation .: (2 bytes) Time lag of movie. The deviation from this record is indicated by the resolution count.

【0044】なお、上述の、情報をビットフラグで示す
方法は、データをD15、D14・・D 1 、D0 とすると、 D0 :スタートフラグ. データがそこから始まるときに
立てるフラグ.1 :コンティニューフラグ.データが続いているとき
に立てるフラグ.2 :エンドフラグ. データがそこで終わるときに立て
るフラグ. などのように各ビットに意味付けをする。また分解能の
カウントは、1拍を120に割ったものを1単位とした
数値である。
The above information is indicated by a bit flag.
Method D15, D14..D 1, D0Then D0: Start flag.When the data starts there
Standing flag. D1: Continue flag. When data continues
Flag set. DTwo: End flag.Stand when data ends there
Flag. Give each bit a meaning, such as Also of resolution
The count is one unit obtained by dividing one beat into 120
It is a numerical value.

【0045】このようなフォーマットで1拍単位でレコ
ードを管理し、キャンバスデータとしてファイルにセー
ブする。また、各パレットデータは伴奏パターンパレッ
ト、メロディパレット、音声パレット、映像パレットを
別々のファイルとしてセーブする。キャンバスデータは
各パレットデータおよびキャンバス上に貼り付けたデー
タの並び、コードデータを含む全てのデータを一つにし
たデータファイルとなる。
Records are managed on a beat-by-beat basis in such a format, and are saved in a file as canvas data. Each pallet data is saved as an accompaniment pattern palette, a melody palette, an audio palette, and a video palette as separate files. The canvas data is a data file in which all the data including the pallet data and the data pasted on the canvas and all the data including the code data are united.

【0046】作成した曲を実際に演奏するにあたって
は、この1拍単位のレコードを時間順に順次に分析し、
その結果に基づいて一連の楽曲データを作成してそれを
MIDI変換器6、マルチ音源7、スピーカ8、9を通
して発音する。
When actually playing the created music, the records of each beat are sequentially analyzed in order of time,
Based on the result, a series of music data is created, and it is emitted through the MIDI converter 6, the multi-sound source 7, and the speakers 8, 9.

【0047】上述の実施例システムにおいて、キャンバ
ス上の伴奏パターンとコードを指定後、一括して伴奏パ
ターン群(スタイル)を別のスタイルに取り替えること
により、元の伴奏パターンの曲とは全く異なる雰囲気の
音楽を作成することができる。この効果は伴奏パターン
パレットを入れ替えることにより行うが、以下にこの手
法を説明する。
In the system of the above-described embodiment, after specifying the accompaniment pattern and the chord on the canvas, the group of the accompaniment pattern (style) is replaced with another style in a lump, thereby giving an atmosphere completely different from the music of the original accompaniment pattern. Music can be created. This effect is achieved by exchanging the accompaniment pattern palette. This method will be described below.

【0048】まず、既にキャンバス上に伴奏パターンと
コードが指定されたキャンバスについて、伴奏パターン
パレットウィンドウのパレットメニューアイコンをクリ
ックし、それにより図15に示すようなファイル選択ダ
イアログが表示されるようにする。このファイル選択ダ
イアログにおいてマウスによって変換先の伴奏パターン
パレットを選択すると、キャンバス上の伴奏パターンは
その選択された伴奏パターンパレットの伴奏パターンに
変換される。
First, for a canvas in which an accompaniment pattern and a chord are already specified on the canvas, a palette menu icon in the accompaniment pattern palette window is clicked, whereby a file selection dialog as shown in FIG. 15 is displayed. . When an accompaniment pattern palette to be converted is selected with a mouse in this file selection dialog, the accompaniment pattern on the canvas is converted to an accompaniment pattern of the selected accompaniment pattern palette.

【0049】この変換処理を行うにあたり、キャンバス
上に貼られている伴奏パターンを変換先の伴奏パターン
パレットの伴奏パターンに単に機械的に置き換えて(す
なわち伴奏パターンパレット内で伴奏パターンが置かれ
た位置だけを対応させて置き換えて)いくと、曲の整合
性がとれなくなり、自然な感じの曲に変換されない。そ
こで、本実施例では、所定の規則に従ってキャンバス上
の伴奏パターンを新たな伴奏パターンパレット上の伴奏
パターンに置き換える。
In performing this conversion processing, the accompaniment pattern pasted on the canvas is simply mechanically replaced with the accompaniment pattern of the accompaniment pattern palette of the conversion destination (ie, the position where the accompaniment pattern is placed in the accompaniment pattern palette). ), The songs will no longer be consistent and will not be converted to natural-looking songs. Therefore, in this embodiment, the accompaniment pattern on the canvas is replaced with an accompaniment pattern on a new accompaniment pattern palette according to a predetermined rule.

【0050】この所定の規則について以下に説明する。
まず各伴奏パターンパレット上の伴奏パターンには予め
その伴奏パターンの性格を示す音楽的識別子を付してお
く。本実施例ではこの識別子として前述のロールを用い
る。ロールの種類と役割は次のようになる。 イントロ:曲の最初に適した伴奏パターン. フィルイン:曲のいわゆる「おかず」に適した伴奏パタ
ーン. エンディング:曲の最後に適した伴奏パターン. メイン:上記以外の部分、つまり曲のメイン部分に適し
た伴奏パターン.
The predetermined rule will be described below.
First, a musical identifier indicating the character of the accompaniment pattern is attached to each accompaniment pattern on each accompaniment pattern palette. In this embodiment, the above-mentioned role is used as this identifier. Role types and roles are as follows. Intro: An accompaniment pattern suitable for the beginning of a song. Fill-in: An accompaniment pattern suitable for the so-called “side dish” of a song. Ending: An accompaniment pattern suitable for the end of a song. Main: Accompaniment pattern suitable for the other parts, that is, the main part of the song.

【0051】変換にあたっては、キャンバス上の伴奏パ
ターンのロールと新しい伴奏パターンパレットの伴奏パ
ターンのロールとが一致するようにして変換を行う。例
えばもともとメインであった伴奏パターンは変換後もメ
インとなるように置き換える。イントロとエンディング
に関しては元のキャンバス上に二つ置かれていたような
場合でも、それを一つにするように置き換える。例え
ば、 元のキャンバス上にイントロが二つ以上あるときは二
つ目以降をメインで置き換える. 元のキャンバス上にエンディングが二つ以上あるとき
は最後のエンディング以外をメインで置き換える. などの規則を持たせる。この規則に従って処理した場合
の例を示すと、 〔元の並び〕 〔置き換え後の並び〕 イントロ → イントロ イントロ → メイン(イントロに換えて) メイン → メイン フィルイン → フィルイン エンディング → メイン(エンディングに換えて) エンディング → エンディング などとなる。この例では元の並びではイントロが2回、
エンディングが2回出現する曲となっているが、これを
別のスタイルに置き換えたときには、2回目のイントロ
がメインに、1回目のエンディングがメインに置き換わ
っており、より自然な感じで曲の変換が行える。
The conversion is performed such that the roll of the accompaniment pattern on the canvas and the roll of the accompaniment pattern of the new accompaniment pattern palette match. For example, the main accompaniment pattern is replaced so that it remains the main after conversion. Even if two intros and endings were placed on the original canvas, replace them with one. For example, if there are two or more intros on the original canvas, replace the second and subsequent intros with main. If there is more than one ending on the original canvas, replace the last ending with the main one. Have rules such as An example of processing according to this rule is as follows: [Original arrangement] [Replacement arrangement] Intro → Intro Intro → Main (instead of intro) Main → Main Fill-in → Fill-in ending → Main (instead of ending) Ending → Ending etc. In this example, the original sequence has two intros,
Although the ending has a song that appears twice, when the song is replaced with another style, the second intro is replaced by the main and the first ending is replaced by the main, so the song can be converted more naturally. Can be performed.

【0052】作成されたキャンバスの演奏は次のように
して行う。ディスプレイ画面上に図16に示すコントロ
ールパネルのウィンドウを表示し、プレイ、ストップ、
早送り、巻戻し、録音などのボタンをマウスを使って押
し、キャンバスの演奏を行わせる。
The performance of the created canvas is performed as follows. The control panel window shown in FIG. 16 is displayed on the display screen, and play, stop,
Use the mouse to fast-forward, rewind, record, and other buttons to play the canvas.

【0053】このキャンバスを演奏するにあたり、テン
ポ値の設定については、伴奏パターンにセットされた
テンポ(例えば図6参照)で演奏、指定されたテンポ
で演奏、の二つのモードが可能である。はキャンバス
に貼られている伴奏パターンのテンポに従って演奏し、
は伴奏パターンのテンポを無視して別途指定されたテ
ンポに従って演奏する。
In playing the canvas, two modes are available for setting the tempo value: playing at the tempo set in the accompaniment pattern (for example, see FIG. 6) and playing at the designated tempo. Plays according to the tempo of the accompaniment pattern on the canvas,
Performs according to a separately specified tempo, ignoring the tempo of the accompaniment pattern.

【0054】また、MIDIコントロールにはパンポッ
ト、ボリューム、コーラス、リバーブなどがあり、これ
らのコントロールは各伴奏パターンにセットされてお
り、キャンバスの演奏にあたってはテンポの場合と同様
に、伴奏パターンにセットされたコントロールで演
奏、指定されたコントロールで演奏、の二つのモード
を選択できる。
The MIDI controls include a pan pot, volume, chorus, reverb, and the like. These controls are set for each accompaniment pattern. You can select two modes: play with the specified control and play with the specified control.

【0055】[0055]

【発明の効果】以上に説明したように、本発明によれ
ば、作曲する楽曲の各部分の伴奏パターンやコードが適
当なものであるかどうかを作曲中にその場で試聴してチ
ェックすることができるので、作曲作業を的確にかつ速
やかに行える。
As described above, according to the present invention, it is possible to listen to the accompaniment patterns and chords of each part of the music to be composed on the spot during composition so as to check whether they are appropriate. Can be performed accurately and quickly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る作曲装置を説明する図である。FIG. 1 is a diagram illustrating a music composition device according to the present invention.

【図2】本発明の一実施例としての作曲装置のシステム
構成を示す図である。
FIG. 2 is a diagram showing a system configuration of a music composition device as one embodiment of the present invention.

【図3】実施例装置における動作概念を説明する図であ
る。
FIG. 3 is a diagram for explaining an operation concept in the embodiment device.

【図4】キャンバスウィンドウの例を示す図である。FIG. 4 is a diagram illustrating an example of a canvas window.

【図5】伴奏パターンパレットの例を示す図である。FIG. 5 is a diagram showing an example of an accompaniment pattern palette.

【図6】パターン情報ウィンドウの例を示す図である。FIG. 6 is a diagram showing an example of a pattern information window.

【図7】データの重なり処理を説明する図である。FIG. 7 is a diagram illustrating data overlap processing.

【図8】伴奏パターン、メロディ等のデータの重なり処
理の設定方法を説明する図である。
FIG. 8 is a diagram illustrating a method of setting an overlapping process of data such as an accompaniment pattern and a melody.

【図9】映像データの重なり処理の設定方法を説明する
図である。
FIG. 9 is a diagram illustrating a method of setting video data overlap processing.

【図10】コードルートの設定方法を説明する図であ
る。
FIG. 10 is a diagram illustrating a method of setting a code route.

【図11】コードタイプの設定方法を説明する図であ
る。
FIG. 11 is a diagram illustrating a method of setting a code type.

【図12】コードの他の設定方法を説明する図である。FIG. 12 is a diagram illustrating another method of setting a code.

【図13】コード指定されていない場合の演奏方法を説
明する図である。
FIG. 13 is a diagram illustrating a playing method when no chord is specified.

【図14】キャンバスのデータの管理方法を説明する図
である。
FIG. 14 is a diagram illustrating a method for managing data on a canvas.

【図15】伴奏パターンパレットの入れ換え方法を説明
する図である。
FIG. 15 is a diagram illustrating a method of exchanging accompaniment pattern palettes.

【図16】コントロールパネルのウィンドウの例を示す
図である。
FIG. 16 is a diagram illustrating an example of a window of a control panel.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータの本体装置 2 ディ
スプレイ装置 3 キーボード 4 マウ
ス 5 プロッピィディスク 6 MI
DI変換器 7 マルチ音源 8、9
スピーカ
DESCRIPTION OF SYMBOLS 1 Personal computer main body device 2 Display device 3 Keyboard 4 Mouse 5 Proppy disk 6 MI
DI converter 7 Multi sound source 8, 9
Speaker

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数の伴奏パターンを記憶する記憶手段
と、 上記複数の伴奏パターンを画面に表示する伴奏パターン
表示手段と、 伴奏パターンを組み合わせて楽曲データを作成するため
の楽曲作成領域を画面に表示する楽曲作成領域表示手段
と、 上記複数の伴奏パターンのうちから任意の伴奏パターン
を選択して発音指示する発音指示手段と、 上記発音指示手段で指示された伴奏パターンを発音する
ための楽音信号を発生する楽音発生手段と、 上記複数の伴奏パターンのうちから任意の伴奏パターン
を選択して上記楽曲作成領域に組み付けて楽曲データを
作成する楽曲作成手段とを備えた作曲装置。
1. A storage means for storing a plurality of accompaniment patterns, an accompaniment pattern display means for displaying the plurality of accompaniment patterns on a screen, and a music creation area for creating music data by combining the accompaniment patterns on the screen. Music creating area display means to be displayed; sounding instruction means for selecting an arbitrary accompaniment pattern from the plurality of accompaniment patterns to instruct sounding; and a tone signal for sounding the accompaniment pattern specified by the sounding instruction means. A music composition device comprising: a musical sound generating means for generating music data; and a music creating means for selecting an arbitrary accompaniment pattern from the plurality of accompaniment patterns and assembling the selected accompaniment pattern in the music creating area to create music data.
【請求項2】 楽曲データを作成するための楽曲作成領
域を画面に表示する楽曲作成領域表示手段と、 上記楽曲作成領域で作成する楽曲の任意部分に対してコ
ードを指定するコード指定手段と、 上記指定コードによる発音を指示する指示手段と、 上記指示手段の指示に従ってその指定コードで上記任意
部分の楽曲データを発音するための楽音信号を発生する
楽音発生手段と上記楽曲作成領域の設定内容に基づいて
楽曲データを作成する楽曲作成手段とを備えた作曲装
置。
2. A music creation area display means for displaying a music creation area for creating music data on a screen, a code designating means for designating a code for an arbitrary portion of a music piece created in the music creation area, Instructing means for instructing sounding by the designated code, musical tone generating means for generating a tone signal for generating the music data of the arbitrary portion with the designated code in accordance with the instruction of the instructing means, and setting contents of the music creating area Music composition means for producing music data based on the music composition data.
JP11288013A 1999-01-01 1999-10-08 Music composing device Pending JP2000214853A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11288013A JP2000214853A (en) 1999-01-01 1999-10-08 Music composing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11288013A JP2000214853A (en) 1999-01-01 1999-10-08 Music composing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP5232484A Division JPH0764545A (en) 1993-08-25 1993-08-25 Musical composition device

Publications (1)

Publication Number Publication Date
JP2000214853A true JP2000214853A (en) 2000-08-04

Family

ID=17724690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11288013A Pending JP2000214853A (en) 1999-01-01 1999-10-08 Music composing device

Country Status (1)

Country Link
JP (1) JP2000214853A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099035A (en) * 2001-09-20 2003-04-04 Yamaha Corp Automatic playing device, information distributing server device, and program used for them
JP2005352425A (en) * 2004-06-14 2005-12-22 Yoshihiko Sano Music production method, its apparatus and its system
JP2009069766A (en) * 2007-09-18 2009-04-02 Yamaha Corp Reproducing device and program
JP2010008518A (en) * 2008-06-24 2010-01-14 Sony Computer Entertainment Inc Music production apparatus, method of producing music, and program
JP2011082689A (en) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd Moving picture creation apparatus, computer program, and storage medium
WO2013114789A1 (en) * 2012-01-31 2013-08-08 Canon Kabushiki Kaisha Image forming apparatus for forming electrostatic latent image for correction

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099035A (en) * 2001-09-20 2003-04-04 Yamaha Corp Automatic playing device, information distributing server device, and program used for them
JP2005352425A (en) * 2004-06-14 2005-12-22 Yoshihiko Sano Music production method, its apparatus and its system
JP4545493B2 (en) * 2004-06-14 2010-09-15 芳彦 佐野 Music generation method, apparatus and system
JP2009069766A (en) * 2007-09-18 2009-04-02 Yamaha Corp Reproducing device and program
JP2010008518A (en) * 2008-06-24 2010-01-14 Sony Computer Entertainment Inc Music production apparatus, method of producing music, and program
JP4651055B2 (en) * 2008-06-24 2011-03-16 株式会社ソニー・コンピュータエンタテインメント Music generating apparatus, music generating method, and program
JP2011082689A (en) * 2009-10-05 2011-04-21 Kawai Musical Instr Mfg Co Ltd Moving picture creation apparatus, computer program, and storage medium
WO2013114789A1 (en) * 2012-01-31 2013-08-08 Canon Kabushiki Kaisha Image forming apparatus for forming electrostatic latent image for correction

Similar Documents

Publication Publication Date Title
JP2956569B2 (en) Karaoke equipment
US6369311B1 (en) Apparatus and method for generating harmony tones based on given voice signal and performance data
US7572968B2 (en) Electronic musical instrument
JP5625321B2 (en) Speech synthesis apparatus and program
JP4489650B2 (en) Karaoke recording and editing device that performs cut and paste editing based on lyric characters
JP2000214853A (en) Music composing device
JP4379291B2 (en) Electronic music apparatus and program
JP3821103B2 (en) INFORMATION DISPLAY METHOD, INFORMATION DISPLAY DEVICE, AND RECORDING MEDIUM CONTAINING INFORMATION DISPLAY PROGRAM
JP3603599B2 (en) Method for visual display of performance system and computer-readable recording medium on which visual display program for performance system is recorded
JPH0764545A (en) Musical composition device
JP3915695B2 (en) Automatic performance device and program
JP3807380B2 (en) Score data editing device, score data display device, and program
JP2002372981A (en) Karaoke system with voice converting function
JP3214623B2 (en) Electronic music playback device
JP3487176B2 (en) Performance information creation display device and recording medium therefor
JP3381581B2 (en) Performance data editing device and recording medium storing performance data editing program
JP4070315B2 (en) Waveform playback device
JP4552769B2 (en) Musical sound waveform synthesizer
JP2001013964A (en) Playing device and recording medium therefor
JP4221757B2 (en) Music score display apparatus and program for realizing music score display method
JP3823951B2 (en) Performance information creation and display device and recording medium therefor
JPH10312190A (en) Automatic arpeggio performance device
JP4253997B2 (en) Musical sound information conversion apparatus, control method therefor, and storage medium storing program for realizing the control method
JP4835434B2 (en) Performance pattern playback device and computer program therefor
JPH0764550A (en) Sequencer