JP4186802B2 - Automatic accompaniment generator and program - Google Patents

Automatic accompaniment generator and program Download PDF

Info

Publication number
JP4186802B2
JP4186802B2 JP2003395926A JP2003395926A JP4186802B2 JP 4186802 B2 JP4186802 B2 JP 4186802B2 JP 2003395926 A JP2003395926 A JP 2003395926A JP 2003395926 A JP2003395926 A JP 2003395926A JP 4186802 B2 JP4186802 B2 JP 4186802B2
Authority
JP
Japan
Prior art keywords
accompaniment
pitch
information
data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003395926A
Other languages
Japanese (ja)
Other versions
JP2005156983A (en
Inventor
知之 船木
佳奈美 星加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003395926A priority Critical patent/JP4186802B2/en
Publication of JP2005156983A publication Critical patent/JP2005156983A/en
Application granted granted Critical
Publication of JP4186802B2 publication Critical patent/JP4186802B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、自動伴奏生成装置に関し、より詳しくは、伴奏パターンデータに基づき伴奏情報を生成する自動伴奏生成装置に関する。   The present invention relates to an automatic accompaniment generator, and more particularly to an automatic accompaniment generator that generates accompaniment information based on accompaniment pattern data.

予め用意された伴奏パターン(演奏データ列)を、コードシーケンス(コード進行列)に基づき編集し、演奏したい楽曲データに対応した演奏データ列に変換することができる演奏パターン処理装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art A performance pattern processing apparatus is known that can edit an accompaniment pattern (performance data string) prepared in advance based on a chord sequence (chord progression string) and convert it into a performance data string corresponding to music data to be played. (For example, refer to Patent Document 1).

例えば、メロディトラックとコードシーケンスを含む曲データに対して、別に用意される伴奏パターンデータから左手演奏用の伴奏情報を生成することができる。   For example, accompaniment information for left-hand performance can be generated from accompaniment pattern data prepared separately for music data including a melody track and a chord sequence.

特開2002−268638号公報JP 2002-268638 A

伴奏パターンに基づき、自動的に伴奏情報を生成する場合、伴奏パターンデータをコードで展開した伴奏情報の音域とメロディトラックに記録されているメロディ演奏データ列(メロディデータ)との使用音域が重なる場合がある。このような場合に、伴奏パターンにより生成された伴奏情報とメロディデータを楽譜表示して、ユーザが実際に鍵盤で演奏しようとしたときに、右手と左手がぶつかり演奏が不可能な個所が出てくる可能性がある。   When accompaniment information is automatically generated based on the accompaniment pattern, and when the accompaniment information data range (melody data) recorded on the melody track overlaps with the accompaniment information range developed by the accompaniment pattern data as chords There is. In such a case, the accompaniment information generated by the accompaniment pattern and the melody data are displayed as a score, and when the user actually tries to play on the keyboard, the right hand and the left hand collide, and there are places where the performance is impossible. There is a possibility of coming.

本発明の目的は、伴奏パターンを利用して生成した伴奏情報であっても、メロディパートと音域が重なることがなく、実際の演奏が全て演奏可能となる自動伴奏生成装置を提供することである。   An object of the present invention is to provide an automatic accompaniment generating apparatus that does not overlap the melody part and the actual performance, even if the accompaniment information is generated using the accompaniment pattern, and that can perform all actual performances. .

本発明の一観点によれば、自動伴奏生成装置は、曲データと伴奏パターンデータを読み出す読み出し手段と、前記曲データを複数の対象区間に分割する分割手段と、前記曲データから前記対象区間ごとに、メロディ最低音高を検出する検出手段と、前記対象区間ごとに、前記メロディ最低音高に基づき、伴奏最高音高を決定する決定手段と、前記伴奏パターンデータから伴奏情報を生成する生成手段と、前記伴奏情報を出力する出力手段と、前記伴奏情報の音高が、前記伴奏最高音高以上の場合に、該伴奏情報を出力しないように、前記出力手段を制御する制御手段とを有する。 According to an aspect of the present invention, the automatic accompaniment generating apparatus includes a reading unit that reads out song data and accompaniment pattern data, a dividing unit that divides the song data into a plurality of target sections, and a target section from the song data. Detecting means for detecting the lowest pitch of the melody, determining means for determining the highest pitch of the accompaniment based on the lowest pitch of the melody for each target section, and generating means for generating the accompaniment information from the accompaniment pattern data And output means for outputting the accompaniment information, and control means for controlling the output means so that the accompaniment information is not output when the pitch of the accompaniment information is equal to or higher than the highest accompaniment pitch. .

本発明によれば、伴奏パターンを利用して生成した伴奏情報であっても、メロディパートと音域が重なることがない。よって、実際の演奏が全て演奏可能となる。   According to the present invention, even in the accompaniment information generated using the accompaniment pattern, the melody part and the sound range do not overlap. Therefore, all actual performances can be performed.

また、本発明によれば、メロディに応じて自動的に左手パートのデータを自動生成するので、ユーザはメロディの修正やコードの変更などの操作を行う必要がなくなる。   Further, according to the present invention, since the left-hand part data is automatically generated according to the melody, the user does not need to perform operations such as melody correction and chord change.

また、本発明によれば、細かい区間に分けて対応できるため、伴奏パートの修正は必要最低限度行えばよい。   In addition, according to the present invention, the accompaniment part can be corrected to the minimum necessary level because it can be divided into small sections.

図1は、本発明の実施例による自動伴奏生成装置1を構成する電子楽器のハードウェア構成を示すブロック図である。   FIG. 1 is a block diagram showing a hardware configuration of an electronic musical instrument constituting an automatic accompaniment generating apparatus 1 according to an embodiment of the present invention.

自動伴奏生成装置1のバス2には、RAM3、ROM4、CPU5、外部記憶装置7、検出回路8、表示回路10、音源回路12、効果回路13、通信インターフェイス17が接続される。   A RAM 3, a ROM 4, a CPU 5, an external storage device 7, a detection circuit 8, a display circuit 10, a tone generator circuit 12, an effect circuit 13, and a communication interface 17 are connected to the bus 2 of the automatic accompaniment generator 1.

ユーザは、検出回路8に接続される操作子9を用いて、各種設定をすることができる。操作子9は、演奏用の鍵盤等の演奏操作子とその他の設定操作子である。設定操作子は、例えば、マウス、文字入力用キーボード、ジョイスティック、ロータリーエンコーダ、スイッチ、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。   The user can make various settings using the operation element 9 connected to the detection circuit 8. The operation element 9 is a performance operation element such as a performance keyboard and other setting operation elements. The setting operator may be any device that can output a signal corresponding to a user input, such as a mouse, a character input keyboard, a joystick, a rotary encoder, a switch, or a jog shuttle.

また、操作子9は、マウス等の他の操作子を用いて操作するディスプレイ11上に表示されるソフトスイッチ等でもよい。   The operation element 9 may be a soft switch or the like displayed on the display 11 operated using another operation element such as a mouse.

表示回路10は、ディスプレイ11に接続され、各種情報をディスプレイ11に表示することができる。   The display circuit 10 is connected to the display 11 and can display various information on the display 11.

外部記憶装置7は、外部記憶装置用のインターフェイスを含み、そのインターフェイスを介してバス2に接続される。外部記憶装置7は、例えばフロッピ(登録商標)ディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、DVD(Digital Versatile Disc)ドライブ、半導体メモリ等である。   The external storage device 7 includes an interface for an external storage device, and is connected to the bus 2 via the interface. The external storage device 7 includes, for example, a floppy (registered trademark) disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, a CD-ROM (compact disk-read only memory) drive, and a DVD (Digital Versatile Disc). ) Drive, semiconductor memory, etc.

外部記憶装置7には、各種パラメータ、各種データ、及び本実施例を実現するためのプログラム及び曲データ等を記憶することができる。   The external storage device 7 can store various parameters, various data, a program for realizing the present embodiment, music data, and the like.

RAM3は、フラグ、レジスタ又はバッファ、各種パラメータ等を記憶するCPU5のワーキングエリアを有する。ROM4には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。CPU5は、ROM4又は、外部記憶装置7に記憶されている制御プログラム等に従い、演算又は制御を行う。   The RAM 3 has a working area for the CPU 5 that stores flags, registers or buffers, various parameters, and the like. The ROM 4 can store various parameters and control programs, or a program for realizing the present embodiment. The CPU 5 performs calculation or control according to a control program or the like stored in the ROM 4 or the external storage device 7.

タイマ6は、CPU5に接続されており、基本クロック信号、割り込み処理タイミング等をCPU5に供給する。   The timer 6 is connected to the CPU 5 and supplies a basic clock signal, interrupt processing timing, and the like to the CPU 5.

音源回路12は、音声データや、MIDI信号等の演奏信号に応じて楽音信号を生成し、効果回路13を介して、サウンドシステム14に供給する。   The tone generator circuit 12 generates a tone signal in accordance with audio data and a performance signal such as a MIDI signal and supplies it to the sound system 14 via the effect circuit 13.

音源回路12の方式は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのような方式であってもよい。また、専用のハードウェアを用いて音源回路12を構成してもよいし、DSP+マイクロプログラムを用いて音源回路12を構成してもよいし、CPU+ソフトウェアのプログラムで音源回路12を構成してもよい。また、これらの組合せでもよい。さらに、1つの回路を時分割で使用して複数の発音チャンネルを形成してもよいし、1つの発音チャンネルを1つの回路で形成してもよい。   The system of the tone generator circuit 12 may be any system such as a waveform memory system, FM system, physical model system, harmonic synthesis system, formant synthesis system, VCO + VCF + VCA analog synthesizer system, and analog simulation system. The tone generator circuit 12 may be configured using dedicated hardware, the tone generator circuit 12 may be configured using a DSP + microprogram, or the tone generator circuit 12 may be configured using a CPU + software program. Good. A combination of these may also be used. Further, a plurality of sound generation channels may be formed by using one circuit in a time division manner, or one sound generation channel may be formed by one circuit.

効果回路13は、音源回路12から供給されるデジタル形式の楽音信号に各種効果を与える。サウンドシステム14は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。   The effect circuit 13 gives various effects to the digital musical tone signal supplied from the tone generator circuit 12. The sound system 14 includes a D / A converter and a speaker, converts a digital musical tone signal supplied to an analog format, and generates a sound.

通信インターフェイス17は、IEEE1394規格に準拠したインターフェイスである。また、通信インターフェイス17として、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク19に接続可能なインターフェイスを備えていてもよい。その場合、該通信ネットワーク19を介して、サーバコンピュータ20と接続し、HDD等外部記憶装置7、又はRAM4等内に、サーバコンピュータ20から制御プログラムや本実施例を実現するためのプログラム、演奏情報等をダウンロードすることができる。   The communication interface 17 is an interface conforming to the IEEE 1394 standard. The communication interface 17 may include an interface that can be connected to a communication network 19 such as a LAN (local area network), the Internet, or a telephone line. In this case, the server computer 20 is connected via the communication network 19, and the control program, the program for realizing the present embodiment, and performance information are stored in the external storage device 7 such as an HDD or the RAM 4 from the server computer 20. Etc. can be downloaded.

なお、通信インターフェイス17として、さらにMIDI機器が接続可能なMIDIインターフェイスや、USB機器を接続可能なUSBインターフェイス等を備えていてもよい。   The communication interface 17 may further include a MIDI interface to which a MIDI device can be connected, a USB interface to which a USB device can be connected, and the like.

外部機器20は、通信インターフェイス17を介して接続可能な機器であり、例えば、外部接続用の鍵盤等のMIDI機器、その他の音源装置、コンピュータ等である。MIDI機器の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。ユーザは、この外部機器20を演奏(操作)することにより演奏信号の入力を行うこともできる。また、外部機器20は、演奏情報以外の各種データ及び各種設定を入力するための操作子としても用いることが出来る。   The external device 20 is a device that can be connected via the communication interface 17, and is, for example, a MIDI device such as a keyboard for external connection, other tone generators, a computer, or the like. The form of the MIDI device is not limited to a keyboard instrument, and may be a string instrument type, a wind instrument type, a percussion instrument type, or the like. The user can also input a performance signal by playing (manipulating) the external device 20. The external device 20 can also be used as an operator for inputting various data other than performance information and various settings.

図2は、本実施例による曲データMDのフォーマットを示す概念図である。曲データMDは、例えばMIDIデータ等の自動演奏データであり、ヘッダー情報HC、演奏データPD、コードシーケンスCS等を含んで構成される。   FIG. 2 is a conceptual diagram showing the format of the music data MD according to this embodiment. The song data MD is automatic performance data such as MIDI data, for example, and includes header information HC, performance data PD, chord sequence CS, and the like.

ヘッダー情報HCには、例えば、初期音量値、初期テンポ値、トラック音色、効果設定等の情報が記録されている。また、本実施例の曲データMDには、ヘッダー情報HC中に曲データMDに対応する楽曲の調を表す調情報(Key Signature)KSを記録することもできる。その場合、調情報KSは、「CMaj」や「Amin」等の調名で記録されていてもよいし、「♯」や「♭」等の調号、該調号の数、及びMaj又はmin(長調又は単調)の区分で記録されていてもよい。   In the header information HC, for example, information such as an initial volume value, an initial tempo value, a track tone color, and an effect setting is recorded. In the music data MD of the present embodiment, key information (Key Signature) KS indicating the key of the music corresponding to the music data MD can be recorded in the header information HC. In this case, the key information KS may be recorded with a key name such as “CMaj” or “Amin”, or a key number such as “#” or “♭”, the number of the key numbers, and Maj or min (Major or monotonous) may be recorded.

演奏データPDは、例えば、トラック1〜nの複数のトラックTRを有し、各トラックTRは、タイミングデータTMと該タイミングデータTMの表すタイミングに再生されるべきイベントを表すイベントデータEVを含んで構成される。   The performance data PD includes, for example, a plurality of tracks TR of tracks 1 to n, and each track TR includes timing data TM and event data EV representing an event to be reproduced at a timing indicated by the timing data TM. Composed.

タイミングデータTMは、イベントデータEVで表される各種イベントを処理すべき時間を表すデータである。本実施例では、タイミングデータTMは、小節数、該小節での拍数、及び該拍におけるクロック数(小節:拍:クロック)で表している。なお、イベントの処理時間は、演奏開始からの絶対時間で表してもよいし、前のイベントからの経過時間である相対時間で表すようにしてもよい。   The timing data TM is data representing the time for processing various events represented by the event data EV. In this embodiment, the timing data TM is represented by the number of bars, the number of beats in the bar, and the number of clocks in the beat (bar: beat: clock). The event processing time may be expressed as an absolute time from the start of the performance, or may be expressed as a relative time that is an elapsed time from the previous event.

イベントデータEVは、楽曲を再生させる為の各種イベントの内容を表すデータである。イベントには、ノートオンイベントとノートオフイベントの組合せである楽曲の発生に直接関係する音符を表すノートイベント(音符データ)と、ピッチチェンジイベント(ピッチベンドイベント)、テンポチェンジイベント、音色チェンジイベントなどの楽曲の再生態様などを設定するための設定イベントが含まれる。それぞれのノートイベントには、音高、発音長(ゲートタイム)、音量(ベロシティ)等が記録されている。   The event data EV is data representing the contents of various events for reproducing music. Events include note events (note data) that represent notes that are directly related to the occurrence of music, which is a combination of note-on and note-off events, pitch change events (pitch bend events), tempo change events, tone change events, etc. A setting event for setting the reproduction mode of the music is included. Each note event records a pitch, a pronunciation length (gate time), a volume (velocity), and the like.

コードシーケンスCSは、曲データMDのコード進行を表すコード情報をコードイベントとして記録するシーケンスデータであり、演奏データPDのトラックTRと同様に、タイミングデータTMと該タイミングデータTMの表すタイミングにおける楽曲データMDのコード情報を表すコードイベント(イベントデータEV)を含んで構成される。   The chord sequence CS is sequence data for recording chord information representing the chord progression of the music data MD as a chord event. Like the track TR of the performance data PD, the chord sequence CS is music data at the timing represented by the timing data TM and the timing data TM. A code event (event data EV) representing MD code information is included.

なお、伴奏パターンデータの形式は、曲データMDの演奏データPDと同様である。また、本実施例では、伴奏パターンデータには、鍵盤楽器における左手伴奏用のトラックのみが含まれるが、和音伴奏を行うためのトラック、ベース音による伴奏を行うためのトラック、リズムトラック等の複数のトラックを含ませることが出来る。なお、伴奏パターンデータにおいては、リズムトラックを除く各トラックの伴奏データは、所定のコードに基づいて作成されており、演奏時に、コードシーケンスCSに指定されるコード情報に従ってコード変換される。例えば、所定のコードはCメジャーであり、伴奏データ中の音高を演奏時に指定されるコードに合うように変換される。なお、この伴奏データの所定のコードは、固定でも良いし可変でも良い。   The format of the accompaniment pattern data is the same as the performance data PD of the music data MD. In this embodiment, the accompaniment pattern data includes only the left-hand accompaniment track for the keyboard instrument. However, the accompaniment pattern data includes a plurality of tracks including a chord accompaniment track, a bass accompaniment track, and a rhythm track. Can be included. In the accompaniment pattern data, the accompaniment data of each track excluding the rhythm track is created based on a predetermined chord, and the chord is converted according to the chord information specified in the chord sequence CS at the time of performance. For example, the predetermined chord is C major, and the pitch in the accompaniment data is converted to match the chord specified at the time of performance. The predetermined code of the accompaniment data may be fixed or variable.

なお、伴奏パターンデータは、当該伴奏パターンデータのセクション名(イントロ、メイン、エンディング等)、小節数(例えば、1小節、4小節、8小節等)、及びジャズ、ロック、クラッシック等の音楽ジャンルの種類等の識別情報を含む。   The accompaniment pattern data includes the section name (intro, main, ending, etc.) of the accompaniment pattern data, the number of measures (for example, 1 measure, 4 measures, 8 measures, etc.), and the music genre such as jazz, rock, classic, etc. Includes identification information such as type.

さらに、伴奏パターンデータとして、曲データの一部を使用することも出来る。曲データの任意のパートをそのまま使用する場合は、コード情報は参照しなくとも良い。ただし、伴奏音の制御時にはコード情報を参照することがありえる。例えば、音長を伸ばす音がコードに合う音(コード構成音)になるようにするためにコード情報を参照して変換することがある。また、曲データのあるパートのある小節を伴奏パターンデータとして使う場合は、コード情報を参照して伴奏音を生成する。   Furthermore, a part of music data can be used as accompaniment pattern data. If any part of the song data is used as it is, the chord information need not be referred to. However, the chord information may be referred to when controlling the accompaniment sound. For example, the chord information may be referred to and converted so that the sound that extends the sound length becomes a sound that matches the chord (chord constituent sound). Also, when using a measure with a part with music data as accompaniment pattern data, an accompaniment sound is generated with reference to chord information.

図3は、本発明の実施例による自動伴奏生成処理を表すフローチャートである。   FIG. 3 is a flowchart showing automatic accompaniment generation processing according to the embodiment of the present invention.

ステップSA1で、自動伴奏生成処理を開始して、ステップSA2で、初期設定を行う。この初期設定は、例えば、曲データMD及び該曲データに対して使用する伴奏パターンデータの選択、区間の分割方法(コード、小節等)を、図1の操作子9等を用いて設定する。なお、本実施例では、コードシーケンスに従い、コード区間ごとに曲データを分割する。コード区間とは、同一コードが続く区間である。   In step SA1, automatic accompaniment generation processing is started, and initial setting is performed in step SA2. In this initial setting, for example, selection of music data MD and accompaniment pattern data to be used for the music data and division method (code, measure, etc.) are set by using the operator 9 in FIG. In this embodiment, the song data is divided for each chord section according to the chord sequence. A code section is a section in which the same code continues.

ステップSA3では、ステップSA2で選択した曲データMDに含まれるコード情報(コードシーケンス)CSを参照して、曲データMDをコード区間ごとに分割する。   In step SA3, the song data MD is divided into code sections with reference to the chord information (code sequence) CS included in the song data MD selected in step SA2.

ステップSA4では、ステップSA3で分割した各コード区間ごとに、ステップSA2で選択した伴奏パターンデータを用いて伴奏情報を生成する。ここでの、各コード区間ごとの伴奏情報生成処理は、図4を用いて後述する。図4に示す伴奏情報生成処理をコード区間数分繰り返して、曲データMDの全体に伴奏を付加した後に、ステップSA5で、自動伴奏生成処理を終了する。   In step SA4, accompaniment information is generated for each chord section divided in step SA3 using the accompaniment pattern data selected in step SA2. The accompaniment information generation process for each chord section here will be described later with reference to FIG. The accompaniment information generation process shown in FIG. 4 is repeated for the number of chord sections, and after accompaniment is added to the entire music data MD, the automatic accompaniment generation process is terminated in step SA5.

図4は、図3のステップSA4で行われる伴奏情報生成処理を表すフローチャートである。   FIG. 4 is a flowchart showing the accompaniment information generation process performed in step SA4 of FIG.

ステップSB1で、伴奏情報生成処理を開始し、ステップSB2で、曲データMDの対象区間(今回の処理対象のコード区間)から、メロディデータ(例えば、メロディパートと考えられるトラック内の演奏データ)を抽出し、該メロディデータの最低音高(メロディ最低音高)を検出する。なお、メロディパートの検出は、例えば、複数のトラック中で最高音を含むトラックをメロディパートとしてもよいし、ユーザの指定するトラックをメロディパートとしても良い。また、一つのトラックをメロディパートとするだけでなく、複数のトラックをまとめて一つのメロディパートとして検出/選択できるようにしても良い。その他、周知の検出方法を用いて、メロディパートを検出しても良い。   In step SB1, accompaniment information generation processing is started, and in step SB2, melody data (for example, performance data in a track considered to be a melody part) is obtained from the target section of the song data MD (the current processing target chord section). Extraction is performed to detect the minimum pitch (melody minimum pitch) of the melody data. In the detection of the melody part, for example, a track including the highest sound among a plurality of tracks may be set as the melody part, or a track designated by the user may be set as the melody part. Further, not only one track may be a melody part, but a plurality of tracks may be collectively detected and selected as one melody part. In addition, the melody part may be detected using a known detection method.

ステップSB3では、ステップSB2で検出したメロディ最低音高を元に、伴奏最高音高を決定する。伴奏最高音高は、この伴奏情報生成処理で生成する伴奏情報に含まれるノートイベントの最高音高(ノートナンバーの最高値)を指定するパラメータであり、例えば、メロディ最低音高未満の値を決定(後述の図5(B)の説明を参照)するようにしても良いし、メロディ最低音高の3半音下等のメロディ最低音高より下の音で、且つ両手で演奏する際に右手で演奏されるメロディパートの演奏に支障がない程度に離れた音階以下を指定(後述の図5(C)の説明を参照)するようにしても良い。   In step SB3, the highest accompaniment pitch is determined based on the lowest melody pitch detected in step SB2. The accompaniment maximum pitch is a parameter that specifies the maximum pitch of the note event (maximum note number) included in the accompaniment information generated by the accompaniment information generation process. For example, a value less than the minimum pitch of the melody is determined. (Refer to the description of FIG. 5B, which will be described later) or a sound lower than the lowest melody pitch, such as 3 semitones below the lowest melody pitch, and with the right hand when playing with both hands. You may make it designate below the scale apart so that the performance of the melody part to be performed is not hindered (refer to the description of FIG. 5C described later).

ステップSB4では、図1のRAM3等に作成される伴奏音リストDataListの内容を初期化する。   In step SB4, the contents of the accompaniment sound list DataList created in the RAM 3 or the like in FIG. 1 are initialized.

ステップSB5では、対象区間(今回の処理対象のコード区間)に対応する伴奏パターンデータを1音(1ノートイベント)ずつ読み出して、PatternNoteとして記憶する。その後、ステップSB6で、当該PatternNoteを、曲データMDに含まれるコードシーケンスCSに基づき、現時点での有効なコード(現タイミングに対応するコード)に合うように変換(トランスポーズ)する。   In step SB5, accompaniment pattern data corresponding to the target section (the chord section to be processed this time) is read out one note (one note event) at a time and stored as PatternNote. After that, in Step SB6, the PatternNote is converted (transposed) to match the current effective code (code corresponding to the current timing) based on the code sequence CS included in the song data MD.

ステップSB7では、ステップSB6で変換したPatternNoteの音高が、ステップSB3で決定した伴奏最高音高以上か否かを判断する。伴奏最高音高以上である場合は、YESの矢印で示すステップSB9に進み、伴奏最高音高未満である場合は、NOの矢印で示すステップSB8に進む。   In step SB7, it is determined whether the pitch of the PatternNote converted in step SB6 is equal to or higher than the accompaniment maximum pitch determined in step SB3. If it is equal to or higher than the accompaniment maximum pitch, the process proceeds to step SB9 indicated by an arrow of YES, and if it is less than the maximum accompaniment pitch, the process proceeds to step SB8 indicated by an arrow of NO.

ステップSB8では、変換したPatternNoteを含む伴奏音情報(ステップSB5で読み出したノートイベントをステップSB6で変換したPatternNoteで置換した伴奏データ)を伴奏音リストDataListに追加する。その後、ステップSB11に進む。   In step SB8, accompaniment sound information including the converted PatternNote (accompaniment data obtained by replacing the note event read in step SB5 with the PatternNote converted in step SB6) is added to the accompaniment sound list DataList. Thereafter, the process proceeds to step SB11.

ステップSB9では、伴奏音リストDataListが初期状態(PatternNoteが何も登録されていない状態)であるか否かを判断する。初期状態である場合は、YESの矢印で示すステップSB11に進み、初期状態でない場合、すなわち少なくとも一つのPatternNoteが登録されている場合は、NOの矢印で示すステップSB10に進む。本実施例では、PatternNoteの音高が、伴奏最高音高以上である場合に、一つ前のタイミングのPatternNote(伴奏音リストDataListの最後尾に登録されているPatternNote)の音長(ゲートタイム)に、現在のタイミングのPatternNoteの音長を加算する。そのような加算を行うためには、少なくとも一つのPatternNoteが登録されている必要があるので、ここでそれを判断する。   In step SB9, it is determined whether or not the accompaniment sound list DataList is in an initial state (a state in which no PatternNote is registered). If it is in the initial state, the process proceeds to step SB11 indicated by an arrow of YES. If it is not in the initial state, that is, if at least one PatternNote is registered, the process proceeds to step SB10 indicated by an arrow of NO. In this embodiment, when the pitch of PatternNote is equal to or higher than the highest accompaniment pitch, the note length (gate time) of PatternNote (PatternNote registered at the end of the accompaniment sound list DataList) at the previous timing is used. To the note length of PatternNote at the current timing. In order to perform such addition, since at least one PatternNote needs to be registered, it is determined here.

ステップSB10では、伴奏音リストDataListの最後尾に登録されているPatternNoteの音長(ゲートタイム)に、現在のタイミングのPatternNoteの音長を加算する。これにより、現タイミングのPatternNoteが演奏上(楽譜上)削除されることになり、現タイミングのPatternNoteを演奏する必要がなくなり右手で行われるメロディ演奏との競合がなくなる。   In step SB10, the length of the PatternNote at the current timing is added to the length of the PatternNote (gate time) registered at the end of the accompaniment sound list DataList. As a result, the PatternNote at the current timing is deleted on the performance (on the score), and there is no need to play the PatternNote at the current timing, and there is no conflict with the melody performance performed with the right hand.

ステップSB11では、今回のタイミングのPaternNoteが、対象区間の最後の伴奏パターンデータ(ノートイベント)であるか否かを判断する。最後のデータである場合は、YESの矢印で示すステップSB12に進む。最後のデータでない場合は、NOの矢印で示すステップSB5に戻り以降の処理を繰り返す。   In step SB11, it is determined whether the PatternNote at the current timing is the last accompaniment pattern data (note event) in the target section. If it is the last data, the process proceeds to step SB12 indicated by a YES arrow. If it is not the last data, the process returns to step SB5 indicated by a NO arrow and the subsequent processing is repeated.

ステップSB12では、伴奏音リストDataListを伴奏音情報として出力する。その後、ステップSB13に進み、今回の伴奏音生成処理を終了する。なお、この伴奏音生成処理は、図3のステップSA3で抽出した対象区間全てについて行われる。出力した伴奏音情報は、例えば、楽譜表示画面を生成するために用いられ、伴奏音情報に基づき生成された楽譜表示画面は、図1のディスプレイ11等に表示される。ユーザは、該楽譜表示画面を参照して、演奏を行う。なお、楽譜表示の際は、元の曲データMDを伴奏音情報にあわせて表示する。また、出力した伴奏音情報は、自動演奏用に用いることもできる。   In step SB12, the accompaniment sound list DataList is output as accompaniment sound information. Then, it progresses to step SB13 and complete | finishes this accompaniment sound production | generation process. This accompaniment sound generation process is performed for all the target sections extracted in step SA3 in FIG. The output accompaniment sound information is used, for example, to generate a score display screen, and the score display screen generated based on the accompaniment sound information is displayed on the display 11 of FIG. The user performs with reference to the score display screen. When displaying the score, the original music data MD is displayed along with the accompaniment sound information. The output accompaniment sound information can also be used for automatic performance.

図5は、図4の伴奏音生成処理を説明するための図である。   FIG. 5 is a diagram for explaining the accompaniment sound generation processing of FIG.

図5(A)は、図4のステップSB6までの処理を行った後の伴奏情報及びメロディパートを示す図である。図5(A)に示す2小節分のメロディパートは、対象区間ST1〜ST4にコードごとに分割されている。ここで、図4のステップSB7での判断基準が、「PatternNoteがステップSB3で決定した伴奏最高音高(=メロディ最低音高)以上か否か」である場合と、「PatternNoteがステップSB3で決定した伴奏最高音高(=メロディ最低音高)から3半音下以上であるか否か」である場合とを説明する。   FIG. 5A is a diagram showing accompaniment information and melody parts after performing the processing up to step SB6 in FIG. The melody part for two measures shown in FIG. 5A is divided into target sections ST1 to ST4 for each chord. Here, the determination criteria in step SB7 of FIG. 4 are “whether or not PatternNote is equal to or higher than the accompaniment highest pitch (= melody lowest pitch) determined in step SB3”, and “PatternNote is determined in step SB3”. The case where the accompaniment is at least three semitones below the highest accompaniment pitch (= lowest melody pitch) will be described.

判断基準が、「PatternNoteがステップSB3で決定した伴奏最高音高(=メロディ最低音高)以上か否か」である場合は、区間ST3の第3音目が「PatternNoteがステップSB3で決定した伴奏最高音高以上」であるので、当該第3音目のノートイベントを削除(伴奏音リストDataListに登録しない)で、該ノートイベントのゲートタイム(音長)を第2音目に加算する。このようにして、図5(B)に示すような伴奏音情報を出力する。なお、区間ST1、ST2及びST4では、PatternNoteの音高が伴奏最高音高を超えることがないので、PatternNoteは、そのまま伴奏音リストDataListに記録され出力される。   When the determination criterion is “whether or not PatternNote is equal to or higher than the highest accompaniment pitch determined in step SB3” (= the lowest pitch of the melody), the third note in the section ST3 is “the accompaniment determined by PatternNote in step SB3”. Since it is equal to or higher than the highest pitch, the note event of the third sound is deleted (not registered in the accompaniment sound list DataList), and the gate time (sound length) of the note event is added to the second sound. In this way, accompaniment sound information as shown in FIG. 5B is output. In the sections ST1, ST2 and ST4, since the pitch of the PatternNote does not exceed the maximum accompaniment pitch, the PatternNote is recorded and output as it is in the accompaniment sound list DataList.

判断基準が、「PatternNoteがステップSB3で決定した伴奏最高音高(=メロディ最低音高)から3半音下以上であるか否か」である場合は、区間ST3の第2音目及び第3音目が、「PatternNoteがステップSB3で決定した伴奏最高音高(=メロディ最低音高)から3半音以下」であるので、当該第2音目及び第3音目のノートイベントを削除(伴奏音リストDataListに登録しない)で、該ノートイベントのゲートタイム(音長)を第1音目に加算する。このようにして、図5(C)に示すような伴奏音情報を出力する。なお、区間ST1、ST2及びST4では、PatternNoteの音高が伴奏最高音高を超えることがないので、PatternNoteは、そのまま伴奏音リストDataListに記録され出力される。   When the criterion is “whether or not PatternNote is 3 semitones or more lower than the accompaniment highest pitch (= melody lowest pitch) determined in step SB3”, the second and third sounds in the interval ST3 Since the eye is “PatternNote is less than 3 semitones from the highest accompaniment pitch determined in step SB3 (= melody lowest pitch)”, the note events of the second and third notes are deleted (accompaniment list) The gate time (sound length) of the note event is added to the first sound. In this way, accompaniment sound information as shown in FIG. 5C is output. In the sections ST1, ST2 and ST4, since the pitch of the PatternNote does not exceed the maximum accompaniment pitch, the PatternNote is recorded and output as it is in the accompaniment sound list DataList.

以上、本実施例によれば、コードシーケンスに基づき伴奏パターンデータを編集した後に、メロディパートの最低音と重ならないように伴奏情報を生成するので、伴奏パターンを利用して生成した伴奏情報であっても、メロディパートと音域が重なることがない。よって、ユーザは、表示装置等に表示される伴奏情報及びメロディパートを含む楽譜を参照して、両手による実際の演奏が可能となる。   As described above, according to the present embodiment, the accompaniment information is generated so that it does not overlap the lowest sound of the melody part after editing the accompaniment pattern data based on the chord sequence. However, the melody part and the range do not overlap. Therefore, the user can perform an actual performance with both hands by referring to the musical score including the accompaniment information and the melody part displayed on the display device or the like.

また、伴奏情報の生成は、対象区間ごとに行われるので、伴奏情報の生成において、メロディパートと音域の重なる音の削除は、必要最低限度行えばよい。   In addition, since the accompaniment information is generated for each target section, in the generation of the accompaniment information, it is only necessary to delete the sound that overlaps the melody part and the range.

なお、上述の実施例ではコード区間毎に伴奏パートとメロディパートの重なりをチェックしているが、例えば数小節にわたるコード区間の場合は、さらに小節単位に分けてチェックしてもよい。   In the above-described embodiment, the overlap between the accompaniment part and the melody part is checked for each chord section. However, for example, in the case of a chord section extending over several bars, the check may be further divided into measures.

また、伴奏パターンデータは左手パート用のデータだけに対応しているものでもよいし、複数パート含まれていて、その中の一部のパートを指定して使うようにしてもよい。   The accompaniment pattern data may correspond only to the data for the left hand part, or may include a plurality of parts, and a part of them may be designated and used.

さらに、対象区間内のメロディ音との重なりチェックにより出力しないように判断された伴奏音について、実施例では出力せずにその伴奏音の音長を同一区間内で直前に出力した伴奏音の音長に加えているが、一旦出力した後にその伴奏音を削除して直前の伴奏音の音長を修正する形式にしてもよい。   Furthermore, for accompaniment sounds that are determined not to be output by checking for overlap with the melody sound in the target section, the accompaniment sound length that was output immediately before the accompaniment sound in the same section is not output in the embodiment. Although it is added to the length, once it is output, the accompaniment sound may be deleted and the sound length of the previous accompaniment sound may be corrected.

なお、ある区間の最初の伴奏音がメロディ音と重なると判断された場合には、例えばその区間は伴奏音を出力しない、もしくは、メロディ音に重ならない音高になるまで伴奏音のオクターブを下げて出力する、などの対応が考えられる。   If it is determined that the first accompaniment sound in a section overlaps the melody sound, for example, the accompaniment sound octave is lowered until the section does not output the accompaniment sound or the pitch does not overlap the melody sound. It is possible to take measures such as

なお、区間決定や伴奏パターンデータの展開に使用されるコードシーケンスは、上述したように、曲データに予め含まれていてもよいし、伴奏データを生成する前にユーザが入力・編集したものでもよい。あるいは、曲データの音符情報より自動検出したコード情報を使ってもよい。   As described above, the chord sequence used for section determination and accompaniment pattern data development may be included in the song data in advance, or may be input / edited by the user before the accompaniment data is generated. Good. Or you may use the chord information automatically detected from the note information of music data.

また、区間内のメロディ音は、その区間内に完全に含まれている音符情報(ノートイベント)だけでなく、区間前から始まって区間内にキーオン状態にある音符情報や区間内で始まって後ろのどこかの区間でキーオフ状態になる音符情報も含まれる。   In addition, the melody sound within a section is not only the note information (note event) that is completely contained within the section, but also the note information that starts before the section and is in the key-on state within the section, and begins and ends within the section. Note information that is in the key-off state in any section of is also included.

なお、伴奏パターンデータは実施例では1種類を継続して用いることを想定しているが、曲中で他の種類の伴奏パターンデータに変わってもよい。また、伴奏パターンデータのセクション種類が曲の途中で変わってもよい。   In the embodiment, it is assumed that one type of accompaniment pattern data is continuously used. However, the accompaniment pattern data may be changed to other types of accompaniment pattern data in a song. Also, the section type of the accompaniment pattern data may change during the song.

なお、本実施例は、本実施例に対応するコンピュータプログラム等をインストールした汎用のコンピュータ等によって、実施させるようにしてもよい。   Note that this embodiment may be implemented by a general-purpose computer or the like in which a computer program or the like corresponding to this embodiment is installed.

その場合には、本実施例に対応するコンピュータプログラム等を、CD−ROMやフロッピーディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。   In that case, the computer program or the like corresponding to the present embodiment may be provided to the user while being stored in a storage medium that can be read by the computer, such as a CD-ROM or a floppy disk.

以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。   Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

本発明の実施例による自動伴奏生成装置1を構成する電子楽器のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the electronic musical instrument which comprises the automatic accompaniment production | generation apparatus 1 by the Example of this invention. 本実施例による曲データMDのフォーマットを示す概念図である。It is a conceptual diagram which shows the format of the music data MD by a present Example. 本発明の実施例による自動伴奏生成処理を表すフローチャートである。It is a flowchart showing the automatic accompaniment production | generation process by the Example of this invention. 図3のステップSA4で行われる伴奏情報生成処理を表すフローチャートである。It is a flowchart showing the accompaniment information generation process performed by step SA4 of FIG. 図4の伴奏音生成処理を説明するための図である。It is a figure for demonstrating the accompaniment sound production | generation process of FIG.

符号の説明Explanation of symbols

1…自動伴奏生成装置、2…バス、3…RAM、4…ROM、5…CPU、6…タイマ、7…外部記憶装置、8…検出回路、9…操作子、10…表示回路、11…ディスプレイ、12…音源回路、13…効果回路、14…サウンドシステム、17…通信I/F、19…通信ネットワーク、20…外部機器 DESCRIPTION OF SYMBOLS 1 ... Automatic accompaniment production | generation apparatus, 2 ... Bus, 3 ... RAM, 4 ... ROM, 5 ... CPU, 6 ... Timer, 7 ... External storage device, 8 ... Detection circuit, 9 ... Operator, 10 ... Display circuit, 11 ... Display, 12 ... Sound source circuit, 13 ... Effect circuit, 14 ... Sound system, 17 ... Communication I / F, 19 ... Communication network, 20 ... External device

Claims (4)

曲データと伴奏パターンデータを読み出す読み出し手段と、
前記曲データを複数の対象区間に分割する分割手段と、
前記曲データから前記対象区間ごとに、メロディ最低音高を検出する検出手段と、
前記対象区間ごとに、前記メロディ最低音高に基づき、伴奏最高音高を決定する決定手段と、
前記伴奏パターンデータから伴奏情報を生成する生成手段と、
前記伴奏情報を出力する出力手段と、
前記伴奏情報の音高が、前記伴奏最高音高以上の場合に、該伴奏情報を出力しないように、前記出力手段を制御する制御手段と
を有する自動伴奏生成装置。
Reading means for reading out song data and accompaniment pattern data;
Dividing means for dividing the song data into a plurality of target sections;
Detecting means for detecting a minimum melody pitch for each target section from the song data;
For each of the target section, a determining means based on said melody minimum pitch, determines the accompaniment highest pitch,
Generating means for generating accompaniment information from the accompaniment pattern data;
Output means for outputting the accompaniment information;
An automatic accompaniment generating apparatus comprising: control means for controlling the output means so that the accompaniment information is not output when the pitch of the accompaniment information is equal to or higher than the maximum accompaniment pitch.
前記分割手段は、前記曲データから取得されるコード情報に基づき、前記曲データを複数の対象区間に分割する請求項記載の自動伴奏生成装置。 Said dividing means, based on the code information acquired from the music data, the automatic accompaniment generating apparatus according to claim 1, wherein dividing the music data to a plurality of target section. 前記制御手段は、前記伴奏最高音高以上の場合に、さらに、直前に出力した伴奏情報の音長に、出力をしないように制御した伴奏情報の音長を加算する請求項1又は2記載の自動伴奏生成装置。 Wherein when more than the accompaniment highest pitch, further the tone length accompaniment information output immediately before, according to claim 1 or 2, wherein adding the tone length control and accompaniment information so as not to output Automatic accompaniment generator. 曲データと伴奏パターンデータを記憶手段から読み出す読み出し手順と、
前記曲データを複数の対象区間に分割する分割手順と、
前記曲データから前記対象区間ごとに、メロディ最低音高を検出する検出手順と、
前記対象区間ごとに、前記メロディ最低音高に基づき、伴奏最高音高を決定する決定手順と、
前記曲データに含まれるコード情報を参照して、前記伴奏パターンデータから伴奏情報を生成する生成手順と、
前記伴奏情報を出力手段から出力する出力手順と、
前記伴奏情報の音高が、前記伴奏最高音高以上の場合に、該伴奏情報を出力しないように、前記出力手段を制御する制御手順と
コンピュータに実行させるための自動伴奏生成プログラム。
A reading procedure for reading music data and accompaniment pattern data from the storage means,
A division procedure for dividing the song data into a plurality of target sections;
A detection procedure for detecting a minimum melody pitch for each target section from the song data;
A determination procedure for determining the highest accompaniment pitch based on the lowest melody pitch for each target section ;
A generation procedure for generating accompaniment information from the accompaniment pattern data with reference to the chord information included in the song data;
An output procedure for outputting the accompaniment information from an output means ;
An automatic accompaniment generating program for causing a computer to execute a control procedure for controlling the output means so that the accompaniment information is not output when the pitch of the accompaniment information is equal to or higher than the maximum accompaniment pitch.
JP2003395926A 2003-11-26 2003-11-26 Automatic accompaniment generator and program Expired - Fee Related JP4186802B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003395926A JP4186802B2 (en) 2003-11-26 2003-11-26 Automatic accompaniment generator and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003395926A JP4186802B2 (en) 2003-11-26 2003-11-26 Automatic accompaniment generator and program

Publications (2)

Publication Number Publication Date
JP2005156983A JP2005156983A (en) 2005-06-16
JP4186802B2 true JP4186802B2 (en) 2008-11-26

Family

ID=34721556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003395926A Expired - Fee Related JP4186802B2 (en) 2003-11-26 2003-11-26 Automatic accompaniment generator and program

Country Status (1)

Country Link
JP (1) JP4186802B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2815751C1 (en) * 2020-08-18 2024-03-21 Кабусики Кайся Тосиба Cold preservation material particle, cold preservation device, refrigerator, cryogenic pump, superconducting magnet, nuclear magnetic resonance imaging device, nuclear magnetic resonance device, device for growing monocrystal by drawing method with application of magnetic field, and method of producing particles of material for maintaining cold

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4962592B2 (en) * 2010-04-22 2012-06-27 ヤマハ株式会社 Electronic musical instruments and computer programs applied to electronic musical instruments

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2815751C1 (en) * 2020-08-18 2024-03-21 Кабусики Кайся Тосиба Cold preservation material particle, cold preservation device, refrigerator, cryogenic pump, superconducting magnet, nuclear magnetic resonance imaging device, nuclear magnetic resonance device, device for growing monocrystal by drawing method with application of magnetic field, and method of producing particles of material for maintaining cold

Also Published As

Publication number Publication date
JP2005156983A (en) 2005-06-16

Similar Documents

Publication Publication Date Title
JP3718919B2 (en) Karaoke equipment
WO2012132901A1 (en) Accompaniment data generation device
JP3528654B2 (en) Melody generator, rhythm generator, and recording medium
JP3637775B2 (en) Melody generator and recording medium
JP5891656B2 (en) Accompaniment data generation apparatus and program
JP3915807B2 (en) Automatic performance determination device and program
JP4186802B2 (en) Automatic accompaniment generator and program
JP2006126710A (en) Playing style determining device and program
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP3654227B2 (en) Music data editing apparatus and program
JP3656584B2 (en) Performance data processing apparatus and program
JP4552769B2 (en) Musical sound waveform synthesizer
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP3752859B2 (en) Automatic composer and recording medium
JP3960242B2 (en) Automatic accompaniment device and automatic accompaniment program
JP5104414B2 (en) Automatic performance device and program
JP4172509B2 (en) Apparatus and method for automatic performance determination
JP3797180B2 (en) Music score display device and music score display program
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP2001350469A (en) Device and method for deciding sounding length and recording medium
JP5626062B2 (en) Accompaniment data generation apparatus and program
JP4900233B2 (en) Automatic performance device
JP5104293B2 (en) Automatic performance device
JP3931727B2 (en) Performance information editing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080901

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130919

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees