JP3804500B2 - Music score editing device - Google Patents

Music score editing device Download PDF

Info

Publication number
JP3804500B2
JP3804500B2 JP2001294128A JP2001294128A JP3804500B2 JP 3804500 B2 JP3804500 B2 JP 3804500B2 JP 2001294128 A JP2001294128 A JP 2001294128A JP 2001294128 A JP2001294128 A JP 2001294128A JP 3804500 B2 JP3804500 B2 JP 3804500B2
Authority
JP
Japan
Prior art keywords
score
editing
key
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001294128A
Other languages
Japanese (ja)
Other versions
JP2003099033A (en
Inventor
克己 石川
啓樹 穴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001294128A priority Critical patent/JP3804500B2/en
Publication of JP2003099033A publication Critical patent/JP2003099033A/en
Application granted granted Critical
Publication of JP3804500B2 publication Critical patent/JP3804500B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、複数の担当者の情報を分かりやすく編集できる情報編集装置および楽譜を演奏者の演奏の調に応じて、または選択されたパートに応じて楽譜を編集する楽譜編集装置に関する。
【0002】
【発明が解決しようとする課題】
所定のフォーマットで画像化される楽譜データを記憶し、これをそのフォーマットのまま表示または印刷する装置は従来より実用化されていた。しかし、このような装置では、1つの楽譜データから生成される楽譜が1種類に限定されてしまい、同じ曲であっても、スコア(総譜)とパート譜とは別々の楽譜データを持たなければならないという欠点があった。また、スコアの楽譜データから一部のパートのみを抜き出して表示または印刷しても、もともとスコア用にフォーマットまたはレイアウトされているため、パート譜としては非常に見づらいものであった。
【0003】
また、演奏者(歌唱者を含む)がどの調(キー)で演奏をするかが分からない場合、全ての調の伴奏譜を用意するのは困難なことであり、伴奏者が演奏調に合わせて伴奏譜を移調して読み換えて伴奏することは非常に技術が必要であった。
【0004】
この発明は、演奏者の演奏調に合わせた調の伴奏譜を表示することができる楽譜編集装置、選択されたパートの特性に応じた楽譜の編集、選択された複数パートに応じた楽譜の編集が可能な楽譜編集装置、および、複数パートの楽譜と類似する複数担当者の情報を編集する情報編集装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
この発明は、複数パートの曲データを記憶した記憶手段と、前記曲データの各パートおよび複数パートからなるグループの楽譜を編集する場合の編集ルールを記憶した編集知識ベースと、前記ループを選択することにより、そのグループに属するパートを楽譜として出力するパートとして選択するパート選択手段と、前記選択したグループおよびそのグループに属するパートに対応する編集ルールを前記編集知識ベースから読み出し、該読み出した編集ルールに基づいて、前記選択されたパートのデータを楽譜として編集する編集手段と、を備えたことを区長とする。
【0010】
この発明は、上記発明において、前記編集手段が編集した楽譜を表示する表示手段と、この表示手段に表示された楽譜に基づく演奏者の演奏の進行を検出する進行検出手段と、を備え、前記編集手段は、この進行検出手段の検出結果に応じて前記表示手段に表示させる楽譜を更新することを特徴とする。
この発明は、上記発明において、演奏者が演奏する調を指定する調指定手段を備え、前記編集手段は、曲データの本来の調にかかわらず前記調指定手段によって指定された調で楽譜を編集することを特徴する。
【0011】
この発明では、(自動演奏可能な)複数パートの曲データに基づき、選択手段によって選択されたパートに応じて楽譜を編集する。楽譜は、選択されたパートに応じて編集される。たとえば、選択されたパートに応じた譜表(ト音譜表やヘ音譜表など)を用い、移調楽器の場合には移調して表示する。複数パートが選択された場合には、各パートの時間軸がそろうように音符を配置する、などである。これにより、様々な様式の楽譜、たとえば、パート譜、セクション譜、TAB譜、フレーズ譜、コーラス譜、メロディ譜、ドラム譜、パーカッション譜等々を生成することができる。
また、編集ルールとして、オクターブ調整、特殊奏法の記述、管の種類による移調、ドラム・パーカッションの対応付け、コーラスパートの声部による段分け、ピアノの大譜表、メロディ譜の歌詞表示などを記憶することによって、演奏される楽器の特性に合わせて適切な楽譜を生成することができる。
【0012】
【発明の実施の形態】
図面を参照してこの発明の楽譜表示印刷装置について説明する。図1は同楽譜表示印刷装置のブロック図である。この楽譜表示印刷装置は、曲データベース11に記憶されている曲データに基づいて、楽譜編集部10が楽譜を編集して表示またはプリントする装置である。曲データベース11は、1または複数の楽曲の曲データを記憶している。曲データは、自動演奏可能なデータであり、図2に示すような構成をしている。楽譜編集部10は、この自動演奏可能な形式の曲データを演奏者が楽譜として見ることができる形式に音符などを展開して楽譜に編集する機能を備えている。楽譜編集知識ベース12は、上記曲データを楽譜に編集するための様々なルールを記憶したものである。この編集ルールの一例を図3に示す。
【0013】
楽譜編集部10には、上記曲データベース11、楽譜編集知識ベース12のほか、パート選択部13、調指定部14、音源16、表示部17、印刷部18が接続されている。
【0014】
調指定部14は、楽譜として表示または印刷する曲の調を指定する。楽譜編集部10は、その曲の曲データの元々の調にかかわらず調指定部14から指定された調で楽譜を編集する。
【0015】
調指定部14は、操作者が、たとえば「ハ長調」や「ト長調」のように具体的に調を指定するものであってもよく、また、同図のように調検出部14aを備え、この調検出部14aが検出した調を楽譜編集部10に対して指定するものであってもよい。
【0016】
調検出部14aは、たとえば、マイクを備え、マイクから入力された楽器の楽音や歌唱者の歌唱音声の音高を検出し、その音高に基づいて調を検出するものである。たとえば、▲1▼音階を演奏者が楽器で演奏した音階(ド・レ・ミ・ファ・ソ・ラ・シ・ドなど)や歌唱者が歌唱した音階をマイクから入力し、この音階の音高に当てはまる調を検出する。▲2▼楽譜編集部10から曲データ(メロディのデータのみでよい)を取得し、このメロディを演奏者が楽器で演奏したものまたは歌唱者が歌唱したものをマイクから入力し、この入力されたメロディの音高と曲データの音高とを比較して調を決定する。▲3▼楽譜編集部10から曲データ(後述のパート選択部で選択されたパート)の最高音および最低音の音高を取得し、楽器または歌唱の最高音および最低音(音域)をマイクから入力する。曲の最高音および最低音が楽器または歌唱の音域に納まるように調を決定する。などの処理のいずれかで調を決定すればよい。上記▲1▼、▲2▼、▲3▼の処理は調検出部14a、調指定部14、楽譜編集部10のどこで実行してもよい。
【0017】
パート選択部13は、利用者が楽譜に編集すべきパートを選択する操作部である。曲データベース11に記憶されている曲データは、一般的に複数トラックからなっているが、各トラックが予め所定のパート(楽器)と対応づけられている場合には、パート選択は、パートまたはトラックのいずれか一方を選択するのみでよい。また、各トラックがパート(楽器)と対応づけられていない場合には、パート選択は、パートとこのパートに対応づけるトラックの両方を選択する。なお、各トラックが予め所定のパート(楽器)と対応づけられている曲データであっても、パートおよびこれに対応づけるトラックの両方を選択して、パートを組み換えてもよい。
【0018】
楽譜編集部10は、パート選択部13で選択されたパートの楽譜を調指定部14で指定された調で編集する。なお、曲データベース11に複数の曲データが記憶されている場合には、何らかの操作によりそのうちの1曲が選択されているものとする。また、調指定部14からの調の指定がない場合には、曲データのままの調で楽譜を編集するようにすればよい。
【0019】
また、複数のパートが選択されたとき、そのそれぞれのパートのパート譜を作成するようにしてもよく、選択されたパートを組み合わせた複数段の譜面(セクション譜)を作成してもよい。利用者の操作により、上記複数のパート譜を作成するかセクション譜を作成するかを選択できるようにすればよい。
【0020】
ここで、図2を参照して曲データの構成を説明する。曲データは、曲全体に関する情報を記憶したトラック0と、各パートの情報を記憶したトラック1〜nからなっている。各トラックはヘッダおよび本体(body)を有しており、ヘッダには時間に依存しない情報が書き込まれている。たとえば、トラック0のヘッダには、曲名/バージョン、作曲者/作詞者/権利者等のクレジット、ジャンル(大別/詳細)、作成日、パート数(トラック数)などが書き込まれている。また、トラック1〜nのヘッダには、そのパートの、楽器の種類(大別/詳細)、楽器の調性、音域、その他(楽器固有の情報など)などが書き込まれている。
【0021】
また、トラックの本体には、時間依存の情報すなわち曲の進行に応じて読み出しおよび実行されるべきシーケンス情報が書き込まれている。たとえば、トラック0の本体には、テンポ、調性、フレーズ(楽章)マーク/繰り返しマーク、コードマーク、音源駆動時に必要な初期化情報などがその読出タイミングに合わせた時間軸上の位置に書き込まれている。また、トラック1〜nの本体には、そのパートの演奏データ(MIDIデータなど演奏内容を表すデータ)、音源駆動時に必要な初期化情報、その他(楽器固有の情報など)などが書き込まれている。
【0022】
この曲データの各トラックの情報をテンポクロックに合わせて先頭から順次読み出して音源16に入力することにより、この楽曲を自動演奏することができる。楽譜編集部10は、自動演奏可能な形式で記憶されている曲データを演奏者が見て理解できる形式の楽譜に編集して表示部17に表示するとともに印刷部18で印刷する。
【0023】
楽譜編集知識ベース12には、以下のような楽譜編集ルールが記憶されている。
【0024】
楽譜を表示または印刷するために一般的に要求される楽譜編集ルール(一般ルール)としては、たとえば次のようなものがある。
各楽音にその音の長さに応じた適切な音符記号を割り当て、全音符以外の音符のバー(棒)は、その音符が第3線から上にある場合には下に延ばし、第2線から下にある場合には上に延ばす。
この場合において、2つの音符がつながった連音符で第3線をまたぐ場合には、第3線から上の音符から始まるときはバーを下に延ばし、第3線よりも下の音符から始まるときはバーを上に延ばす。
また、3つ以上の音符がつながった連音符で第3線をまたぐ場合において、第3線から上、第3線よりも下の各領域にある音符の数が異なる場合には、多いほうのルールにしたがう。各領域にある音符の数が同じ場合には、第3線から上の音符から始まるときはバーを下に延ばし、第3線よりも下の音符から始まるときはバーを上に延ばす。
【0025】
音符と音符の間隔はその音符の長さに応じたものにする。音符がない(音がない)場所には、その長さに応じた休符を表示する。音高のない打楽器は、TAB譜で表す。複数パートを複数段の楽譜に表す場合には、時間軸を合わせて音符を配列する。
【0026】
次に、選択されたパートに応じた個別の楽譜編集ルール(パート個別ルール)としては、たとえば次のようなものがある。
まず、各パートに応じた五線譜の表記ルールとして以下のようなものがある。バイオリンはト音記号、ビオラはハ音記号(アルト譜)、チェロは、基本はヘ音記号(高音フレーズはハ音記号(テナー譜)またはト音記号)で表す。ベースはヘ音記号で表し、1オクターブ高く表記する。金管楽器やクラリネットなど一部の木管楽器は、管の長さ(B管、F管など)に応じて移調して表記する。ホルンは、調記号を使わずに臨時記号で半音の上下を表す。などである。
【0027】
そして、曲データの種類および選択されたパートに応じて以下のようなルールで楽譜を編集する。まず、フルオーケストラの曲データが選択された場合において、
パート選択部で選択されたパートが「指揮者」であった場合には、全てのトラックを用いて総譜(オーケストラ・スコア)を作成する。このときのパートの配列は、木管楽器(フルート、オーボエ、・・)、金管楽器(ホルン、トランペット、・・)、打楽器、弦楽器(1stバイオリン、2ndバイオリン、・・)の順番に配列する。
パート選択部から選択されたパートが「弦セクション」であった場合、弦楽器パートのトラックを用いて1stバイオリン、2ndバイオリン、ビオラ、チェロ、ベースを組み合わせた楽譜を作成する。
また、合唱つきのオーケストラ曲の場合には、パート選択部から「コーラス」のパートが選択された場合には、4声部のコーラスパートのトラックおよびオーケストラのパートをピアノ伴奏用に編曲したピアノ伴奏譜を組み合わせたコーラス譜面を作成する。
なお、上記のように、パート選択部13によるパートの選択は、バイオリンやフルートなどの個々の具体的な楽器を選択できるのみならず、複数の楽器を同時に選択することもでき、弦セクションなどのグループを選択することもでき、また、指揮者というような楽器を演奏しない立場の人(エグゼクティブなど)をパートとして選択することも可能である。複数の楽器を同時に選択することで、演奏者が旋律や伴奏音などの自パート以外の楽譜も見ることができ、より正確な演奏が可能となる。また、ピアノ伴奏用トラックが設けられていない曲データでピアノ伴奏というパートが選択された場合には、コーラス以外の楽器パートを組み合わせてピアノ伴奏パートを作成するようにしてもよい。
【0028】
次に、ロックバンドの曲データが選択された場合において、
パート選択部で「バンドスコア」が選択された場合には、全パートのトラックを組み合わせていわゆるバンドスコアを作成する。
パート選択部で「リズムセクション」のパートが選択された場合には、ベースパートとドラムパートのトラックを組み合わせたパート譜を作成する。
パート選択部で「ボーカル」が選択された場合には、メロディと歌詞のトラックを用いてボーカル譜を作成する。
【0029】
また、選択された曲データのジャンルがフォーク系の曲の場合には、歌詞とコード記号のみのプリントも可能にする。コード情報は全体情報のトラックに書き込んでおけばよい。
【0030】
また、上記のように移調楽器の場合には、実音と異なる調性、音高で楽譜が表記されるが、これを電子楽器で演奏する場合には、全パートを実音表記にする。この場合には、パートを電子楽器とし、その音色(パート名)を譜面に付記するようにすればよい。
【0031】
図3は、同楽譜表示印刷装置の動作を示すフローチャートである。まず利用者が曲を選択する(s1)。そうすると、楽譜編集部10は曲データベース11から選択された曲の曲データを読み出す(s2)。次に利用者が調を指定するとともにパートを選択してくる(s3,s4)。楽譜編集部10は、この調指定およびパート選択に基づいて必要な編集ルールを楽譜編集知識ベースから読み出す(s5)。そして、この編集ルールに基づいて曲データを楽譜として編集し(s6)、これを表示するとともに印刷する(s7)。
楽譜編集知識ベース12からの編集ルールの読み出しは、編集するパートにかかわらない一般的・汎用的なルールと、編集するパートに応じたパート個別のルールを読み出す。
【0032】
また、s7の表示・印刷動作は、いずれか一方でもよい。楽譜の内容をより的確にするためには、編集された楽譜をまず表示部17に表示し(s10)、利用者がこの表示された楽譜を見ながらレイアウトや音符の表現などをマニュアル操作で修正して楽譜を確定し(s11)、この確定した楽譜を印刷部18で印刷する(s12)。
【0033】
また、印刷せずに表示部17に表示するのみでもよく、この場合、楽譜が複数ページにわたる場合には、利用者(演奏者)のボタンスイッチのオンなどのページめくり操作または曲の進行を検出して(s15)、表示部17に表示する楽譜のページを進めていくようにすればよい(s16、s17、s18)。
【0034】
図4は、印刷部を備えず、複数の表示部を備えた楽譜表示装置を示すブロック図である。この装置は、たとえばオーケストラの曲データに基づいて、オーケストラの各パートに楽譜を表示する装置である。この図面において、楽譜編集部20は、図1の楽譜編集部10と同様に楽譜を編集するが、オーケストラの曲データに基づいて同時に複数のパートの楽譜を編集(表示)する。表示部27は、各パートの演奏位置に設置されており、オーケストラの各パートの演奏者がそのパートの演奏位置に設置されている表示部27を見ることができるようになっている。各表示部27には、それが設置されている位置に応じたパートの楽譜が表示される。この図では、曲データベース、楽譜知識ベース、調指定部等の記載は省略しているが、この装置には曲データベースからオーケストラの曲データが供給され、楽譜編集知識ベースには各パートのパート譜を作成するための編集ルールが供給されているものとする。
【0035】
楽譜編集部20は、進行指示部23から入力された曲の進行に応じて各表示部27に表示する楽譜を同期して更新する。楽譜は、更新時にリアルタイムに編集してもよく、予め編集しておいて楽譜記憶部21に記憶しておいてもよい。この予め編集する動作は、演奏者の演奏スタート前に全曲分を編集しておいてもよく、演奏者が演奏しているときに前倒し処理で編集するようにしてもよい。
【0036】
これにより、オーケストラなどの多人数の演奏であっても、各自にパート譜面を配付せずに全員にパート譜面を表示しながら演奏することができ、いわゆる譜めくりの手間も省くことができる。
【0037】
図5は、この発明の他の実施形態である伴奏楽譜表示装置のブロック図である。この伴奏楽譜表示装置は、歌唱者のキー(調性)を検出してその調に移調した楽譜を表示し、歌唱者の歌唱の進行やキーのずれを検出してリアルタイムに追随して楽譜の表示を更新してゆくものである。楽譜編集部30は曲データベース31から読み出した曲データ(楽譜データ)を楽譜編集知識ベース32から読み出した編集ルールに基づいて編集して表示部39に表示する。この装置においては、曲データベース31に記憶されている曲データは、主として歌唱曲の曲データであり、楽譜編集部30は、この歌唱を伴奏するためのピアノや電子鍵盤楽器等のための伴奏譜を表示部39に表示する。最初に歌唱者はマイク35から音声を入力して調を決定する動作を行う。マイク35から入力された音声信号はADコンバータ34でディジタル信号に変換され周波数検出部33に入力される。周波数検出部33は、入力された(ディジタル)音声信号の周波数を検出する。検出された周波数の情報が調検出部3および進行検出部38に入力される。
【0038】
調検出部36は、演奏に先立って、上記のように▲1▼音階を演奏者が楽器で演奏した音階(ド・レ・ミ・ファ・ソ・ラ・シ・ドなど)や歌唱者が歌唱した音階をマイクから入力し、この音階の音高に当てはまる調を検出する。▲2▼楽譜編集部30から曲データ(メロディのデータのみでよい)を取得し、このメロディを演奏者が楽器で演奏したものまたは歌唱者が歌唱したものをマイクから入力し、この入力されたメロディの音高と曲データの音高とを比較して調を決定する。▲3▼楽譜編集部30から曲データ(後述のパート選択部で選択されたパート)の最高音および最低音の音高を取得し、楽器または歌唱の最高音および最低音(音域)をマイクから入力する。曲の最高音および最低音が楽器または歌唱の音域に納まるように調を決定する。これらのうちいずれかの検出動作で調を決定すればよく、そのどの動作で調を決定するかは操作部37の操作で利用者が選択することができる。
【0039】
また、進行検出部38は、楽譜編集部30から供給される曲データのメロディの音高情報と周波数検出部33から入力される周波数情報とを比較して歌唱者がどこを歌唱しているかを検出し、この検出した歌唱進行情報を楽譜編集部30に出力する。楽譜編集部30は、この歌唱進行情報に基づいて表示部39に表示する楽譜を更新する。調検出部36は、進行検出部38が検出している曲の進行のテンポで楽譜編集部30から供給されるメロディの音高情報と周波数検出部33から入力される周波数情報とを比較し、歌唱者が歌唱している調をかえていないかを検出する。この調検出部36の調の検出と、進行検出部38の曲の進行の検出は互いに連絡を取り合って行うようにする。
【0040】
なお、表示する楽譜の更新は、歌唱進行情報ではなく、楽譜編集部30から供給される曲データのテンポに基づいた進行により行ってもよく、これにより、歌唱者は曲データに合わせて歌唱することができる。
【0041】
このように、この伴奏楽譜表示装置では、歌唱者の歌唱に合わせて伴奏楽譜を進めてゆくことができるのみならず、歌唱者が声が高すぎたり低すぎたりしてでなくなり、自然に調が変わってしまった場合でも、それに合わせて楽譜の調性が変更されるため、伴奏者が自分で楽譜を読み換えなくても歌唱者の調に合わせた伴奏ができるようになる。
【0042】
図6はこの伴奏楽譜表示装置の動作を示すフローチャートである。演奏に先立ってまず調を検出する(s21)。この調検出動作は上述したとおりである。この検出された調で楽譜の表示をスタートする(s22)。この表示に基づいて演奏者(歌唱者と伴奏者)の演奏がスタートすると、マイク35から入力された音声に基づいて進行検出部38が曲の進行を検出するとともに(s23)、歌唱ピッチを検出する(s24)。
【0043】
進行検出部38が検出した歌唱進行情報により、表示部39に表示している楽譜のページが終わりそうになっていることを検出した場合には(s25)、表示する楽譜の改ページを行う(s26)。
また、調検出部36が検出した歌唱ピッチにより、歌唱者が調をかえたことが判明した場合には(s27)、楽譜を移調して編集しなおし(s28)、これを表示部39に表示する(s29)。この楽譜の移調は、音高(音符)の上下を伴うものであるため、各音符のバーの向きは上述した編集ルールにしたがって行うものとする。
【0044】
曲データベースは演奏用の曲データを記憶しておくものであるが、演奏用のデータではなく表示用の楽譜データを記憶しておき、楽譜編集部30が、調の設定に応じて音符の上下と調記号(♯、♭)を書き換えるものにしてもよい。
【0045】
なお、この伴奏楽譜表示装置は、歌唱の伴奏装置を例にあげて説明したが、伴奏される演奏は歌唱に限定されず、各種の楽器であってもよい。
【0046】
なお、図1、図4、図5は、装置を機能的なブロック図で示しているが、コンピュータシステムとソフトウェアで実現することも可能である。
また、この実施形態はすべて、楽譜を編集して表示する装置について説明したが、この発明は楽譜に限定されるものではなく複数の担当者が互いに連携しながら実行するプロジェクトのフローなどの出力にも適用することができる。
【0047】
【発明の効果】
以上のようにこの発明によれば、複数の担当者別の情報を自由に選択して編集することができるため、プロジェクトの管理が容易になる。
【0048】
またこの発明によれば、演奏者が演奏中に調を移動しても、楽譜がそれに追随して更新されるため、伴奏者が楽譜を移調して読み換える必要がなく、伴奏が容易になる。
【0049】
またこの発明によれば、自動演奏可能な曲データに基づいて、楽器の特性に合わせた適切な楽譜を生成することができ、複数パートの曲データから、演奏者の要求に合わせて様々な様式の楽譜を生成することができる。
【図面の簡単な説明】
【図1】この発明の実施形態である楽譜表示印刷装置のブロック図
【図2】前記楽譜表示印刷装置の曲データベースに記憶されている曲データの構成を示す図
【図3】前記楽譜表示印刷装置の動作を示すフローチャート
【図4】この発明の他の実施形態である楽譜表示装置のブロック図
【図5】この発明のさらに他の実施形態である伴奏楽譜表示装置のブロック図
【図6】前記伴奏楽譜表示装置の動作を示すフローチャート
【符号の説明】
10…楽譜編集部、11…曲データベース、12…楽譜編集知識ベース、13…パート選択部、14…調指定部、14a…調検出部、16…音源、17…表示部、18…印刷部、
20…楽譜編集部、21…楽譜記憶部、23…進行指示部、27…表示部、
30…楽譜編集部、31…曲データベース、32…楽譜編集知識ベース、33…周波数検出部、34…ADコンバータ(ADC)、35…マイク、36…調検出部、37…操作部、38…進行検出部、39…表示部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information editing apparatus that can easily edit information of a plurality of persons in charge and a score editing apparatus that edits a score in accordance with a player's performance key or a selected part.
[0002]
[Problems to be solved by the invention]
An apparatus for storing musical score data to be imaged in a predetermined format and displaying or printing it in the format has been put to practical use. However, in such a device, the score generated from one score data is limited to one type, and even if the music is the same, the score (total score) and the part score must have different score data. There was a disadvantage of not becoming. Further, even if only a part of a part is extracted from the score data of the score and displayed or printed, it is difficult to see as a part score because it is originally formatted or laid out for the score.
[0003]
Also, if you do not know in which key (key) the performers (including the singer) will perform, it is difficult to prepare accompaniment scores for all keys. In order to transpose the accompaniment score and read it, accompaniment was very necessary.
[0004]
The present invention relates to a score editing apparatus capable of displaying an accompaniment score in a key that matches a player's performance tone, editing a score according to the characteristics of a selected part, and editing a score corresponding to a plurality of selected parts. It is an object of the present invention to provide a music score editing apparatus capable of performing the above and an information editing apparatus for editing information of a plurality of persons in charge similar to a multi-part score.
[0009]
[Means for Solving the Problems]
The present invention, selection and storage means for storing music data of a plurality of parts, and editing the knowledge base which stores edit rules for editing music groups of each part and multi-part of the song data, the group The part selection means for selecting the part belonging to the group as a part to be output as a score, the selected group and the editing rule corresponding to the part belonging to the group are read from the editing knowledge base, and the read editing It is assumed that the ward has an editing means for editing the data of the selected part as a score based on the rule.
[0010]
The present invention is the above invention, comprising: display means for displaying the score edited by the editing means; and progress detection means for detecting the progress of the player's performance based on the score displayed on the display means, The editing means updates the score displayed on the display means in accordance with the detection result of the progress detection means.
In the above invention, the present invention further comprises key designating means for designating a key to be played by the performer, and the editing means edits the score in the key designated by the key designating means regardless of the original key of the song data. It is characterized by.
[0011]
In the present invention, a score is edited according to the part selected by the selection means based on music data of a plurality of parts (which can be automatically played). The score is edited according to the selected part. For example, a staff (such as a treble staff or a staff staff) corresponding to the selected part is used. When multiple parts are selected, notes are arranged so that the time axes of each part are aligned. Thereby, various styles of music such as part music, section music, TAB music, phrase music, chorus music, melody music, drum music, percussion music, and the like can be generated.
Also, edit rules include octave adjustment, special performance description, transposition by tube type, drum percussion correspondence, chorus part voice division, piano grand staff, melody score lyrics display, etc. Thus, an appropriate score can be generated in accordance with the characteristics of the musical instrument to be played.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
A musical score display printing apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of the score display printing apparatus. The score display / printing device is a device in which the score editing unit 10 edits and displays or prints a score based on song data stored in the song database 11. The song database 11 stores song data of one or more songs. The song data is data that can be automatically played, and has a configuration as shown in FIG. The musical score editing unit 10 has a function of expanding music notes in a format that allows the performer to view the music data in a format that can be automatically played as a musical score and editing it into a musical score. The score editing knowledge base 12 stores various rules for editing the music data into a score. An example of this editing rule is shown in FIG.
[0013]
In addition to the music database 11 and the score editing knowledge base 12, the score editing unit 10 is connected to a part selection unit 13, a key designating unit 14, a sound source 16, a display unit 17, and a printing unit 18.
[0014]
The key designation unit 14 designates the key of a song to be displayed or printed as a score. The score editing unit 10 edits the score in the key specified by the key specifying unit 14 regardless of the original key of the song data of the song.
[0015]
The key designation unit 14 may be one in which the operator specifically designates a key such as “C major” or “G major”, and includes a key detection unit 14a as shown in FIG. The key detected by the key detector 14a may be designated to the score editing unit 10.
[0016]
The key detection unit 14a includes, for example, a microphone, detects the musical tone of the musical instrument input from the microphone and the pitch of the singing voice of the singer, and detects the key based on the pitch. For example, (1) a scale in which a performer performed a musical instrument with an instrument (such as de les mi fa fa so la si de) or a scale sung by a singer is input from a microphone, and the sound of this scale Detects key that applies to high. (2) Obtain song data (only melody data is sufficient) from the score editing unit 10 and input the melody that the performer performed with the instrument or the one that the singer sang from the microphone. The key is determined by comparing the pitch of the melody with the pitch of the song data. (3) Obtain the highest and lowest pitches of the song data (parts selected by the part selection unit described later) from the score editing unit 10 and obtain the highest and lowest notes (range) of the instrument or singing from the microphone. input. Determine the key so that the highest and lowest notes of the song fall within the instrument or singing range. The key may be determined by any one of the processes. The processes {circle around (1)}, {circle around (2)}, and {circle around (3)} may be executed anywhere in the key detection unit 14a, key designation unit 14, and score editing unit 10.
[0017]
The part selection unit 13 is an operation unit for the user to select a part to be edited in the score. The song data stored in the song database 11 is generally composed of a plurality of tracks. When each track is associated with a predetermined part (instrument) in advance, the part selection is performed by selecting a part or a track. It is only necessary to select one of these. If each track is not associated with a part (instrument), part selection selects both the part and the track associated with this part. It should be noted that even if each track is song data associated with a predetermined part (instrument) in advance, both the part and the track associated with the part may be selected to recombine the part.
[0018]
The score editing unit 10 edits the score of the part selected by the part selection unit 13 in the key specified by the key specifying unit 14. If a plurality of song data is stored in the song database 11, it is assumed that one of them is selected by some operation. If no key is specified from the key specification unit 14, the score may be edited using the key of the song data.
[0019]
Further, when a plurality of parts are selected, a part score of each part may be created, or a multi-stage score (section score) combining the selected parts may be created. What is necessary is just to make it possible to select whether to create the plurality of parts or section music by the user's operation.
[0020]
Here, the composition of the song data will be described with reference to FIG. The song data is composed of track 0 storing information related to the entire song and tracks 1 to n storing information of each part. Each track has a header and a body, and time-independent information is written in the header. For example, in the header of track 0, a song title / version, credits such as composer / lyricist / right holder, genre (general / detail), creation date, number of parts (number of tracks), and the like are written. In addition, in the headers of tracks 1 to n, the type of musical instrument (mainly / detailed), the tonality of the musical instrument, the sound range, and the like (information specific to the musical instrument) are written.
[0021]
Further, time-dependent information, that is, sequence information to be read and executed in accordance with the progress of music is written in the main body of the track. For example, on the main body of track 0, tempo, tonality, phrase (movement) mark / repeated mark, chord mark, initialization information necessary for driving the sound source, etc. are written at a position on the time axis according to the read timing. ing. Further, the performance data of the part (data indicating performance contents such as MIDI data), initialization information necessary for driving the sound source, and other information (musical instrument specific information) are written in the main body of tracks 1 to n. .
[0022]
By reading the information of each track of the song data sequentially from the beginning in accordance with the tempo clock and inputting it to the sound source 16, this song can be automatically played. The musical score editing unit 10 edits music data stored in a format that can be automatically played into a musical score in a format that the performer can see and understand, displays the musical score data on the display unit 17, and prints it on the printing unit 18.
[0023]
The score editing knowledge base 12 stores the following score editing rules.
[0024]
Examples of score editing rules (general rules) generally required for displaying or printing a score include the following.
Assign to each musical note an appropriate note symbol for the length of the note, and the note bars other than all notes will extend downward if the note is above the third line, and the second line If it is below, extend to the top.
In this case, when two notes are connected and straddle the third line, when starting from a note above the third line, the bar is extended downward, and when starting from a note below the third line Stretch the bar up.
If the number of notes in each region above the third line and below the third line is different when straddling the third line with three or more connected tuplets, the larger one Follow the rules. When the number of notes in each area is the same, the bar is extended downward when starting from the note above the third line, and the bar is extended upward when starting from the note below the third line.
[0025]
The interval between notes is set according to the length of the note. In places where there are no notes (no sound), rests corresponding to the length are displayed. Percussion instruments without pitches are represented by TAB music. When a plurality of parts are represented in a multi-stage score, notes are arranged along the time axis.
[0026]
Next, as an individual score editing rule (part individual rule) corresponding to the selected part, for example, there are the following.
First, there are the following notation rules for staff notation according to each part. The violin is represented by a treble clef, the viola is represented by a treble clef (alto music), and the cello is basically represented by a treble clef (a high-pitched phrase is a treble clef (tenor score) or treble clef). The base is represented by a clef symbol and is one octave higher. Some woodwind instruments, such as brass instruments and clarinets, are transposed according to the length of the tube (B tube, F tube, etc.). A horn represents a semitone up or down with a temporary symbol without using a key. Etc.
[0027]
Then, the musical score is edited according to the following rules according to the type of music data and the selected part. First, when full orchestra song data is selected,
If the part selected by the part selection unit is a “conductor”, a total score (orchestra score) is created using all the tracks. At this time, the parts are arranged in the order of woodwind instruments (flute, oboe,...), Brass instruments (horn, trumpet,...), Percussion instruments, and stringed instruments (1st violin, 2nd violin,...).
When the part selected from the part selection unit is a “string section”, a musical score in which a 1st violin, a 2nd violin, a viola, a cello, and a bass are combined is created using a track of a stringed instrument part.
In the case of an orchestral piece with chorus, if the chorus part is selected from the part selection section, a piano accompaniment score arranged for the piano accompaniment of the four-voice chorus part track and the orchestra part Create a chorus score combining.
As described above, the part selection by the part selection unit 13 can not only select individual specific instruments such as violins and flutes, but can also select a plurality of instruments simultaneously, such as a string section. A group can also be selected, and a person who does not play an instrument such as a conductor (such as an executive) can be selected as a part. By selecting a plurality of musical instruments at the same time, the performer can see the score other than his / her part such as melody and accompaniment sound, and more accurate performance is possible. In addition, when a part called piano accompaniment is selected in song data without a piano accompaniment track, a piano accompaniment part may be created by combining instrument parts other than chorus.
[0028]
Next, when rock band song data is selected,
When “band score” is selected in the part selection unit, a so-called band score is created by combining the tracks of all the parts.
When the “rhythm section” part is selected in the part selection section, a part score is created by combining the track of the base part and the drum part.
When “Vocal” is selected in the part selection section, a vocal score is created using a track of melody and lyrics.
[0029]
When the genre of the selected music data is a folk music, it is possible to print only lyrics and chord symbols. The code information may be written on the entire information track.
[0030]
In the case of a transposing instrument as described above, a musical score is expressed with a tone and pitch different from those of the actual sound. When this is played with an electronic musical instrument, all parts are expressed as actual sounds. In this case, the part may be an electronic musical instrument, and the tone (part name) may be added to the score.
[0031]
FIG. 3 is a flowchart showing the operation of the score display printing apparatus. First, the user selects a song (s1). Then, the score editing unit 10 reads the song data of the selected song from the song database 11 (s2). Next, the user specifies a key and selects a part (s3, s4). The score editing unit 10 reads necessary editing rules from the score editing knowledge base based on the key designation and part selection (s5). Then, the music data is edited as a musical score based on the editing rule (s6), and is displayed and printed (s7).
Reading of editing rules from the score editing knowledge base 12 reads general and general rules that are not related to the part to be edited and individual rules according to the part to be edited.
[0032]
In addition, either the display / printing operation of s7 may be performed. In order to make the content of the score more accurate, the edited score is first displayed on the display unit 17 (s10), and the user manually corrects the layout and expression of the notes while viewing the displayed score. Then, the score is determined (s11), and the determined score is printed by the printing unit 18 (s12).
[0033]
Further, it may be displayed on the display unit 17 without being printed. In this case, when the score covers a plurality of pages, a page turning operation such as turning on a button switch of the user (player) or the progress of the song is detected. Then, the page of the score displayed on the display unit 17 may be advanced (s16, s17, s18).
[0034]
FIG. 4 is a block diagram illustrating a musical score display apparatus that includes a plurality of display units without including a printing unit. This device is a device that displays a score on each part of an orchestra based on, for example, orchestral song data. In this drawing, a score editing section 20 edits a score in the same manner as the score editing section 10 of FIG. 1, but edits (displays) a score of a plurality of parts simultaneously based on orchestral song data. The display unit 27 is installed at the performance position of each part, and the performer of each part of the orchestra can see the display unit 27 installed at the performance position of the part. Each display unit 27 displays a score of a part corresponding to the position where the display unit 27 is installed. In this figure, the description of the song database, the score knowledge base, the key designating unit, etc. is omitted, but this apparatus is supplied with orchestral song data from the song database, and the score editing knowledge base has the part score of each part. Assume that editing rules are provided to create
[0035]
The score editing section 20 updates the score displayed on each display section 27 in synchronization with the progress of the song input from the progress instructing section 23. The score may be edited in real time when updated, or may be edited in advance and stored in the score storage unit 21. This pre-editing operation may be performed by editing all the songs before the start of the performance by the performer, or by performing a forward-end process when the performer is performing.
[0036]
Thus, even a performance of a large number of people such as an orchestra can be performed while displaying the part score for each person without distributing the part score to each person, so that the so-called trouble of turning pages can be saved.
[0037]
FIG. 5 is a block diagram of an accompaniment score display apparatus according to another embodiment of the present invention. This accompaniment score display device detects a singer's key (tonality), displays the score transposed to that key, detects the progress of the singer's singing and key shift, and tracks the score in real time. The display is updated. The score editing unit 30 edits the song data (score data) read from the song database 31 based on the editing rules read from the score editing knowledge base 32 and displays the edited data on the display unit 39. In this apparatus, the song data stored in the song database 31 is mainly song data of a song, and the score editing unit 30 is an accompaniment score for a piano or an electronic keyboard instrument for accompaniment of this song. Is displayed on the display unit 39. First, the singer performs an operation of inputting a voice from the microphone 35 and determining a key. The audio signal input from the microphone 35 is converted into a digital signal by the AD converter 34 and input to the frequency detector 33. The frequency detector 33 detects the frequency of the input (digital) audio signal. Information of the detected frequency is input to the tone detector 3 6 and the traveling detector 38.
[0038]
Prior to the performance, the key detection unit 36, as described above, (1) the scale in which the performer performed the musical instrument with the instrument (such as de les mi fa fa so la si de) or the singer A singing scale is input from a microphone, and a key that corresponds to the pitch of this scale is detected. (2) Obtain music data (only melody data is required) from the score editing section 30 and input the melody that the performer played with the instrument or the one sung by the singer from the microphone. The key is determined by comparing the pitch of the melody with the pitch of the song data. (3) Obtain the highest and lowest pitches of the song data (part selected by the part selection unit described later) from the score editing unit 30 and obtain the highest and lowest notes (sound range) of the instrument or singing from the microphone. input. Determine the key so that the highest and lowest notes of the song fall within the instrument or singing range. The key may be determined by any one of these detection operations, and the user can select which operation the key is determined by operating the operation unit 37.
[0039]
Further, the progress detection unit 38 compares the pitch information of the melody of the song data supplied from the score editing unit 30 with the frequency information input from the frequency detection unit 33 to determine where the singer is singing. The detected singing progress information is output to the score editing unit 30. The score editing unit 30 updates the score displayed on the display unit 39 based on the singing progress information. The key detection unit 36 compares the pitch information of the melody supplied from the score editing unit 30 with the frequency information input from the frequency detection unit 33 at the tempo of the progress of the music detected by the progress detection unit 38. It detects whether the singer is changing the singing tone. The key detection by the key detection unit 36 and the progress detection of the music by the progress detection unit 38 are communicated with each other.
[0040]
Note that the score to be displayed may be updated not by singing progress information but by progress based on the tempo of the song data supplied from the score editing unit 30, whereby the singer sings along with the song data. be able to.
[0041]
Thus, in this accompaniment score display device, not only can the accompaniment score be advanced in accordance with the singing of the singer, but also the singer does not become too loud or too low to adjust naturally. Even if it changes, since the tonality of the score is changed accordingly, the accompanist can perform the accompaniment to the singer's tone without having to read the score by himself.
[0042]
FIG. 6 is a flowchart showing the operation of the accompaniment score display apparatus. Prior to performance, the key is first detected (s21). This tone detection operation is as described above. The display of the score is started in the detected key (s22). When the performance of the performers (singer and accompanist) starts based on this display, the progress detection unit 38 detects the progress of the song based on the sound input from the microphone 35 (s23), and also detects the singing pitch. (S24).
[0043]
When it is detected from the singing progress information detected by the progress detection unit 38 that the page of the score displayed on the display unit 39 is about to end (s25), a page break of the displayed score is performed (s25). s26).
When it is determined that the singer has changed the key based on the singing pitch detected by the key detection unit 36 (s27), the score is transposed and edited again (s28), and this is displayed on the display unit 39. (S29). Since the transposition of the musical score is accompanied by up and down pitches (notes), the direction of the bar of each note is performed in accordance with the editing rules described above.
[0044]
The music database stores musical data for performance, but stores musical score data for display instead of performance data, and the musical score editing unit 30 moves up and down notes according to key settings. And key marks (#, ♭) may be rewritten.
[0045]
The accompaniment score display device has been described by taking a singing accompaniment device as an example, but the accompaniment performance is not limited to singing and may be various musical instruments.
[0046]
1, 4, and 5 are functional block diagrams of the apparatus, it can be realized by a computer system and software.
In addition, all of the embodiments have been described with respect to an apparatus for editing and displaying a score. However, the present invention is not limited to a score, and the present invention is not limited to a score, and can output a flow of a project executed by a plurality of persons in cooperation with each other. Can also be applied.
[0047]
【The invention's effect】
As described above, according to the present invention, information for each of a plurality of persons in charge can be freely selected and edited, so that project management becomes easy.
[0048]
Further, according to the present invention, even if the performer moves the key during the performance, the score is updated following it, so that the accompanist does not need to transpose and reread the score, and accompaniment is facilitated. .
[0049]
Further, according to the present invention, it is possible to generate an appropriate score according to the characteristics of the musical instrument based on the music data that can be automatically played, and from various parts of the music data, various styles can be adapted to the player's request. Can be generated.
[Brief description of the drawings]
FIG. 1 is a block diagram of a score display printing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing a configuration of song data stored in a song database of the score display printing apparatus. FIG. 4 is a block diagram of a score display apparatus according to another embodiment of the present invention. FIG. 5 is a block diagram of an accompaniment score display apparatus according to still another embodiment of the present invention. Flow chart showing the operation of the accompaniment score display device
DESCRIPTION OF SYMBOLS 10 ... Musical score editing part, 11 ... Music database, 12 ... Musical score editing knowledge base, 13 ... Part selection part, 14 ... Key designation part, 14a ... Key detection part, 16 ... Sound source, 17 ... Display part, 18 ... Printing part,
20 ... Music score editing section, 21 ... Music score storage section, 23 ... Progression instruction section, 27 ... Display section,
DESCRIPTION OF SYMBOLS 30 ... Musical score edit part, 31 ... Music database, 32 ... Musical score editing knowledge base, 33 ... Frequency detection part, 34 ... AD converter (ADC), 35 ... Microphone, 36 ... Key detection part, 37 ... Operation part, 38 ... Progression Detection unit, 39 ... display unit

Claims (3)

複数パートの曲データを記憶した記憶手段と、
前記曲データの各パートおよび複数パートからなるグループの楽譜を編集する場合の編集ルールを記憶した編集知識ベースと、
前記ループを選択することにより、そのグループに属するパートを楽譜として出力するパートとして選択するパート選択手段と、
前記選択したグループおよびそのグループに属するパートに対応する編集ルールを前記編集知識ベースから読み出し、該読み出した編集ルールに基づいて、前記選択されたパートのデータを楽譜として編集する編集手段と、
を備えた楽譜編集装置。
Storage means for storing multiple parts of song data;
An editing knowledge base that stores editing rules when editing the score of a group consisting of each part and a plurality of parts of the song data;
By selecting the group, the part selecting means for selecting a part for outputting the part belonging to the group as a musical score,
Editing means for reading out the editing rule corresponding to the selected group and the parts belonging to the group from the editing knowledge base, and editing the data of the selected part as a score based on the read editing rule;
A sheet music editing device.
前記編集手段が編集した楽譜を表示する表示手段と、
この表示手段に表示された楽譜に基づく演奏者の演奏の進行を検出する進行検出手段と、を備え、
前記編集手段は、この進行検出手段の検出結果に応じて前記表示手段に表示させる楽譜を更新する請求項1に記載の楽譜編集装置。
Display means for displaying the score edited by the editing means;
Progress detection means for detecting the progress of the performer's performance based on the score displayed on the display means,
2. The score editing apparatus according to claim 1, wherein the editing means updates a score displayed on the display means according to a detection result of the progress detection means.
演奏者が演奏する調を指定する調指定手段を備え、
前記編集手段は、曲データの本来の調にかかわらず前記調指定手段によって指定された調で楽譜を編集する請求項1または請求項2に記載の楽譜編集装置。
A key designating means for designating the key to be played by the performer,
3. The score editing apparatus according to claim 1 or 2, wherein the editing means edits a score in a key specified by the key specifying means regardless of an original key of the music data.
JP2001294128A 2001-09-26 2001-09-26 Music score editing device Expired - Fee Related JP3804500B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001294128A JP3804500B2 (en) 2001-09-26 2001-09-26 Music score editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001294128A JP3804500B2 (en) 2001-09-26 2001-09-26 Music score editing device

Publications (2)

Publication Number Publication Date
JP2003099033A JP2003099033A (en) 2003-04-04
JP3804500B2 true JP3804500B2 (en) 2006-08-02

Family

ID=19115786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001294128A Expired - Fee Related JP3804500B2 (en) 2001-09-26 2001-09-26 Music score editing device

Country Status (1)

Country Link
JP (1) JP3804500B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506175B2 (en) * 2004-01-09 2010-07-21 ヤマハ株式会社 Fingering display device and program thereof
JP2006201654A (en) * 2005-01-24 2006-08-03 Yamaha Corp Accompaniment following system
JP2007086571A (en) * 2005-09-26 2007-04-05 Yamaha Corp Music information display device and program
JP4506998B2 (en) * 2007-07-12 2010-07-21 Necソフト株式会社 Automatic composition apparatus, automatic composition method and program
WO2013118204A1 (en) * 2012-02-08 2013-08-15 パナソニック株式会社 Voice input device and display device
JP2014026213A (en) * 2012-07-30 2014-02-06 Brother Ind Ltd Musical sound playing device

Also Published As

Publication number Publication date
JP2003099033A (en) 2003-04-04

Similar Documents

Publication Publication Date Title
US8324493B2 (en) Electronic musical instrument and recording medium
JP2000514571A (en) Automatic improvisation system and method
Jones Understanding basic music theory
Thomsett Musical terms, symbols and theory: An illustrated dictionary
US7718883B2 (en) Complete orchestration system
JP3804500B2 (en) Music score editing device
Riddle Arranged by Nelson Riddle
JPH0744162A (en) Accompaniment device
Harnsberger Essential dictionary of music: definitions, composers, theory, instrument & vocal ranges
David Jazz Arranging
JP4967170B2 (en) Accompaniment creation system, accompaniment creation method and program
Dickreiter Score reading: a key to the music experience
KR100382079B1 (en) Apparatus and control method for portable information terminal using music
JP3661963B2 (en) Electronic musical instruments
JP6525034B2 (en) Code progression information generation apparatus and program for realizing code progression information generation method
JPH0519765A (en) Electronic musical instrument
Su Transcribing Orchestral Excerpts for Concertmaster Solo into Piano Reductions
Werry Distance-learning quizzes
Guo A New Piano Reduction of Leonard Bernstein’s Serenade (after Plato’s “Symposium”) for Solo Violin, String Orchestra, Harp, and Percussion
Leadon Music Theory Handbook: A Concise Handbook for Aspiring Musicians.
Miller The Complete Idiot's Mini Guide to Music Theory Must-Know Terms
Allen Arranging in the digital world: techniques for arranging popular music using today's electronic and digital instruments
JPH0527757A (en) Electronic musical instrument
Argenziano Advanced Conducting Project
Jean Doctoral Performance and Research

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060501

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100519

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110519

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees