JP3770293B2 - Visual display method of performance state and recording medium recorded with visual display program of performance state - Google Patents

Visual display method of performance state and recording medium recorded with visual display program of performance state Download PDF

Info

Publication number
JP3770293B2
JP3770293B2 JP15927198A JP15927198A JP3770293B2 JP 3770293 B2 JP3770293 B2 JP 3770293B2 JP 15927198 A JP15927198 A JP 15927198A JP 15927198 A JP15927198 A JP 15927198A JP 3770293 B2 JP3770293 B2 JP 3770293B2
Authority
JP
Japan
Prior art keywords
performance
icon
conductor
image
icon representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15927198A
Other languages
Japanese (ja)
Other versions
JPH11352962A (en
Inventor
康彦 岡村
靖 鞍掛
謙一良 斎藤
由子 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP15927198A priority Critical patent/JP3770293B2/en
Priority to US09/326,987 priority patent/US6140565A/en
Publication of JPH11352962A publication Critical patent/JPH11352962A/en
Application granted granted Critical
Publication of JP3770293B2 publication Critical patent/JP3770293B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、演奏状態を視覚的に表示する技術に関するものである。
【0002】
【従来の技術】
専用のシーケンサ、あるいは、パーソナルコンピュータを用いたデスクトップミュージック(DTM)においては、マウス等を使用した音符指定によるステップレコーディング,MIDIキーボード等を使用した実演奏によるリアルタイムレコーディング、あるいは、曲データファイルの読み出しなどにより、各演奏パートに割り当てられた音色の楽音を再生して演奏する。その際、ディスプレイの表示画面上に、上述した演奏パートの音色に対応させて具象的なキャラクタを表示することによって、初心者にも親しみやすくした装置が考えらる。しかし、単に、キャラクタを表示するだけでは、表示画面の変化が乏しく、また、演奏のイメージとの結びつきがない。そのため、単調になってしまうという問題があった。
また、テンポを音や視覚表示により報知するものがある。しかし、これは、曲の再生中、単調にテンポを報知するだけであった。
【0003】
【発明が解決しようとする課題】
本発明は、上述した問題点を解決するためになされたもので、各演奏パートの演奏状態あるいは演奏期間中であることを演奏パートの音色を表現するアイコンの変化によって視覚的に表示することができる演奏状態の視覚的表示方法、および、演奏状態の視覚的表示プログラムが記憶された記録媒体を提供することを目的とするものである。
【0004】
【課題を解決するための手段】
本発明は、1または複数の演奏パートに割り当てられた音色の楽音を再生して演奏する際に演奏状態を視覚的に表示する演奏状態の視覚的表示方法であって、前記1または複数の演奏パートの各々の音色を識別するステップと、演奏の拍子を設定するステップと、識別された前記各演奏パートの音色に応じて前記各演奏パートの音色を表現するアイコンを出力するとともに、指揮者を表現するアイコンを出力し、前記各演奏パートの音色を表現するアイコン、および、前記指揮者を表現するアイコンが配置された画像を作成するステップと、演奏期間中、前記指揮者を表現するアイコンの画像を切り替えて前記指揮者を表現するアイコンに動きを与えるステップと、前記指揮者を表現するアイコンの画像の枚数を、設定された演奏の拍子に応じて決定する画像枚数決定ステップ、を有するものである。
本発明は、また、上述したステップをコンピュータに実行させるための、演奏状態の視覚的表示プログラムが記録された記録媒体である。
したがって、演奏期間中であることを指揮者を表現するアイコンの変化によって視覚的に表示することができる。
また、演奏の拍子に応じて指揮者を表現するアイコンの画像を切り替えるから、演奏の拍子も視覚的に表示することができる。
【0005】
本発明は、また、1または複数の演奏パートに割り当てられた音色の楽音を再生して演奏する際に演奏状態を視覚的に表示する演奏状態の視覚的表示方法であって、前記1または複数の演奏パートの各々の音色を識別するステップと、演奏の拍子を設定するステップと、識別された前記各演奏パートの音色に応じて前記各演奏パートの音色を表現するアイコンを出力するとともに、指揮者を表現するアイコンを出力し、前記各演奏パートの音色を表現するアイコン、および、前記指揮者を表現するアイコンが配置された画像を作成するステップと、演奏期間中、前記各演奏パートの音色を表現するアイコンのうち、楽音発生中の演奏パートを表現するアイコンの方向を向いた指揮者を表現するアイコンの画像のセットに切り替えるとともに、切り替えたセットを構成する、指揮者を表現するアイコンの画像を切り替えて、前記指揮者を表現するアイコンに動きを与えるステップと、前記指揮者を表現するアイコンの画像の枚数を、設定された演奏の拍子に応じて決定する画像枚数決定ステップ、を有するものである。
本発明は、また、上述したステップをコンピュータに実行させるための、演奏状態の視覚的表示プログラムが記録された記録媒体である。
したがって、演奏期間中であることを指揮者を表現するアイコンの変化によって視覚的に表示することができる。
また、演奏の拍子に応じて指揮者を表現するアイコンの画像を切り替えるから、演奏の拍子も視覚的に表示することができる。指揮者を表現するアイコンの動きによって楽音発生期間中の演奏パートも、指揮者を表現するアイコンの変化によって視覚的に表現することができる。
【0006】
た、前記指揮者を表現するアイコンに動きを与えるステップが、各演奏パートのいずれかの楽音発生期間においてのみ動きを与えるような構成にすれば、各演奏パートのいずれかの楽音発生期間を指揮者を表現するアイコンの動きによって視覚的に表示することができる
【0007】
【発明の実施の形態】
図1は、本発明の演奏状態の視覚的表示方法の実施の一形態を説明するための、演奏状態の視覚的表示装置の機能ブロック構成図である。図中、1は演奏パートメモリ、2はコンダクターアイコン画像データメモリ、3はプレイヤーアイコン画像データメモリ、4は演奏場所画像データメモリ、5は画像データ合成部、6はアイコン位置設定部、7はパン設定部である。
図2は、本発明の演奏状態の視覚的表示方法の実施の一形態を説明するための表示画面の説明図である。演奏場所を表現する画像11には、プレイヤーアイコンA13、プレイヤーアイコンB14、プレイヤーアイコンC15、マウスポインタ16、コンダクターアイコン17が表示されている。
図3は、プレイヤーアイコンの具体例を示す説明図である。図3(a),図3(b)は、電気ギターを演奏している状態のプレイヤーを具象的に表す画像である。演奏中のキャラクターの一連の動きから、2種類(2コマ)取り出して作成された画像である。図示の例では、シルエットで示しているが、2次元画像あるいは立体的に見える3次元画像でもよい。スポットライトの部分には、演奏パートの番号が表示されている。
図4は、コンダクターアイコンの具体例を示す説明図である。図4(a),図4(b),図4(c)は、指揮をしている状態の指揮者(コンダクター)を具象的に表す画像である。指揮中のキャラクターの一連の動きから、3種類(3コマ)取り出して作成された画像である。プレイヤーアイコンと同様に、シルエットの代わりに、2次元画像あるいは3次元画像でもよい。
【0008】
1または複数の演奏パートによって演奏システムが構築される。演奏パートメモリ1には、各演奏パートの音色を示す音色情報、および、各演奏パートのパン情報が記憶されている。ユーザが演奏パートを指定して演奏パートメモリ1から音色情報を読み出すことにより、各演奏パートの音色が識別される。コンダクター画像データメモリ2からコンダクターアイコンの画像データが読み出されるとともに、音色情報に応じてアイコン画像データメモリ3から各演奏パートの音色に対応するプレイヤーアイコンの画像データが読み出される。また、演奏場所画像データメモリ4から演奏システムの仮想的な演奏場所を表現する画像データが読み出される。画像データ合成部5は、読み出された、コンダクターアイコン画像データ、各演奏パートのアイコン画像データおよび演奏場所を表現する画像データに応じて、演奏場所を表現する画像中にコンダクターアイコンおよび各演奏パートを表現するアイコンが配置された合成画像を作成し、表示部に出力する。
【0009】
図3(a),(b)に一例を示すように、図2に示すプレイヤーアイコンA13等のアイコンは、各演奏パートの音色の楽器を演奏している状態のプレイヤーを具象的に表わす画像である。このプレイヤーアイコンは、演奏システムの処理において、次のような機能を有する。
第1に、各演奏パートの音色および動作状態を表示する機能、第2に、このアイコンにマウスポインタを当てて左クリックすることにより、このアイコンに対応した演奏パートを指定する機能、第3に、このアイコンの位置によって、この演奏システムにおけるアイコンに対応した演奏パートの音像定位位置を表示する機能を有している。
【0010】
図2に示すコンダクターアイコン17は、演奏システムの処理において、第1に、テンポおよび拍子を表示する機能、第2に、このアイコンにマウスポインタを当てて左クリックすることにより、このアイコンに対応したテンポ、拍子を指定する機能を有している。パン制御されるものではないので、画面上において、演奏場所を表現する画像11を外れた位置に表示されてもよい。
【0011】
次に、各演奏パートの楽音のパン制御について説明する。図2において、演奏場所を表現する画像11上におけるプレイヤーアイコンA13,プレイヤーアイコンB14,プレイヤーアイコンC15の左右方向の位置は、各アイコンに対応する演奏パートの音像定位位置を視覚的に表わす。
図1に示すように、演奏パートメモリ1に各演奏パートの音像定位位置を示すパン情報が記憶されている。このパン情報を読み出すことによって各演奏パートの音像定位位置を識別し、アイコン位置設定部6は、画像データ合成部5を制御する。画像データ合成部5は、演奏場所を表現する画像中に各アイコンがパン情報に応じた位置に配置された画像を作成する。
【0012】
図2に示す具体例では、演奏システムの仮想音場における、各楽音パートの音像定位位置に応じて、プレイヤーアイコンA13等のアイコンの左右方向の表示位置が決定される。その結果、アイコンが左側に位置する演奏パートの楽音ほど、左のスピーカから出力される音量を右のスピーカから出力される音量よりも大きくし、逆に、アイコンが右側に位置する演奏パートの楽音ほど、右のスピーカから出力される音量が左のスピーカから出力される音量よりも大きくするというパン制御をすることが視覚的に表示される。
【0013】
また、逆に、演奏場所を表現する画像11上でのプレイヤーアイコンの表示位置によりパン情報を設定することもできる。
図1において、アイコン位置設定部6は、ユーザがキーボードやマウス等の入力デバイスを使って各アイコンの位置設定データを入力することにより、画像データ合成部5を制御して、各アイコンの位置を上下左右に移動させて新たな位置に配置させる。そして、パン設定部7は、各アイコンの新たな左右方向の位置に応じて、演奏システムの仮想音場における各演奏パートのパンを制御するためのパン情報をパン制御部に出力する。このようにして、各演奏パートの音像定位を視覚的に表現するとともに、視覚的に音像定位を設定することもできる。なお、パン設定部7から出力されるパン情報によって、演奏パートメモリ1の各演奏パートのパン情報を更新するようにしてもよい。
【0014】
図2においては、ユーザが、マウスを動かしてマウスポインタ16をプレイヤーアイコンA13に合わせてマウスの左ボタンを押すと、プレイヤーアイコンA13が選択され、そのままマウスをドラッグすると、プレイヤーアイコンA13の位置設定データが更新される。その結果、マウスポインタ16と一緒にプレイヤーアイコンA13が移動する。左ボタンの押圧を解除すると、プレイヤーアイコンA13はその位置に停止して新たな位置が設定され、その結果、プレイヤーアイコンA13の位置設定データが固定される。
なお、図1において、マウスポインタ16の画像データの合成およびマウスポインタ16の位置設定データの入力、上述したマウスによるプレイヤーアイコンA13の位置設定データを出力する機能ブロックについて図示を省略している。
【0015】
パン設定部7は、プレイヤーアイコンA13の位置設定データが更新されている期間も含めて、この位置設定データに応じて、プレイヤーアイコンA13に対応する演奏パートのパン情報を出力する。あるいは、パン設定部7は、プレイヤーアイコンA13の位置設定データが固定されたときに、この固定された位置設定データに応じたパン情報を出力するようにしてもよい。
このように、プレイヤーアイコンA13の画面上の配置、より具体的には横座標の位置によってパン情報を設定すると視覚的にわかりやすく設定操作が直感的に行えるようになる。
【0016】
なお、プレイヤーアイコンA13等を演奏場所を表現する画像11上に最初に配置する方法の一具体例としては、編集時のメニュー画面で、音色を演奏パートに割り当てることによって初期位置に配置する。あるいは、編集時に、演奏場所を表現する画像11の横に楽屋を表現する画像の領域を表示し、ここに、予め用意された複数のプレイヤーアイコンを表示しておき、マウスを用いて、1つずつプレイヤーアイコンを演奏場所を表現する画像11に配置する。
【0017】
演奏パートの音像は、中央部に定位させる傾向がある。その際、単純に音像定位位置とアイコンの表示位置とを比例的な関係にすると、アイコンが中央位置に重なって表示されてしまい、画面が見づらくなる。また、表示画面のバランスが悪く不自然な感じがしてしまうという問題がある。これを避けるため、中央パンレベルを示す中央領域12を広く取った上で、パン情報をアイコンの位置で表示する。逆に、アイコンの設定位置を変えることによりパン制御する際は、中央領域12内を制御の中央不感帯とする。
【0018】
すなわち、中央領域12については、画面上の横座標に対して広い範囲を割り当てる。したがって、画面の左右方向における中央の所定幅の領域内に配置されたプレイヤーアイコンA13とプレイヤーアイコンB14とは、各演奏パートの音像定位については同一の中央パンレベルにあるものとする。既にプレイヤーアイコンが配置されている位置に他のプレイヤーアイコンをもってきた場合、その位置を避けて、他のプレイヤーアイコンが配置されるようにするため、各プレイヤーアイコンが完全に重ならないように位置調整を行ってもよい。
【0019】
なお、中央領域12に限らず、画面上の横座標に対して、複数の小領域に分割し、同じ小領域にあるプレイヤーアイコンは、同じパン情報を有するもの、同じパン情報を設定するものであるとして、プレイヤーアイコンが重ならないように表示位置を調整してもよい。
【0020】
次に、プレーヤーアイコンおよびコンダクターアイコンのアニメーション(動画)表示について説明する。
図1において、画像切替部8は、テンポ、拍子、各演奏パートの楽音のノートオンを入力することにより、楽音のテンポおよび拍子を識別するとともに楽音発生期間を識別して、コンダクターアイコン画像データメモリ2、プレイヤーアイコン画像データメモリ3から読み出す画像を選択する制御をする。コンダクターアイコン画像データメモリ2、プレイヤーアイコン画像データメモリ3には、それぞれ演奏中のキャラクターの一連の動きを表現する複数の静止画像が記憶されている。
各演奏パートの楽音発生期間中、プレイヤーアイコン画像データメモリ3から、図3に示すような、その演奏パートのプレイヤーアイコンを表す画像をテンポに合わせて読み出すことにより、プレイヤーアイコンを表す画像を切り替えてプレイヤーアイコンに動きを与える。各演奏パートの楽音発生期間は、各演奏パートの楽音発生指示(MIDI情報では「ノートオン」に対応する)を検出して開始する。
【0021】
各演奏パートの楽音発生期間の終了については、何通りかの検出方法がある。
第1の検出方法として、各演奏パートの楽音が消音する時点を検出して終了とする。具体的には各演奏パートの楽音のエンベロープがゼロまたは所定の閾値より小さくなった時点を検出する。
第2の検出方法としては、各演奏パートのノートオンが所定時間にわたって検出されなくなることにより楽音発生期間の終了を検出する。
【0022】
その際、第1の検出方法、第2の検出方法のいずれにおいても、このような楽音発生期間中に再度の楽音発生指示があった場合に、その演奏パートのプレイヤーアイコンを表す画像の切り替えを、一連の動作を示す画像の最初のものに戻す方法を採用してもよい。このようにすることにより、プレイヤーアイコンの動作を、各演奏パートの楽音発生指示ごとに、動作開始時の画像から動き出すようにすることができる。そして、1度の楽音発生指示によっては、演奏パートのプレイヤーアイコンを表す画像として同じ画像を繰り返し使用しないものとする。ギターのように、楽音発音開始時とその後の楽音発音期間中とで、演奏操作の形態の違いが視覚的に目立つような楽器の場合でも、プレイヤーアイコンの動きが不自然にならない。
【0023】
さらに、プレイヤーアイコンが、楽音発生期間中の楽音のレベル、例えば、楽音のエンベロープの大きさによって、プレイヤーアイコンの動作を大きくしたり小さくしたりすれば、一層効果的な視覚表示が可能となる。そのために、プレイヤーアイコン画像データメモリ3には、一連の動作の過程のそれぞれにおいて動きの異なる複数の画像を記憶させておく。テンポと楽音のレベルに応じて、プレイヤーアイコンを表す画像を読み出すことにより、プレイヤーアイコンを表す画像を切り替えてプレイヤーアイコンに楽音のレベルに応じた動きを与える。
【0024】
なお、曲データには複数の演奏パートがあるが、トラックビューウィンドウにおいて、マウスを用いてある1つのトラックの演奏パートに「ミュート」を指定したときには、このトラックに割り当てられた演奏パートに楽音発生指示があったとしても、この楽音発生指示を無視して、楽音発生期間を開始しないようにする。その結果、「ミュート」が指定された演奏パートのプレイヤーアイコンを動かないようにする。また、ある1つのトラックの演奏パートに「ソロ演奏」を指定したときには、このトラックに割り当てられた演奏パートを除く演奏パートに楽音発生指示があったとしても、この楽音発生指示を無視して、楽音発生期間を開始しないようにする。その結果、「ソロ演奏」が指定されたプレイヤーアイコンのみが動くようにして、各演奏パートの動作を視覚的に表示するようにする。
【0025】
また、プレイヤーアイコンに動きを与えると同時に、1曲を自動演奏するときなどの演奏期間中、いずれの演奏パートも楽音発生期間中でないときを含め、常時、コンダクターアイコン画像データメモリ2から、図4に示すコンダクターアイコンの画像をテンポおよび拍子に応じて読み出すことにより、コンダクターアイコンを表す画像を切り替えてコンダクターアイコンに動きを与える。
切り替えに使用するコンダクターアイコンの画像の枚数を拍子に応じて決め、例えば、2拍子の場合には動作コマ数を2として、2枚の異なる画像を周期的に読み出して切り替え、3拍子の場合には、動作コマ数を3コマとして、拍子に合わせた一連の画像を周期的に読み出して切り替える。すなわち、コンダクターアイコンの画像をテンポに合わせた間隔で切り替え、拍子に合わせて同じ画像を繰り返すようにする。
【0026】
上述した説明では、演奏期間中は、常時、コンダクターアイコンに動きを与えていた。この他の例として、演奏期間中であって、かつ、いずれかの演奏パートが楽音発生期間中であるときに限り、コンダクターアイコンに動きを与えるようしてもよい。
【0027】
さらに、コンダクターアイコンが、楽音発生期間中の演奏パートのプレイヤーアイコンの方向を向くようにすると一層効果的である。コンダクターアイコン画像データメモリ2には、指揮の動作を拍子に応じて示す複数の画像を1セットとして、コンダクターの向きを異ならせたものを複数セット記憶させておく。楽音発生中の演奏パートのプレイヤーアイコンとコンダクターアイコンの位置をアイコン位置設定部6から取り出し、両者の相対位置関係から、コンダクターアイコンの位置から楽音発生期間中のプレイヤーアイコンの位置を見た角度を計算し、楽音発生中の演奏パートのプレイヤーアイコンの方向を向いたコンダクターアイコンの画像に切り替えるようにする。
【0028】
複数の演奏パートが同時に楽音を発生している場合には、それらの演奏パートの中央に向きを決めればよい。いずれの演奏パートも楽音を発生していない期間は、コンダクターアイコンは向きの変更をしないでそのまま動きを停止させておくか、正面に向きを戻すようにすればよい。演奏を開始するとき、および演奏を終了したときには、コンダクターアイコンは正面を向くようにする。
【0029】
上述した説明では、プレイヤーアイコンおよびコンダクターアイコンの画像として、一連の動作を表す複数枚の静止画像を画像データメモリに記憶しておき、この静止画像を切り替えることにより、各アイコンに1連の動きを与えている。
この静止画像の枚数を少なくすると、記憶すべき画像データ容量が少なくなるとともに、画像切り替えの処理負担も少なくなる。これに対し、静止画像の枚数を、例えば、毎秒30フレーム(コマ)のように多くして切り替えの時間間隔を短くすれば、動きが滑らかになり表示品質が向上し、ユーザにとって見やすいものとなる。
また、静止画像が表す一連の動作間隔において、これらの静止画像をキーフレームとして、静止画像データを補間処理して中間の静止画像を生成することにより、元となる静止画像の枚数が少なくても、プレイヤーアイコンおよびコンダクターアイコンに滑らかな動きを与えることができる。このような技術は、3Dコンピュータグラフィックス技術等において、アニメーション(動画)作成技術として知られている。
【0030】
図5は、本発明の演奏状態の視覚的表示方法の実施の一形態を説明するためのハードウエア構成図である。シーケンサ装置、あるいは、サウンドボードが組み込まれたパーソナルコンピュータのハードウエア構成である。図1に示した機能ブロック構成は、このハードウエア上で、オペレーティング・システムとアプリケーションのソフトウエアを実行することによって実現される。
【0031】
バス21には、CPU22,ROM23,RAM24,外部記憶装置25,インターフェース27,表示部29,入力部30,音源部31がバス接続されている。外部記憶装置25は、FDD(フレキシブル磁気ディスクドライブ),ハード磁気ディスクドライブ(HDD),CD−ROMドライブ等の1まはた複数の記録再生装置であり、それぞれに対応する記録媒体26が装填される。インターフェース27にはMIDIキーボード等の外部演奏装置28が接続される。音源部31からの楽音出力は、DSP32に出力され、D/A変換器33によりアナログ信号に変換されて、ステレオ2チャネルのアンプ34で増幅され、右スピーカ35,左スピーカ36から楽音信号が出力される。
【0032】
オペレーティング・システムのソフトウエアおよびシーケンスソフトウエアは、記録媒体26の1つであるハードディスクに記録されている。CPU22は、ROM23およびハードディスクから必要なプログラムやデータをRAM24にロードすることにより各種の処理を実行する。シーケンスソフトウエアは、記録媒体26の1つであるCD−ROMに記録されて頒布され、このソフトウエアをハードディスクにインストールして用いる。あるいは、図示しない通信インターフェースを介して外部のサーバからハードディスクにダウンロードされる。
【0033】
CPU22は、シーケンサ機能として、外部演奏機器28からの入力情報に基づいて、リアルタイムレコーディングを行う。あるいは、LCDディスプレイ,CRTディスプレイ等の表示部29にスタッフウィンドウ,ピアノロールウインドウ等を表示させて、キーボード,マウス等の入力部30を用いてステップレコーディングを行う。あるいは、記録媒体26に保存された曲データファイルをRAM24にロードして、曲を再生する。
【0034】
音源部31は複数の演奏パートを同時発音させることができる。音源部31は各演奏パートに割り当てられた音色を有する楽音を生成して、DSP32に出力し、DSP32においては、残響,コーラスといったエフェクトを楽音に付与する。また、仮想音場における音像定位を行うために、各楽音パートの楽音のパン情報により右チャネルと左チャネルの音量比を設定してA/D変換器33に出力する。A/D変換された楽音信号は、ステレオアンプ34に出力され増幅されて、右スピーカ35,左スピーカ36から楽音信号が出力される。
【0035】
CPU22は、また、楽音発生時に、複数の音源の仮想位置を表示して、演奏システムを視覚的に表示する機能を実行する。アンプ34以降は外部装置とすることができる。音源部31,DSP32も外部音源装置とし、図示しないMIDIインターフェースを介してMIDIデータを外部音源装置に出力する場合もある。また、MIDIキーボードを入力部30に備える場合もある。ハード磁気ディスクドライブを持たない装置の場合には、ROM23にソフトウエアがインストールされている場合もある。
なお、上述した説明では、シーケンスソフトウエア等のDTM用プログラムが外部記憶装置25の記録媒体26にインストールされたパーソナルコンピュータを前提に説明したが、DTM専用の装置であってもよく、また、プログラムの少なくとも一部をハードウエアロジックで組んだものでもよい。
【0036】
図6ないし図11は、本発明の演奏状態の視覚的表示方法の実施の一形態を説明するためのフローチャートである。
図6は、メインのフローチャートである。図7は、図6に示したS42の機能選択ステップのフローチャートである。図8は、図7に示したS52の編集メニュー処理ステップの第1のフローチャートである。図9は、図7に示したS52の編集メニュー処理ステップの第2のフローチャートである。図10は、図6に示したS43の作動指示ステップのフローチャートである。図11は、図6に示したS44の演奏ステップのフローチャートである。
【0037】
図6に示すように、本発明の演奏状態の視覚的表示方法の実施の一形態のメインのフローチャートでは、S41において、レジスタ等の初期化を行う。次に、S42において機能選択処理を行い、S43において作動指示の処理を行い、S44において演奏の処理を行う。S44の処理を終了するとS42に戻り、S42〜S44の処理を繰り返す。以下、各ステップのフローチャートを説明するが、本発明に直接関係しないステップは記載を省略する。
【0038】
図7に示す機能選択のフローチャートにおいて、S51においては、編集メニューの選択があるか否かを判定し、ある場合にはS52の編集メニュー処理に進み、ない場合にはS53に処理を進める。編集メニューは、アプリケーションウィンドウのメニューバーにある「編集」をマウスで左クリックすることによって選択される。
【0039】
先に、S52の編集メニュー処理について説明する。
図8に示すS71において、ドロップダウンメニューが表示され、S72に処理を進める。S72においては、ドロップダウンメニューの中にある「自動伴奏スタイルの作成」がマウスの左クリックによって選択されたか否かを判定する。選択された場合には、S74に処理を進め、選択されない場合にはS73に処理を進める。S74においては、自動伴奏スタイルのダイアログボックスが表示される。S75において、自動伴奏スタイルの一覧の中から1つを選択して自動伴奏スタイルを設定して図7のS58に戻る。自動伴奏スタイルでは、音楽ジャンル、この音楽ジャンルに属する複数の自動伴奏データのファイルおよびそのセクション、曲中にこの自動伴奏を入れる期間の開示時間と終了時間などが設定される。
【0040】
S73においては、「プレイヤーの編集」が選択されたか否かを判定する。選択された場合には、S77に処理を進め、選択されていないときにはS76に処理を進める。S77においては、選択されたプレイヤーがあるか否かを判定する。この判定は、後述する図7のステップS54によって既にプレイヤーアイコンが選択されているか否かによって判定する。選択されている場合にはS78に処理を進め、選択されていないときにはメインのフローチャートに戻る。S78においては、選択されたプレイヤーアイコンに対応する演奏パートに対して、音量調整、音色変更、パン調整等を選択するサブメニューが開き、その中の1つをさらに選択すると、それぞれに専用のダイアログボックスが開いて、S79に処理を進める。S79においては、開いている音量,音色,パン等のいずれかのダイアログボックスで、パラメータ値を入力して設定し、図7のS58に戻る。
【0041】
S76においては、「ステージ効果」が選択されたか否かを判定する。選択された場合にはS81に処理を進め、選択されない場合にはS80に処理を進める。S81においては、「ステージ効果」のダイアログボックスが開き、ステージ効果名が一覧表示され、S82に処理を進める。このステージ効果は、演奏システムに付与する効果の一種であって、図1を参照して説明した残響のエフェクトである。S82においては、図1を参照して説明した残響のタイプを選択して設定して、メインのフロチャートに戻る。
【0042】
S80においては、「調・拍子」が選択されたか否かを判定する。選択された場合には、S83に処理を進め、選択されない場合には、図9のS85に処理を進める。S83においては、調と拍子の選択ダイアログボックスが開き、S84に処理を進める。S84においては、調の設定と拍子の入力を曲の先頭の他、曲中の任意の小節先頭位置を入力して指定し、図7のS58に戻る。
【0043】
図9に示すS85においては、「プレイヤー」が選択されたか否かを判定する。選択されたときにはS87に処理を進め、選択されないときにはS86に処理を進める。S87においては、全てのプレイヤー名、具体的には、音色(通常、楽器名で示される)がダイアログボックスに表示され、S88に処理を進める。S88においては、録音あるいは編集する場合に、任意の数の演奏パートのそれぞれに任意のプレイヤ(音色)を設定して図7のS58に戻る。なお、曲データを再生する場合には、曲データファイル中に指定された音色番号(プログラムナンバー)によって、自動的にプレイヤーが選択されているが、選択されたプレイヤーをここで変更することもできる。
【0044】
S86においては「曲」が選択されたか否かを判定する。選択されたときには、S89に処理を進め、選択されないときには図7のS58に戻る。S89においては、曲目選択ダイアログボックスが開き、音楽ジャンル別に区分けされた曲目が表示され、S90に処理を進める。S90においては、曲目または音楽ジャンルを選択して設定する。
図12は、曲目選択の説明図である。曲の音楽ジャンル別に、曲目がまとめられている。曲を選択する他、曲の音楽ジャンル自体を選択することができ、この場合、選択された音楽ジャンルの代表的な曲が自動的に選択されるようにしている。
【0045】
図8,図9に示した編集メニュー処理が終了すると、図7のS58に戻る。S58においては、編集メニュー処理の過程において、設定の変更があったか否かを判定し、変更があった場合にはS59に処理を進め、ない場合にはメインのフローチャートに戻る。S59においては、図8のS75で設定された自動伴奏スタイル、S81で設定されたステージ効果に応じて、演奏場所の画面デザインを変更し、S60においては、図9のS88において選択されたプレイヤーアイコンを演奏場所の画像上に表示する。図8のS78のパン調整ダイアログボックスでパンが設定し直された場合には、このパン情報に応じてプレイヤーアイコンの配置を変更する。
【0046】
図13は、自動伴奏スタイルおよびステージ効果と演奏場所の画像との関係の説明図である。自動伴奏スタイルは音楽ジャンル別に分類され、図では、ダンシング,クラシック,ジャズ,民族を例示している。ステージ効果としては、ここでは残響を例示し、残響のタイプとして、残響のエフェクトなし、ホール,ステージの例を示している。そして自動伴奏スタイルと残響のタイプの組み合わせ条件により演奏場所の画像を異ならせている。演奏場所の画像の作り方は任意である。簡単な例を示すと、自動伴奏スタイルによって、演奏場所のカーテンの色や模様を異ならせたり、スピーカボックス等の小道具を異ならせる。残響のタイプによって、ホールやステージをイメージした画像を用いたり、場合により、カーテンをなくした画像を用いる。残響の強さを識別して、演奏場所の奥行き、あるいは広さの異なる画像を用いるようにしてもよい。
【0047】
図16ないし図18は、プレイヤーアイコンが配置された演奏場所の画像の具体例の説明図である。しかし、図13とは特に関連付けられたものではない。
図16においては、開かれたカーテン121の間にステージ122が3次元的に描かれている。ステージ122には、ギタープレイヤーアイコン123,電子ピアノプレイヤーアイコン124,人声音プレイヤーアイコン125,グランドピアノプレイヤーアイコン126,バイオリンプレイヤーアイコン127が配置されている。演奏場所の画像としては殺風景な画像を用いており、ステージ効果の設定がない場合に用いる。
【0048】
人声音プレイヤーアイコン125は、人声音が楽器の音色として扱われた演奏パートのアイコンである。歌詞を発音させる場合もある。女性を3人並べたキャラクタを用いているが、この演奏パートに対してコーラスのエフェクトがかかることを表わすようにして、コーラスのエフェクトがかからない場合には、人物が1人のキャラクタを用いるようにしてもよい。また、男声音と女声音とでキャラクタを代えたアイコンにしてもよい。
【0049】
バイオリンプレイヤーアイコン127も3人の人物並べているが、この演奏パートに対してアンサンブルのエフェクトがかかることを表わすようにして、アンサンブルのエフェクトがかからない場合には、人物が1人のキャラクタを用いるようにしてもよい。
なお、図示のように、プレイヤーアイコンの床面のスポットライトをイメージする楕円形の中に、演奏パートの番号を表示するようにしてもよい。
【0050】
図17においては、図16のカーテンとは色や模様の異なる開かれたカーテン131の間にステージ132が3次元的に描かれている。ステージ132は、床面および壁面が木製のコンサートホールをイメージしたものとしている。
図18においては、図16,図17のカーテンとは色や模様の異なる開かれたカーテン141の間に、ステージ142が3次元的に描かれている。ステージ142は、スポットライトで浮かび上がったライブステージをイメージしたものである。
このように、自動伴奏スタイルやステージ効果などの演奏システムに対する効果、言い換えれば、演奏システムの環境設定に応じて、演奏場所の画像を変更することによって臨場感を増すことができる。
【0051】
図7の機能選択のフローチャートに戻って説明する。S51において編集メニューの選択がなかったときにS53に処理を進める。S53においては、演奏場所の画像上に配置されたプレイヤーアイコンの選択があるか否かを判定し、プレイヤーアイコンが選択されているときにはS54に処理を進め、選択されていない場合にはメインのフローチャートに戻る。マウスポインタを1つのプレイヤーアイコンに当てて、左クリックされた場合にプレイヤーアイコンの選択があると判定する。
【0052】
S54においては、プレイヤーが選択されたことを視覚的に表示するために、選択されたプレイヤーアイコンを囲む四角形の枠を表示し、S55に処理を進める。S55においては、プレイヤーアイコンの移動指示があるか否かを判定し、移動指示があるときにはS56に処理を進め、移動指示がないときには、メインのフローチャートに戻る。プレイヤーアイコンにマウスポインタを当ててマウスを左クリックしたままマウスをドラッグすることにより移動指示があると判定する。S56においては、プレイヤーアイコンの表示位置を変え、S57に処理を進める。S57においては、そのプレイヤーアイコンに対応する演奏パートのパン制御を、プレイヤーアイコンの位置に応じて設定して、メインのフローチャートに戻る。詳細は、先に図1,図2を参照して説明した通りである。
【0053】
したがって、曲が選択されて演奏する曲のファイルデータが取り込まれている時点で、この曲に使用されている演奏パートに対応したプレイヤーアイコンがパン情報に応じた位置に表示されるが、このプレイヤーアイコンの位置を動かすことによりパンの設定を変えることができる。また、曲が選択された後であったり、ユーザーが編集した曲においても、このプレイヤーアイコンの位置を動かすことによりパンの設定を変えることができる。
【0054】
図10を参照して、作動指示のフローチャートを説明する。
S101において、再生指示があるか否かを判定し、再生指示があるときには、S103に処理を進め、再生指示がないときにはS102に処理を進める。この実施の形態では、画面上に表示された仮想的な記録再生装置のコントロールパネルの再生ボタンにマウスポインタを当てて、左クリックしたときに再生指示があったと判定する。
S103においては、演奏場所の画像上に配置されたプレイヤーアイコンのいずれか1つが選択されている状態であるか否かを判定し、選択されているときにはS105に処理を進め、選択されていないときにはS104に処理を進める。なお、プレイヤーアイコンは、図7のS53において選択され、選択されたときには、S54において付された枠が画面上に表示されている。
【0055】
S105においては、選択されたプレーヤーアイコンの音色に対応する試聴用楽曲データを選定して演奏を開始する。
試聴用楽曲データは、例えば、個々の音符や音色の情報に加え、楽音発生イベントの時間間隔を指示するデューレーション情報を含むものであり、音源部において楽音波形データに変換可能なファイル形式のシーケンスデータある。具体例としては、スタンダードMIDIファイル(SMF)形式のデータである。この試聴用楽曲データは、ある程度まとまりのある楽曲を構成し、具体例としては、1または数小節分のフレーズデータであるが、1曲全部を用いてもよい。なお、試聴用楽曲データは、ウエーブ形式のファイルでもよく、波形データをアナログ波形に変換するD/A変換機能を持たせるだけでよくなるが、記憶しておくべき容量は大幅に増大することになる。
【0056】
試聴用楽曲データには、演奏パートの音色を視聴するのにふさわしい曲の中の、ふさわしいフレーズを選定する。この試聴用楽曲データを視聴して、演奏あるいは編集を行おうとしている曲にこの演奏パートの音色がふさわしいかどうかを調べる。そのため、曲の音楽ジャンル、曲のスタイル、メロディー用の演奏パートであるか、バッキング(伴奏)用の演奏パートであるかを指定する。そして、指定された音楽ジャンルに属する曲の中から、曲のスタイルに合ったものを予め選定しておき、さらに、その曲の中から、その音色の視聴にふさわしいシーケンスを、メロディー用、バッキング用にあらかじめ記憶しておく。
【0057】
図14は、試聴用楽曲データの設定方法の第1の説明図である。試聴用楽曲データは、音色毎に選定されるため、音色ごとに選定テーブルを有している。図示の例では、音楽ジャンル,曲の速さ(テンポ),演奏パートのメロディ用/バッキング(伴奏)用種別等の組み合わせによって、予め記憶されている試聴用楽曲データを選定する。
【0058】
上述した選定は、例えば、S105において、ポップアップメニューを表示して、選択された演奏パートについて、ユーザが指定する。
この選定条件中、音楽ジャンルについては、曲あるいは自動伴奏スタイルが既に設定された状態である場合に、曲あるいは自動伴奏スタイルの音楽ジャンルに一致させるようにすれば、ユーザがこのS105のステップにおいて音楽ジャンルを特に設定しなくてもよい。
曲の速さについても同様に、曲あるいは自動伴奏スタイルが既に設定された状態である場合に、曲あるいは自動伴奏スタイルのテンポに合わせるようにすれば、ユーザがこのステップにおいて曲のスタイルを特に設定しなくてもよい。
また、演奏パートのメロディ用/バッキング(伴奏)用種別については、プレイヤーアイコンの配置に連動させて設定することもでき、この場合、ユーザがこのステップにおいてメロディ用/バッキング(伴奏)用種別を特に設定しなくてもよい。
上述した説明では、音色に加えて、音楽ジャンル等の諸条件によっても試聴用楽曲データを変えるようにしたが、音色のみにより試聴用楽曲データを設定しただけでも、音色の特徴をつかみやすくすることができる。
【0059】
図15は、試聴用楽曲データの設定方法の第2の説明図である。図中、図2と同様な部分には同じ符号を付して説明を省略する。
演奏場所を表現する画像11は、ステージを表現する線画11aに示されるように3次元的に図示されている。その結果、画面の上方にあるプレイヤーアイコンB14は、ステージの奥にあるかのように表示される。図3の例とは異なり、この表示画面では、図中に▲1▼−▲1▼の破線で示した境界よりも上の画面の領域をバッキング領域とし、この領域に配置されたプレイヤーアイコンに対応する演奏パートは、バッキング(伴奏)用に設定する。これに対し、▲1▼−▲1▼の破線で示した境界線よりも下の画面の領域をメロディ領域とし、この領域に配置されたプレイヤーアイコンB13,プレイヤーアイコンC15に対応する演奏パートはメロディ用に設定される。
【0060】
なお、変形例として、図中に、▲1▼−▲1▼の破線、▲2▼−▲2▼の破線、▲3▼−▲3▼の破線で示す境界線よりも中央側の領域をメロディ領域とし、周辺部の領域をバッキング領域にしてもよい。この場合、プレイヤーアイコンB13に対応する演奏パートのみがメロディ用に設定される。
上述したような試聴用楽曲データの選択によって、音色を選定するにあたって、音色のイメージがわかりやすくなり、音色選択の質や効率が上がる。特に、音楽ジャンルや曲のスタイルによって試聴用楽曲データを取り替えることにより、よりユーザの利用環境に適した試聴用楽曲データを提供することができるようになる。
【0061】
図10のS105において、プレイヤーアイコンの音色に対応した試聴用楽曲データが選定されると、この試聴用楽曲データを演奏用のデータバッファに取り込んで、演奏開始状態となり、メインのフローチャートに戻る。
S104においては、曲が指定されている状態であるか否かを判定し、指定されているときにはS107に処理を進め、指定されていないときにはS106に処理を進める。曲の設定は、図9におけるS90において行われた。S107においては、指定されている曲の曲データを演奏用のデータバッファに取り込んで、演奏開始状態となり、メインのフローチャートに戻る。
【0062】
S106においては、自動伴奏スタイルが選択されている状態であるか否かを判定し、選択されているときにはS108に処理を進め、選択されていないときにはメインのフローチャートに戻る。
S108においては、選択されている自動伴奏スタイルの伴奏データを演奏用のバッファに取り込んで演奏開始状態となり、メインのフローチャートに戻る。
【0063】
S102においては、その他の指示があるか否かを判定する。その他の指示があるときにはS109に処理を進め、その他の指示がないときにはメインのフロS109においては、指示のあったその他の処理、例えば、巻き戻し、早送り、一時停止、停止等の処理を実行する。上述した処理の指示は、再生指示と同様に、画面上に表示された仮想的な記録再生装置の巻き戻し、早送り、一時停止、停止等のボタンにマウスポインタを当てて、左クリックしたときに指示があったと判定する。
【0064】
図11に示す演奏のフローチャートにおいて、S111においては演奏用のデータバッファに演奏データがあるか否かを判定し、ある場合にはS112に処理を進め、ない場合にはメインのフローチャートに戻る。S112においては、演奏用のデータバッファから順次取り出されるノートオンデータ等に基づいて楽音再生処理を行い、S113に処理を進める。S113においては、楽音発生期間中の演奏パートの楽音レベルを検出し、検出レベルに応じた動きをするプレイヤーアイコンの画像を選択する。このようにして、発音レベルに応じて、それに対応したプレイヤーアイコンの動きを大きくしたり、また、小さくしたりする。同時に、プレイヤーアイコンの画像をテンポに応じて切り替える処理を行い、S114に処理を進める。
【0065】
各演奏パートの楽音発生期間中、その演奏パートのプレイヤーアイコンを表す図17に示すような画像をテンポに合わせて切り替えることによりプレイヤーアイコンに動きを与える。各演奏パートのノートオンを検出することにより楽音の発生開始を検出し、ノートオンが所定時間にわたって検出されなくなったことにより楽音の発生終了を検出する。
【0066】
S114においては、第1モードであるか否かを判定し、第1モードであるときにはS115に処理を進め、第2モードのときには、S116に処理を進める。
S115においては、演奏期間中、楽音が発生していないときを含めて常時、コンダクターアイコンの画像をテンポおよび拍子に応じて切り替えるようにしてメインのフローチャートに戻る。
【0067】
切り替えに使用するコンダクターアイコンの画像の枚数を拍子に応じて決め、例えば、2拍子の場合には動作コマ数を2として、2枚の異なる画像を周期的に切り替え、3拍子の場合には、動作コマ数を3コマとして、3枚の異なる画像を周期的に切り替える。すなわち、コンダクターアイコンの画像をテンポに合わせた間隔で切り替え、拍子に合わせて同じ画像を繰り返すようにする。
【0068】
S116における第2モードでは、いずれか1つの演奏パートの楽音発生期間に、その楽音発生期間中の演奏パートのプレイヤーアイコンの方向にコンダクターアイコンの指揮者の向きが変わる画像を表示するとともに、拍子に合わせた一連の画像を繰り返し、テンポに合わせて画像を切り替える。そのために、指揮の動作を示す複数の画像を、コンダクターの向きを異ならせた画像を複数セット用意してあり、コンダクターアイコンの位置から楽音発生期間中のプレイヤーアイコンの位置を見た角度を計算して画像のセットを選択する。
【0069】
上述したように、プレイヤーアイコンの位置でパンの設定状態がわかり、プレイヤーアイコンおよびコンダクターアイコンの動きで演奏状態がわかるため、視覚的に演奏システムの状態が一目でわかるようになる。
【0070】
なお、演奏場所を表現する画像に観客席を設けて観客を表示してもよい。観客が騒いでいる様子を表す画像データを複数枚用意して、演奏場所画像データメモリ4に記憶しておき、キーオンイベント等の演奏データの発生頻度が大きいときには、演奏が盛り上がっていると推定して、観客が騒いでいる状態の一連の画像を順次切り替えることにより、観客が騒いでいるように見せると、さらに臨場感が増す。また、拍手音等の効果音を出力する際に、同様にして、観客が騒いでいるように見せることができる。
【0071】
上述した説明では、自動伴奏スタイルの設定、ステージ効果の設定、調と拍子の設定、プレイヤー(音色)の設定については、編集メニュー処理を用いて設定を行った。しかし、アプリケーションウインドウの画面上にそれぞれのアイコンを表示して、このアイコンをマウスで選択してポップアップメニューを表示させて設定を行ってもよい。
【0072】
また、上述した説明では、試聴用楽曲データの演奏、自動伴奏スタイルの演奏を、通常の曲再生と同様に、プレイボタンのマウス操作によって行った。しかし、編集メニューにおける自動伴奏スタイルのダイアログボックスにおいて自動伴奏スタイルを設定する際に、視聴のチェックボタンをマウスでクリックすることにより、自動伴奏スタイルの演奏を行うようにしてもよい。同様に、編集メニューにおける音色変更のダイアログボックスにおいて音色を設定する際に、視聴のチェックボタンをマウスでクリックすることにより、音色の視聴を行うようにしてもよい。
【0073】
【発明の効果】
本発明は、上述した説明から明らかなように、各演奏パートの演奏状態、演奏期間中を演奏パートの音色を表現するアイコンの変化によって視覚的に表示することができるという効果がある。その結果、ユーザは、曲の流れを楽しみながら、楽音が発生している演奏パートや演奏期間中であることを視覚的に捉えることができる。
【図面の簡単な説明】
【図1】 本発明の演奏状態の視覚的表示方法の実施の一形態を説明するための、演奏状態の視覚的表示装置の機能ブロック構成図である。
【図2】 本発明の演奏状態の視覚的表示方法の実施の一形態を説明するための表示画面の説明図である。
【図3】 プレイヤーアイコンの具体例を示す説明図である。
【図4】 コンダクターアイコンの具体例を示す説明図である。
【図5】 本発明の演奏状態の視覚的表示方法の実施の一形態を説明するためのハードウエア構成図である。
【図6】 本発明の演奏状態の視覚的表示方法の実施の一形態を説明するためのメインのフローチャートである。
【図7】 図6に示したS42の機能選択ステップのフローチャートである。
【図8】 図7に示したS52の編集メニュー処理ステップの第1のフローチャートである。
【図9】 図7に示したS52の編集メニュー処理ステップの第2のフローチャートである。
【図10】 図6に示したS43の作動指示ステップのフローチャートである。
【図11】 図6に示したS44の演奏ステップのフローチャートである。
【図12】 曲目選択の説明図である。
【図13】 自動伴奏スタイルおよびステージ効果と演奏場所の画像との関係の説明図である。
【図14】 試聴用楽曲データの設定方法の第1の説明図である。
【図15】 試聴用楽曲データの設定方法の第2の説明図である。
【図16】 プレイヤーアイコンが配置された演奏場所の画像の第1の具体例の説明図である。
【図17】 プレイヤーアイコンが配置された演奏場所の画像の第2の具体例の説明図である。
【図18】 プレイヤーアイコンが配置された演奏場所の画像の第3の具体例の説明図である。
【符号の説明】
1 演奏パートメモリ、2 コンダクターアイコン画像データメモリ、3 プレーヤーアイコン画像データメモリ、4 演奏場所画像データメモリ、5 画像データ合成部、6 アイコン位置設定部、7 パン設定部、 11 演奏場所を表現する画像、13 プレイヤーアイコンA、14 プレイヤーアイコンB、15プレイヤーアイコンC、16 マウスポインタ、17 コンダクターアイコン
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for visually displaying a performance state.
[0002]
[Prior art]
In desktop music (DTM) using a dedicated sequencer or personal computer, step recording by note specification using a mouse or the like, real-time recording by actual performance using a MIDI keyboard, etc., reading of a song data file, etc. Thus, the musical tone of the tone assigned to each performance part is reproduced and played. At this time, an apparatus that can be easily familiar to beginners can be considered by displaying a concrete character on the display screen of the display in correspondence with the tone color of the performance part described above. However, simply displaying the character does not change the display screen, and there is no connection with the performance image. Therefore, there has been a problem that it becomes monotonous.
In addition, there is one that notifies the tempo by sound or visual display. However, this only informs the tempo in a monotonous manner during the playback of the song.
[0003]
[Problems to be solved by the invention]
The present invention has been made to solve the above-described problems, and can visually display the performance state or performance period of each performance part by a change of an icon representing the tone color of the performance part. An object of the present invention is to provide a visual display method of a performance state that can be performed and a recording medium in which a visual display program of a performance state is stored.
[0004]
[Means for Solving the Problems]
The present inventionA performance state visual display method for visually displaying a performance state when playing and playing musical tones assigned to one or a plurality of performance parts,The step of identifying the timbre of each of the one or more performance parts, the step of setting the time signature of the performance, and the icon expressing the timbre of each performance part according to the identified timbre of each performance part are output. And outputting an icon representing the conductor to create an image in which an icon representing the tone color of each performance part and an icon representing the conductor are arranged, and during the performance period, the conductor A step of changing the icon image representing the movement to give movement to the icon representing the conductor, and determining the number of images to determine the number of icon images representing the conductor according to a set time signature Step.
The present invention is also a recording medium on which a visual display program of a performance state for causing a computer to execute the above steps is recorded.
Therefore, that the performance period,It can be displayed visually by changing the icon representing the conductor.
Further, since the icon image representing the conductor is switched according to the time signature of the performance, the time signature of the performance can also be displayed visually.
[0005]
The present invention also providesA performance state visual display method for visually displaying a performance state when playing and playing musical tones assigned to one or a plurality of performance parts,The step of identifying the timbre of each of the one or more performance parts, the step of setting the time signature of the performance, and the icon expressing the timbre of each performance part according to the identified timbre of each performance part are output. And outputting an icon representing the conductor, creating an icon representing the tone color of each performance part, and an image in which the icon representing the conductor is arranged, and during the performance period,in frontOf the icons that represent the tone of each performance part, the icon that represents the performance part that is generating the musical soundSwitch to the set of icon images representing the conductor, and the icon images representing the conductor that make up the switched setA step of switching to give movement to an icon representing the conductor, and a step of determining the number of images to determine the number of images of the icon representing the conductor according to a set time signature of the performance. is there.
The present invention is also a recording medium on which a visual display program of a performance state for causing a computer to execute the above steps is recorded.
Therefore, it can be visually displayed by the change of the icon expressing the conductor that the performance period is in progress.
Also,Since the icon image representing the conductor is switched according to the time signature of the performance, the time signature of the performance can also be visually displayed.The performance part during the musical sound generation period by the movement of the icon representing the conductor can also be visually represented by the change of the icon representing the conductor.
[0006]
MaIn addition, if the step of giving movement to the icon representing the conductor is configured to give movement only during any musical sound generation period of each performance part, any musical sound generation period of each performance part is conducted. Can be displayed visually by the movement of the icon representing the person.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a functional block configuration diagram of a performance state visual display device for explaining an embodiment of the performance state visual display method of the present invention. In the figure, 1 is a performance part memory, 2 is a conductor icon image data memory, 3 is a player icon image data memory, 4 is a performance place image data memory, 5 is an image data composition unit, 6 is an icon position setting unit, and 7 is a pan. It is a setting part.
FIG. 2 is an explanatory diagram of a display screen for explaining an embodiment of the visual display method of the performance state of the present invention. A player icon A13, a player icon B14, a player icon C15, a mouse pointer 16, and a conductor icon 17 are displayed on the image 11 representing the performance place.
FIG. 3 is an explanatory diagram showing a specific example of a player icon. FIG. 3A and FIG. 3B are images that concretely represent the player who is playing the electric guitar. It is an image created by taking out two types (two frames) from a series of movements of the character being played. In the illustrated example, a silhouette is shown, but a two-dimensional image or a three-dimensional image that looks three-dimensional may be used. The performance part number is displayed in the spotlight portion.
FIG. 4 is an explanatory diagram showing a specific example of a conductor icon. 4 (a), 4 (b), and 4 (c) are images that concretely represent a conductor in a state of conducting. It is an image created by taking out three types (three frames) from a series of movements of the character being conducted. Similar to the player icon, a two-dimensional image or a three-dimensional image may be used instead of the silhouette.
[0008]
A performance system is constructed by one or a plurality of performance parts. The performance part memory 1 stores timbre information indicating the timbre of each performance part and pan information of each performance part. When the user designates the performance part and reads the timbre information from the performance part memory 1, the timbre of each performance part is identified. The image data of the conductor icon is read from the conductor image data memory 2, and the image data of the player icon corresponding to the tone color of each performance part is read from the icon image data memory 3 according to the tone color information. Further, image data representing a virtual performance place of the performance system is read from the performance place image data memory 4. In accordance with the read conductor icon image data, icon image data of each performance part and image data representing the performance place, the image data synthesis unit 5 includes the conductor icon and each performance part in the image representing the performance place. Is generated and output to the display unit.
[0009]
As shown in FIG. 3A and FIG. 3B, the icons such as the player icon A13 shown in FIG. 2 are images that concretely represent the players who are playing the timbre instruments of each performance part. is there. This player icon has the following functions in the processing of the performance system.
First, a function for displaying the tone and operation state of each performance part. Second, a function for designating a performance part corresponding to the icon by placing the mouse pointer on the icon and left-clicking. Depending on the position of the icon, the sound image localization position of the performance part corresponding to the icon in the performance system is displayed.
[0010]
The conductor icon 17 shown in FIG. 2 corresponds to the icon in the performance system processing by firstly displaying the tempo and time signature, and secondly by placing the mouse pointer on the icon and left-clicking. It has a function to specify tempo and time signature. Since pan control is not performed, the image 11 representing the performance place may be displayed at a position off the screen.
[0011]
Next, the pan control of the musical tone of each performance part will be described. In FIG. 2, the left and right positions of the player icon A13, the player icon B14, and the player icon C15 on the image 11 representing the performance place visually represent the sound image localization position of the performance part corresponding to each icon.
As shown in FIG. 1, pan information indicating the sound image localization position of each performance part is stored in the performance part memory 1. By reading the pan information, the sound image localization position of each performance part is identified, and the icon position setting unit 6 controls the image data synthesis unit 5. The image data composition unit 5 creates an image in which each icon is arranged at a position corresponding to the pan information in the image representing the performance place.
[0012]
In the specific example shown in FIG. 2, the display position of the icon such as the player icon A13 in the left-right direction is determined according to the sound image localization position of each musical sound part in the virtual sound field of the performance system. As a result, the musical sound of the performance part whose icon is located on the left side has a higher volume output from the left speaker than that of the right speaker, and conversely, the musical sound of the performance part whose icon is located on the right side. It is visually displayed that the pan control is performed so that the volume output from the right speaker is larger than the volume output from the left speaker.
[0013]
Conversely, pan information can be set by the display position of the player icon on the image 11 representing the performance place.
In FIG. 1, the icon position setting unit 6 controls the image data composition unit 5 by inputting the position setting data of each icon by the user using an input device such as a keyboard or a mouse, and determines the position of each icon. Move it up / down / left / right to place it in a new position. Then, the pan setting unit 7 outputs pan information for controlling pan of each performance part in the virtual sound field of the performance system to the pan control unit according to the new position in the left-right direction of each icon. In this way, the sound image localization of each performance part can be visually expressed and the sound image localization can be set visually. Note that the pan information of each performance part in the performance part memory 1 may be updated with the pan information output from the pan setting unit 7.
[0014]
In FIG. 2, when the user moves the mouse, moves the mouse pointer 16 to the player icon A13 and presses the left button of the mouse, the player icon A13 is selected, and when the user drags the mouse as it is, the position setting data of the player icon A13 is displayed. Is updated. As a result, the player icon A13 moves together with the mouse pointer 16. When the left button is released, the player icon A13 stops at that position and a new position is set. As a result, the position setting data of the player icon A13 is fixed.
In FIG. 1, the functional blocks for synthesizing the image data of the mouse pointer 16, inputting the position setting data of the mouse pointer 16, and outputting the position setting data of the player icon A 13 using the mouse are not shown.
[0015]
The pan setting unit 7 outputs pan information of the performance part corresponding to the player icon A13 according to the position setting data including the period in which the position setting data of the player icon A13 is updated. Alternatively, the pan setting unit 7 may output pan information corresponding to the fixed position setting data when the position setting data of the player icon A13 is fixed.
As described above, when the pan information is set according to the arrangement of the player icon A13 on the screen, more specifically, the position of the abscissa, the setting operation can be performed intuitively and intuitively.
[0016]
As a specific example of the method of first arranging the player icon A13 or the like on the image 11 representing the performance place, the player icon A13 is arranged at the initial position by assigning the tone color to the performance part on the menu screen at the time of editing. Alternatively, at the time of editing, an image area representing a dressing room is displayed next to the image 11 representing the performance place, a plurality of player icons prepared in advance are displayed, and one is displayed using a mouse. Each player icon is placed on an image 11 representing a performance place.
[0017]
The sound image of the performance part tends to be localized at the center. At this time, if the sound image localization position and the icon display position are simply in a proportional relationship, the icon is displayed overlapping the center position, making it difficult to see the screen. There is also a problem that the display screen is unbalanced and feels unnatural. In order to avoid this, the panning information is displayed at the position of the icon after widening the central area 12 indicating the central panning level. Conversely, when pan control is performed by changing the icon setting position, the central area 12 is set as a central dead zone for control.
[0018]
That is, for the central region 12, a wide range is assigned to the abscissa on the screen. Accordingly, it is assumed that the player icon A13 and the player icon B14 arranged in a central area having a predetermined width in the horizontal direction of the screen are at the same central pan level for sound image localization of each performance part. If another player icon is brought to the position where the player icon is already placed, the position adjustment is made so that each player icon does not overlap completely so that other player icons will be placed avoiding that position. You may go.
[0019]
In addition to the central area 12, the player icon is divided into a plurality of small areas with respect to the abscissa on the screen, and the player icons in the same small area have the same pan information and set the same pan information. As an example, the display position may be adjusted so that the player icons do not overlap.
[0020]
Next, an animation (moving image) display of the player icon and the conductor icon will be described.
In FIG. 1, the image switching unit 8 inputs the tempo, time signature, and note-on of the musical tone of each performance part, thereby identifying the musical tone tempo and time signature and identifying the musical tone generation period. 2. Control to select an image to be read from the player icon image data memory 3. The conductor icon image data memory 2 and the player icon image data memory 3 each store a plurality of still images representing a series of movements of the character being played.
During the musical sound generation period of each performance part, the image representing the player icon is switched from the player icon image data memory 3 by reading out the image representing the player icon of the performance part as shown in FIG. Add movement to the player icon. The musical sound generation period of each performance part is started by detecting a musical sound generation instruction (corresponding to “Note On” in the MIDI information) of each performance part.
[0021]
There are several detection methods for the end of the musical tone generation period of each performance part.
As a first detection method, the time point at which the musical sound of each performance part is muted is detected and the process ends. Specifically, the time point at which the envelope of the musical tone of each performance part becomes zero or smaller than a predetermined threshold is detected.
As a second detection method, the end of the musical sound generation period is detected by not detecting the note-on of each performance part for a predetermined time.
[0022]
At that time, in either of the first detection method and the second detection method, when a musical tone generation instruction is issued again during such musical tone generation period, the image representing the player icon of the performance part is switched. A method of returning to the first image showing a series of operations may be adopted. In this way, the operation of the player icon can be started from the image at the start of the operation for each musical sound generation instruction of each performance part. Then, it is assumed that the same image is not repeatedly used as an image representing the player icon of the performance part according to one musical sound generation instruction. Even in the case of an instrument, such as a guitar, where the difference in performance operation is visually noticeable between the start of tone generation and the subsequent tone generation period, the movement of the player icon does not become unnatural.
[0023]
Furthermore, if the player icon increases or decreases the operation of the player icon depending on the level of the musical sound during the musical sound generation period, for example, the size of the musical sound envelope, a more effective visual display is possible. For this purpose, the player icon image data memory 3 stores a plurality of images having different movements in each of the series of operations. By reading an image representing a player icon in accordance with the tempo and the tone level, the image representing the player icon is switched to give the player icon a motion corresponding to the tone level.
[0024]
Note that there are multiple performance parts in the song data, but when “mute” is specified for the performance part of one track using the mouse in the track view window, a musical sound is generated in the performance part assigned to this track. Even if there is an instruction, the musical sound generation instruction is ignored and the musical sound generation period is not started. As a result, the player icon of the performance part for which “mute” is designated is prevented from moving. Also, when “Solo Performance” is specified for the performance part of a track, even if there is a musical sound generation instruction for the performance part other than the performance part assigned to this track, this musical sound generation instruction is ignored. Do not start the tone generation period. As a result, only the player icon designated as “solo performance” is moved, and the operation of each performance part is visually displayed.
[0025]
In addition, the player icon is always moved from the conductor icon image data memory 2 to FIG. 4 during the performance period, such as when one song is automatically played, and when no performance part is during the musical tone generation period. The image of the conductor icon shown in FIG. 5 is read out in accordance with the tempo and time signature, so that the image representing the conductor icon is switched to give movement to the conductor icon.
The number of conductor icon images used for switching is determined according to the time signature. For example, in the case of 2 beats, the number of operation frames is set to 2, and two different images are periodically read out and switched. Uses three frames as an operation frame and periodically reads out and switches a series of images according to the time signature. That is, the image of the conductor icon is switched at intervals that match the tempo, and the same image is repeated according to the time signature.
[0026]
In the above description, the conductor icon is always moved during the performance period. As another example, the conductor icon may be moved only during the performance period and when any performance part is in the musical sound generation period.
[0027]
Furthermore, it is more effective if the conductor icon is directed to the player icon of the performance part during the musical sound generation period. The conductor icon image data memory 2 stores a set of a plurality of images showing the commanding operation according to the time signature, and a plurality of sets with different conductor orientations. The position of the player icon and the conductor icon of the performance part in which the musical sound is generated is extracted from the icon position setting unit 6, and the angle of the position of the player icon during the musical sound generation period is calculated from the position of the conductor icon from the relative positional relationship between the two. Then, the image is switched to the conductor icon image facing the player icon of the performance part in which the musical sound is generated.
[0028]
If a plurality of performance parts are producing musical sounds at the same time, the direction may be determined in the center of those performance parts. During the period when no musical sound is generated in any of the performance parts, the conductor icon may be stopped as it is without changing the direction or may be returned to the front. When the performance starts and when the performance ends, the conductor icon faces the front.
[0029]
In the above description, as a player icon and a conductor icon image, a plurality of still images representing a series of actions are stored in the image data memory, and by switching the still images, a series of movements are made to each icon. Giving.
When the number of still images is reduced, the amount of image data to be stored is reduced, and the processing load for image switching is reduced. On the other hand, if the number of still images is increased to, for example, 30 frames (frames) per second and the switching time interval is shortened, the movement becomes smoother, the display quality is improved, and it is easy for the user to see. .
In addition, in a series of operation intervals represented by still images, these still images are used as key frames, and still image data is interpolated to generate intermediate still images, thereby reducing the number of original still images. Smooth motion can be given to player icons and conductor icons. Such a technique is known as an animation (moving image) creation technique in 3D computer graphics technology or the like.
[0030]
FIG. 5 is a hardware configuration diagram for explaining an embodiment of the visual display method of the performance state of the present invention. This is a hardware configuration of a sequencer device or a personal computer in which a sound board is incorporated. The functional block configuration shown in FIG. 1 is realized by executing an operating system and application software on this hardware.
[0031]
A CPU 22, a ROM 23, a RAM 24, an external storage device 25, an interface 27, a display unit 29, an input unit 30, and a sound source unit 31 are connected to the bus 21 by a bus. The external storage device 25 is one or a plurality of recording / reproducing devices such as an FDD (flexible magnetic disk drive), a hard magnetic disk drive (HDD), and a CD-ROM drive, and a recording medium 26 corresponding to each is loaded. The An external performance device 28 such as a MIDI keyboard is connected to the interface 27. The musical tone output from the sound source unit 31 is output to the DSP 32, converted into an analog signal by the D / A converter 33, amplified by the stereo two-channel amplifier 34, and the musical tone signal is output from the right speaker 35 and the left speaker 36. Is done.
[0032]
Operating system software and sequence software are recorded on a hard disk, which is one of the recording media 26. The CPU 22 executes various processes by loading necessary programs and data from the ROM 23 and the hard disk into the RAM 24. The sequence software is recorded and distributed on a CD-ROM, which is one of the recording media 26, and this software is installed on a hard disk for use. Alternatively, it is downloaded from an external server to the hard disk via a communication interface (not shown).
[0033]
The CPU 22 performs real-time recording based on input information from the external performance device 28 as a sequencer function. Alternatively, a staff window, a piano roll window, or the like is displayed on the display unit 29 such as an LCD display or a CRT display, and step recording is performed using the input unit 30 such as a keyboard or a mouse. Alternatively, the music data file stored in the recording medium 26 is loaded into the RAM 24 to reproduce the music.
[0034]
The sound source unit 31 can simultaneously sound a plurality of performance parts. The tone generator 31 generates a musical tone having a timbre assigned to each performance part and outputs it to the DSP 32. The DSP 32 adds effects such as reverberation and chorus to the musical tone. In addition, in order to perform sound image localization in the virtual sound field, the volume ratio of the right channel and the left channel is set by the pan information of the musical sound of each musical sound part and output to the A / D converter 33. The A / D converted musical sound signal is output to the stereo amplifier 34 and amplified, and the musical sound signal is output from the right speaker 35 and the left speaker 36.
[0035]
The CPU 22 also executes a function of visually displaying the performance system by displaying virtual positions of a plurality of sound sources when a musical sound is generated. The amplifier 34 and later can be external devices. The sound source unit 31 and the DSP 32 may also be external sound source devices, and MIDI data may be output to the external sound source device via a MIDI interface (not shown). In some cases, a MIDI keyboard is provided in the input unit 30. In the case of a device that does not have a hard magnetic disk drive, software may be installed in the ROM 23.
In the above description, the DTM program such as sequence software has been described on the assumption that the personal computer is installed in the recording medium 26 of the external storage device 25. However, a DTM-dedicated device may also be used. May be a combination of at least a part of hardware logic.
[0036]
6 to 11 are flowcharts for explaining an embodiment of the visual display method of the performance state of the present invention.
FIG. 6 is a main flowchart. FIG. 7 is a flowchart of the function selection step of S42 shown in FIG. FIG. 8 is a first flowchart of the edit menu processing step of S52 shown in FIG. FIG. 9 is a second flowchart of the edit menu processing step of S52 shown in FIG. FIG. 10 is a flowchart of the operation instruction step of S43 shown in FIG. FIG. 11 is a flowchart of the performance step of S44 shown in FIG.
[0037]
As shown in FIG. 6, in the main flowchart of the embodiment of the visual display method of the performance state of the present invention, the registers and the like are initialized in S41. Next, a function selection process is performed in S42, an operation instruction process is performed in S43, and a performance process is performed in S44. When the process of S44 is completed, the process returns to S42, and the processes of S42 to S44 are repeated. Hereinafter, although the flowchart of each step is demonstrated, description which a step which is not directly related to this invention is abbreviate | omitted.
[0038]
In the function selection flowchart shown in FIG. 7, in S51, it is determined whether or not an edit menu has been selected. If so, the process proceeds to an edit menu process in S52, and if not, the process proceeds to S53. The edit menu is selected by left-clicking on “Edit” in the menu bar of the application window with the mouse.
[0039]
First, the edit menu process in S52 will be described.
In S71 shown in FIG. 8, a drop-down menu is displayed, and the process proceeds to S72. In S72, it is determined whether or not “Create automatic accompaniment style” in the drop-down menu has been selected by left clicking the mouse. If selected, the process proceeds to S74, and if not selected, the process proceeds to S73. In S74, an automatic accompaniment style dialog box is displayed. In S75, one is selected from the list of automatic accompaniment styles, the automatic accompaniment style is set, and the process returns to S58 in FIG. In the automatic accompaniment style, a music genre, a file of a plurality of automatic accompaniment data belonging to this music genre and its section, a disclosure time and an end time of a period in which this automatic accompaniment is included in a song, and the like are set.
[0040]
In S73, it is determined whether or not “edit player” is selected. If it is selected, the process proceeds to S77, and if it is not selected, the process proceeds to S76. In S77, it is determined whether there is a selected player. This determination is made based on whether or not a player icon has already been selected in step S54 in FIG. If it is selected, the process proceeds to S78, and if it is not selected, the process returns to the main flowchart. In S78, a sub-menu for selecting volume adjustment, timbre change, pan adjustment, etc. for the performance part corresponding to the selected player icon is opened. When one of them is further selected, a dedicated dialog is displayed for each. The box opens and the process proceeds to S79. In S79, parameter values are input and set in any of the dialog boxes for volume, tone color, pan, etc., and the process returns to S58 in FIG.
[0041]
In S76, it is determined whether or not “stage effect” has been selected. If it is selected, the process proceeds to S81, and if it is not selected, the process proceeds to S80. In S81, a “Stage Effect” dialog box is opened, a list of stage effect names is displayed, and the process proceeds to S82. This stage effect is a kind of effect imparted to the performance system, and is the reverberation effect described with reference to FIG. In S82, the reverberation type described with reference to FIG. 1 is selected and set, and the process returns to the main flowchart.
[0042]
In S80, it is determined whether or not “tone / time signature” has been selected. If it is selected, the process proceeds to S83, and if it is not selected, the process proceeds to S85 in FIG. In S83, a key / time signature selection dialog box is opened, and the process proceeds to S84. In S84, the key setting and the time signature are input and designated in addition to the beginning of the song, and any bar start position in the song is designated, and the process returns to S58 in FIG.
[0043]
In S85 shown in FIG. 9, it is determined whether or not “player” has been selected. When it is selected, the process proceeds to S87, and when it is not selected, the process proceeds to S86. In S87, all player names, specifically timbres (usually indicated by instrument names) are displayed in the dialog box, and the process proceeds to S88. In S88, when recording or editing, an arbitrary player (tone color) is set for each of an arbitrary number of performance parts, and the process returns to S58 of FIG. When playing song data, the player is automatically selected according to the tone number (program number) specified in the song data file. However, the selected player can be changed here. .
[0044]
In S86, it is determined whether or not “Song” has been selected. When it is selected, the process proceeds to S89, and when it is not selected, the process returns to S58 of FIG. In S89, a song selection dialog box is opened, and the songs divided by music genre are displayed, and the process proceeds to S90. In S90, the program or music genre is selected and set.
FIG. 12 is an explanatory diagram of program selection. Tracks are organized by song genre. In addition to selecting a song, the music genre of the song itself can be selected. In this case, a representative song of the selected music genre is automatically selected.
[0045]
When the edit menu process shown in FIGS. 8 and 9 is completed, the process returns to S58 of FIG. In S58, it is determined whether or not the setting has been changed in the course of the edit menu process. If there has been a change, the process proceeds to S59, and if not, the process returns to the main flowchart. In S59, the screen design of the performance place is changed according to the automatic accompaniment style set in S75 of FIG. 8 and the stage effect set in S81. In S60, the player icon selected in S88 of FIG. Is displayed on the image of the performance place. When the pan setting is reset in the pan adjustment dialog box in S78 of FIG. 8, the arrangement of the player icons is changed according to the pan information.
[0046]
FIG. 13 is an explanatory diagram of the relationship between the automatic accompaniment style and stage effect and the performance place image. The automatic accompaniment styles are classified by music genre, and the figure illustrates dancing, classical music, jazz, and ethnicity. Here, reverberation is illustrated as the stage effect, and examples of reverberation type, no reverberation effect, hall, and stage are shown. And the image of the performance place is made different depending on the combination condition of the automatic accompaniment style and reverberation type. The method of creating an image of the performance place is arbitrary. To give a simple example, depending on the automatic accompaniment style, the color and pattern of the curtain at the performance place are different, and props such as speaker boxes are different. Depending on the type of reverberation, an image of a hall or stage is used, or an image without a curtain is used in some cases. You may make it use the image from which the intensity | strength of a reverberation is identified, and the depth or width of a performance place differs.
[0047]
16 to 18 are explanatory diagrams of specific examples of performance place images where player icons are arranged. However, it is not particularly associated with FIG.
In FIG. 16, a stage 122 is three-dimensionally drawn between opened curtains 121. On the stage 122, a guitar player icon 123, an electronic piano player icon 124, a human voice sound player icon 125, a grand piano player icon 126, and a violin player icon 127 are arranged. A killing scene image is used as the performance place image, and is used when there is no stage effect setting.
[0048]
The human voice player icon 125 is an icon of a performance part in which a human voice is treated as a timbre of a musical instrument. Sometimes the lyrics are pronounced. A character in which three women are arranged is used. If a chorus effect is applied to this performance part, and if no chorus effect is applied, a single character is used. May be. Moreover, you may use the icon which changed the character with the male voice and the female voice.
[0049]
The violin player icon 127 is also lined up with three persons, but this means that an ensemble effect is applied to this performance part. If the ensemble effect is not applied, a single character is used. May be.
As shown in the figure, the performance part number may be displayed in an ellipse that looks like a spotlight on the floor of the player icon.
[0050]
In FIG. 17, a stage 132 is three-dimensionally drawn between open curtains 131 having a different color and pattern from the curtain of FIG. The stage 132 is an image of a concert hall whose floor and wall are wooden.
In FIG. 18, a stage 142 is three-dimensionally drawn between open curtains 141 having different colors and patterns from the curtains of FIGS. The stage 142 is an image of a live stage that emerges with a spotlight.
Thus, the presence of the performance place such as the automatic accompaniment style and stage effect, in other words, the presence of the performance place can be increased by changing the image of the performance place according to the environment setting of the performance system.
[0051]
Returning to the function selection flowchart of FIG. If no edit menu is selected in S51, the process proceeds to S53. In S53, it is determined whether or not a player icon arranged on the image of the performance place is selected. When the player icon is selected, the process proceeds to S54, and when it is not selected, the main flowchart is displayed. Return to. When the mouse pointer is placed on one player icon and left-clicked, it is determined that the player icon is selected.
[0052]
In S54, in order to visually display that the player has been selected, a square frame surrounding the selected player icon is displayed, and the process proceeds to S55. In S55, it is determined whether or not there is an instruction to move the player icon. If there is a movement instruction, the process proceeds to S56, and if there is no movement instruction, the process returns to the main flowchart. It is determined that there is a movement instruction by placing the mouse pointer on the player icon and dragging the mouse while left-clicking the mouse. In S56, the display position of the player icon is changed, and the process proceeds to S57. In S57, the performance part pan control corresponding to the player icon is set according to the position of the player icon, and the process returns to the main flowchart. Details are as described above with reference to FIGS.
[0053]
Therefore, when the song data is selected and the file data of the song to be played is captured, the player icon corresponding to the performance part used for this song is displayed at the position corresponding to the pan information. You can change the pan setting by moving the icon position. Even after a song is selected or in a song edited by the user, the pan setting can be changed by moving the position of the player icon.
[0054]
With reference to FIG. 10, the flowchart of an operation | movement instruction | indication is demonstrated.
In S101, it is determined whether or not there is a reproduction instruction. When there is a reproduction instruction, the process proceeds to S103, and when there is no reproduction instruction, the process proceeds to S102. In this embodiment, when a mouse pointer is placed on the playback button on the control panel of the virtual recording / playback apparatus displayed on the screen and left-clicked, it is determined that there is a playback instruction.
In S103, it is determined whether or not any one of the player icons arranged on the performance place image is selected. If it is selected, the process proceeds to S105, and if it is not selected. The process proceeds to S104. Note that the player icon is selected in S53 of FIG. 7, and when selected, the frame added in S54 is displayed on the screen.
[0055]
In S105, the music data for audition corresponding to the tone color of the selected player icon is selected and the performance is started.
The sample music data includes, for example, information on individual notes and timbres, as well as duration information that indicates the time intervals of musical tone generation events, and is a file format sequence that can be converted into musical sound waveform data in the sound source section. There is data. A specific example is data in a standard MIDI file (SMF) format. This sample music data for trial listening constitutes a piece of music that is organized to some extent. As a specific example, it is phrase data for one or several measures, but the whole piece of music may be used. Note that the music data for trial listening may be a wave format file, and it is only necessary to have a D / A conversion function for converting the waveform data into an analog waveform, but the capacity to be stored is greatly increased. .
[0056]
For the trial music data, an appropriate phrase is selected from the music suitable for viewing the tone of the performance part. By viewing this sample music data for audition, it is checked whether or not the tone of this performance part is suitable for the music to be played or edited. Therefore, the music genre, the style of the music, and the performance part for melody or the performance part for backing (accompaniment) are designated. Then, from the songs belonging to the specified music genre, the one that matches the style of the song is selected in advance, and from that song, a sequence suitable for viewing the tone is used for melody and backing. Remember in advance.
[0057]
FIG. 14 is a first explanatory diagram of a method for setting music data for trial listening. Since the music data for trial listening is selected for each timbre, it has a selection table for each timbre. In the example shown in the figure, pre-stored music data for trial listening is selected according to the combination of the music genre, the speed (tempo) of the music, the melody / backing (accompaniment) type of the performance part, and the like.
[0058]
In the selection described above, for example, in S105, a pop-up menu is displayed, and the user designates the selected performance part.
In this selection condition, if the music genre is in a state where a song or an automatic accompaniment style has already been set, if the user matches the music genre of the song or the automatic accompaniment style, the user can perform music in step S105. There is no need to set the genre.
Similarly for song speed, if the song or auto accompaniment style is already set, the user can set the song style at this step if the tempo of the song or auto accompaniment style is set. You don't have to.
In addition, the melody / backing (accompaniment) type of the performance part can be set in conjunction with the arrangement of the player icon. In this case, the user particularly selects the melody / backing (accompaniment) type in this step. It is not necessary to set.
In the above description, in addition to the timbre, the music data for trial listening is changed according to various conditions such as the music genre. However, it is easy to grasp the characteristics of the timbre just by setting the music data for trial listening only by the timbre. Can do.
[0059]
FIG. 15 is a second explanatory diagram of the method for setting the music data for trial listening. In the figure, parts similar to those in FIG.
The image 11 representing the performance place is three-dimensionally shown as a line drawing 11a representing the stage. As a result, the player icon B14 at the top of the screen is displayed as if it is at the back of the stage. Unlike the example of FIG. 3, in this display screen, the screen area above the boundary indicated by the broken line (1)-(1) in the figure is used as the backing area, and the player icon arranged in this area is displayed. The corresponding performance part is set for backing (accompaniment). On the other hand, the area of the screen below the boundary indicated by the broken line (1)-(1) is a melody area, and the performance parts corresponding to the player icon B13 and player icon C15 arranged in this area are melody. Set for.
[0060]
As a modification, in the figure, an area closer to the center than the boundary lines indicated by the broken lines (1)-(1), (2)-(2), and (3)-(3) is shown. The melody area may be used, and the peripheral area may be a backing area. In this case, only the performance part corresponding to the player icon B13 is set for the melody.
By selecting the music data for trial listening as described above, in selecting a timbre, the image of the timbre becomes easy to understand, and the quality and efficiency of the timbre selection are improved. In particular, the sample music data suitable for the user's usage environment can be provided by replacing the sample music data according to the music genre and the song style.
[0061]
In S105 of FIG. 10, when the trial music data corresponding to the tone of the player icon is selected, the trial music data is taken into the performance data buffer, the performance starts, and the process returns to the main flowchart.
In S104, it is determined whether or not a song is designated. If designated, the process proceeds to S107, and if not designated, the process proceeds to S106. The music setting was performed in S90 in FIG. In S107, the music data of the designated music is fetched into the performance data buffer, the performance starts, and the process returns to the main flowchart.
[0062]
In S106, it is determined whether or not the automatic accompaniment style is selected. If it is selected, the process proceeds to S108, and if it is not selected, the process returns to the main flowchart.
In S108, the accompaniment data of the selected automatic accompaniment style is taken into the performance buffer and the performance starts, and the process returns to the main flowchart.
[0063]
In S102, it is determined whether there are other instructions. When there are other instructions, the process proceeds to S109, and when there is no other instruction, the main flow S109 executes other processes instructed, such as rewinding, fast-forwarding, pausing, and stopping. . In the same way as the playback instruction, the above-described processing instruction is when the mouse pointer is placed on the rewind, fast forward, pause, stop, etc. buttons of the virtual recording / playback device displayed on the screen and left click is performed. It is determined that there is an instruction.
[0064]
In the performance flowchart shown in FIG. 11, in S111, it is determined whether or not there is performance data in the performance data buffer. If there is performance data, the process proceeds to S112. If not, the process returns to the main flowchart. In S112, a musical tone reproduction process is performed based on note-on data or the like sequentially extracted from the performance data buffer, and the process proceeds to S113. In S113, the musical sound level of the performance part during the musical sound generation period is detected, and an image of a player icon that moves according to the detected level is selected. In this way, the movement of the player icon corresponding to the sound generation level is increased or decreased. At the same time, a process of switching the player icon image according to the tempo is performed, and the process proceeds to S114.
[0065]
During the musical sound generation period of each performance part, the player icon is moved by switching an image as shown in FIG. 17 representing the player icon of the performance part in accordance with the tempo. The start of musical tone generation is detected by detecting note-on of each performance part, and the end of musical tone generation is detected when note-on is not detected for a predetermined time.
[0066]
In S114, it is determined whether or not the mode is the first mode. When the mode is the first mode, the process proceeds to S115, and when the mode is the second mode, the process proceeds to S116.
In S115, the image of the conductor icon is always switched according to the tempo and the time signature, including when no musical tone is generated during the performance period, and the process returns to the main flowchart.
[0067]
The number of conductor icon images used for switching is determined according to the time signature. For example, in the case of 2 beats, the number of operation frames is set to 2, and two different images are periodically switched. The number of operation frames is three, and three different images are periodically switched. That is, the image of the conductor icon is switched at intervals that match the tempo, and the same image is repeated according to the time signature.
[0068]
In the second mode in S116, during the musical sound generation period of any one performance part, an image in which the conductor icon conductor direction changes in the direction of the player icon of the performance part during the musical sound generation period is displayed. Repeat the set of images to switch the images according to the tempo. For this purpose, multiple images showing the conduct of the conductor and multiple images with different conductor orientations are prepared, and the angle of the player icon position during the musical sound generation period is calculated from the conductor icon position. To select a set of images.
[0069]
As described above, since the pan setting state is known at the position of the player icon and the performance state is known from the movement of the player icon and the conductor icon, the state of the performance system can be visually recognized at a glance.
[0070]
Note that a spectator seat may be provided on the image representing the performance place to display the audience. A plurality of pieces of image data representing how the audience is making noise are prepared and stored in the performance place image data memory 4. When the frequency of occurrence of performance data such as key-on events is high, it is estimated that the performance is exciting. Thus, when a series of images in a state where the audience is noisy is sequentially switched to make the audience appear to be noisy, the sense of presence is further increased. In addition, when outputting sound effects such as applause sounds, it is possible to make the audience seem to make noise in the same manner.
[0071]
In the above description, the automatic accompaniment style setting, stage effect setting, key and time signature setting, and player (tone color) setting are set using the edit menu process. However, each icon may be displayed on the screen of the application window, and this icon may be selected with a mouse to display a pop-up menu for setting.
[0072]
In the above description, the performance of the music data for trial listening and the performance of the automatic accompaniment style are performed by the mouse operation of the play button in the same manner as normal music reproduction. However, when the automatic accompaniment style is set in the automatic accompaniment style dialog box in the edit menu, the automatic accompaniment style performance may be performed by clicking a viewing check button with a mouse. Similarly, when setting a timbre in the timbre change dialog box in the edit menu, the timbre may be viewed by clicking a viewing check button with a mouse.
[0073]
【The invention's effect】
As apparent from the above description, the present invention has an effect that the performance state and performance period of each performance part can be visually displayed by the change of the icon representing the tone color of the performance part. As a result, the user can visually grasp the performance part in which the musical sound is generated and the performance period while enjoying the flow of the music.
[Brief description of the drawings]
FIG. 1 is a functional block configuration diagram of a performance state visual display device for explaining an embodiment of a performance state visual display method of the present invention.
FIG. 2 is an explanatory diagram of a display screen for explaining an embodiment of the visual display method of the performance state of the present invention.
FIG. 3 is an explanatory diagram showing a specific example of a player icon.
FIG. 4 is an explanatory diagram showing a specific example of a conductor icon.
FIG. 5 is a hardware configuration diagram for explaining an embodiment of a visual display method of a performance state according to the present invention.
FIG. 6 is a main flowchart for explaining an embodiment of the visual display method of the performance state of the present invention.
FIG. 7 is a flowchart of a function selection step in S42 shown in FIG.
FIG. 8 is a first flowchart of an edit menu processing step of S52 shown in FIG.
FIG. 9 is a second flowchart of the edit menu processing step of S52 shown in FIG.
FIG. 10 is a flowchart of an operation instruction step in S43 shown in FIG.
FIG. 11 is a flowchart of a performance step of S44 shown in FIG.
FIG. 12 is an explanatory diagram of program selection.
FIG. 13 is an explanatory diagram of a relationship between an automatic accompaniment style and stage effect and an image of a performance place.
FIG. 14 is a first explanatory diagram of a method for setting music data for trial listening.
FIG. 15 is a second explanatory diagram of a method for setting trial music data.
FIG. 16 is an explanatory diagram of a first specific example of an image of a performance place where a player icon is arranged.
FIG. 17 is an explanatory diagram of a second specific example of an image of a performance place where a player icon is arranged.
FIG. 18 is an explanatory diagram of a third specific example of an image of a performance place where a player icon is arranged.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Performance part memory, 2 Conductor icon image data memory, 3 Player icon image data memory, 4 Performance place image data memory, 5 Image data synthetic | combination part, 6 Icon position setting part, 7 Pan setting part, 11 Image expressing a performance place , 13 Player icon A, 14 Player icon B, 15 Player icon C, 16 Mouse pointer, 17 Conductor icon

Claims (4)

1または複数の演奏パートに割り当てられた音色の楽音を再生して演奏する際に演奏状態を視覚的に表示する演奏状態の視覚的表示方法であって、
前記1または複数の演奏パートの各々の音色を識別するステップと、
演奏の拍子を設定するステップと、
識別された前記各演奏パートの音色に応じて前記各演奏パートの音色を表現するアイコンを出力するとともに、指揮者を表現するアイコンを出力し、前記各演奏パートの音色を表現するアイコン、および、前記指揮者を表現するアイコンが配置された画像を作成するステップと、
演奏期間中、前記指揮者を表現するアイコンの画像を切り替えて前記指揮者を表現するアイコンに動きを与えるステップと、
前記指揮者を表現するアイコンの画像の枚数を、設定された演奏の拍子に応じて決定する画像枚数決定ステップ、
を有することを特徴とする演奏状態の視覚的表示方法。
A visual display method of a performance state for visually displaying a performance state when playing a musical tone of a tone assigned to one or a plurality of performance parts,
Identifying the tone of each of the one or more performance parts,
A step to set the time signature of the performance,
An icon representing the tone color of each performance part according to the identified tone color of each performance part, an icon representing the conductor, and an icon representing the tone color of each performance part, and Creating an image in which an icon representing the conductor is arranged;
During the performance period, switching the icon image representing the conductor to give movement to the icon representing the conductor;
Determining the number of images of the icon representing the conductor according to the set time signature of the performance;
A visual display method of a performance state characterized by comprising:
1または複数の演奏パートに割り当てられた音色の楽音を再生して演奏する際に演奏状態を視覚的に表示する演奏状態の視覚的表示方法であって、
前記1または複数の演奏パートの各々の音色を識別するステップと、
演奏の拍子を設定するステップと、
識別された前記各演奏パートの音色に応じて前記各演奏パートの音色を表現するアイコンを出力するとともに、指揮者を表現するアイコンを出力し、前記各演奏パートの音色を表現するアイコン、および、前記指揮者を表現するアイコンが配置された画像を作成するステップと、
演奏期間中、前記各演奏パートの音色を表現するアイコンのうち、楽音発生中の演奏パートを表現するアイコンの方向を向いた指揮者を表現するアイコンの画像のセットに切り替えるとともに、切り替えたセットを構成する、指揮者を表現するアイコンの画像を切り替えて、前記指揮者を表現するアイコンに動きを与えるステップと、
前記指揮者を表現するアイコンの画像の枚数を、設定された演奏の拍子に応じて決定する画像枚数決定ステップ、
を有することを特徴とする演奏状態の視覚的表示方法。
A visual display method of a performance state for visually displaying a performance state when playing a musical tone of a tone assigned to one or a plurality of performance parts,
Identifying the tone of each of the one or more performance parts,
A step to set the time signature of the performance,
An icon representing the tone color of each performance part according to the identified tone color of each performance part, an icon representing the conductor, and an icon representing the tone color of each performance part, and Creating an image in which an icon representing the conductor is arranged;
During the performing period, among the icons representing the tone of the previous SL each playing part, together with the switch to set the icon image representing the conductor facing the direction of the icon representing the performance part in tone generation, switching sets Switching the image of the icon representing the conductor to give movement to the icon representing the conductor;
Determining the number of images of the icon representing the conductor according to the set time signature of the performance;
A visual display method of a performance state characterized by comprising:
1または複数の演奏パートに割り当てられた音色の楽音を再生して演奏する際に演奏状態を視覚的に表示する演奏状態の視覚的表示プログラムが記憶された記録媒体であって、
前記1または複数の演奏パートの各々の音色を識別するステップと、
演奏の拍子を設定するステップと、
識別された前記各演奏パートの音色に応じて前記各演奏パートの音色を表現するアイコンを出力するとともに、指揮者を表現するアイコンを出力し、前記各演奏パートの音色を表現するアイコン、および、前記指揮者を表現するアイコンが配置された画像を作成するステップと、
演奏期間中、前記指揮者を表現するアイコンの画像を切り替えて前記指揮者を表現するアイコンに動きを与えるステップと、
前記指揮者を表現するアイコンの画像の枚数を、設定された演奏の拍子に応じて決定する画像枚数決定ステップ、
をコンピュータに実行させるための、演奏状態の視覚的表示プログラムが記憶された記録媒体。
A recording medium storing a performance state visual display program for visually displaying a performance state when playing a musical tone assigned to one or a plurality of performance parts.
Identifying the tone of each of the one or more performance parts,
A step to set the time signature of the performance,
An icon representing the tone color of each performance part according to the identified tone color of each performance part, an icon representing the conductor, and an icon representing the tone color of each performance part, and Creating an image in which an icon representing the conductor is arranged;
During the performance period, switching the icon image representing the conductor to give movement to the icon representing the conductor;
Determining the number of images of the icon representing the conductor according to the set time signature of the performance;
A recording medium in which a visual display program of a performance state for causing a computer to execute is stored.
1または複数の演奏パートに割り当てられた音色の楽音を再生して演奏する際に演奏状態を視覚的に表示する演奏状態の視覚的表示プログラムが記憶された記録媒体であって、
前記1または複数の演奏パートの各々の音色を識別するステップと、
演奏の拍子を設定するステップと、
識別された前記各演奏パートの音色に応じて前記各演奏パートの音色を表現するアイコンを出力するとともに、指揮者を表現するアイコンを出力し、前記各演奏パートの音色を表現するアイコン、および、前記指揮者を表現するアイコンが配置された画像を作成するステップと、
演奏期間中、前記各演奏パートの音色を表現するアイコンのうち、楽音発生中の演奏パートを表現するアイコンの方向を向いた指揮者を表現するアイコンの画 像のセットに切り替えるとともに、切り替えたセットを構成する、指揮者を表現するアイコンの画像を切り替えて、前記指揮者を表現するアイコンに動きを与えるステップと、
前記指揮者を表現するアイコンの画像の枚数を、設定された演奏の拍子に応じて決定する画像枚数決定ステップ、
をコンピュータに実行させるための、演奏状態の視覚的表示プログラムが記憶された記録媒体。
A recording medium storing a performance state visual display program for visually displaying a performance state when playing a musical tone assigned to one or a plurality of performance parts.
Identifying the tone of each of the one or more performance parts,
A step to set the time signature of the performance,
An icon representing the tone color of each performance part according to the identified tone color of each performance part, an icon representing the conductor, and an icon representing the tone color of each performance part, and Creating an image in which an icon representing the conductor is arranged;
During the performing period, among the icons representing the tone of the previous SL each playing part, together with the switch to set the images of icons to represent the conductor facing the direction of the icon representing the performance part in tone generation, switching Switching the image of the icon representing the conductor constituting the set to give movement to the icon representing the conductor;
Determining the number of images of the icon representing the conductor according to the set time signature of the performance;
A recording medium in which a visual display program of a performance state for causing a computer to execute is stored.
JP15927198A 1998-06-08 1998-06-08 Visual display method of performance state and recording medium recorded with visual display program of performance state Expired - Fee Related JP3770293B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15927198A JP3770293B2 (en) 1998-06-08 1998-06-08 Visual display method of performance state and recording medium recorded with visual display program of performance state
US09/326,987 US6140565A (en) 1998-06-08 1999-06-07 Method of visualizing music system by combination of scenery picture and player icons

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15927198A JP3770293B2 (en) 1998-06-08 1998-06-08 Visual display method of performance state and recording medium recorded with visual display program of performance state

Publications (2)

Publication Number Publication Date
JPH11352962A JPH11352962A (en) 1999-12-24
JP3770293B2 true JP3770293B2 (en) 2006-04-26

Family

ID=15690139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15927198A Expired - Fee Related JP3770293B2 (en) 1998-06-08 1998-06-08 Visual display method of performance state and recording medium recorded with visual display program of performance state

Country Status (1)

Country Link
JP (1) JP3770293B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154889A (en) * 2016-12-02 2018-06-12 上海博泰悦臻电子设备制造有限公司 A kind of music control method, system, player and a kind of regulator control system

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1837858B1 (en) 2000-01-11 2013-07-10 Yamaha Corporation Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
JP3654143B2 (en) * 2000-06-08 2005-06-02 ヤマハ株式会社 Time-series data read control device, performance control device, video reproduction control device, time-series data read control method, performance control method, and video reproduction control method
JP3636045B2 (en) * 2000-07-19 2005-04-06 ヤマハ株式会社 Music control method and automatic performance apparatus in automatic performance apparatus, and storage medium storing music control program
JP3690279B2 (en) * 2001-01-12 2005-08-31 ヤマハ株式会社 Performance tempo control device and storage medium
ATE527833T1 (en) 2006-05-04 2011-10-15 Lg Electronics Inc IMPROVE STEREO AUDIO SIGNALS WITH REMIXING
US20100040135A1 (en) * 2006-09-29 2010-02-18 Lg Electronics Inc. Apparatus for processing mix signal and method thereof
US9418667B2 (en) 2006-10-12 2016-08-16 Lg Electronics Inc. Apparatus for processing a mix signal and method thereof
JP5256682B2 (en) * 2007-10-15 2013-08-07 ヤマハ株式会社 Information processing apparatus, information processing method, and program
JP5748078B2 (en) * 2013-07-26 2015-07-15 ブラザー工業株式会社 Music performance apparatus and music performance program
JP2017134713A (en) * 2016-01-29 2017-08-03 セイコーエプソン株式会社 Electronic apparatus, control program of electronic apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2943201B2 (en) * 1990-01-21 1999-08-30 ソニー株式会社 Image creation apparatus and method
JPH07325568A (en) * 1994-06-01 1995-12-12 Casio Comput Co Ltd Electronic instrument with output function
JP3579927B2 (en) * 1994-08-31 2004-10-20 ヤマハ株式会社 Automatic performance device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154889A (en) * 2016-12-02 2018-06-12 上海博泰悦臻电子设备制造有限公司 A kind of music control method, system, player and a kind of regulator control system

Also Published As

Publication number Publication date
JPH11352962A (en) 1999-12-24

Similar Documents

Publication Publication Date Title
US6140565A (en) Method of visualizing music system by combination of scenery picture and player icons
US7563975B2 (en) Music production system
US8415549B2 (en) Time compression/expansion of selected audio segments in an audio file
US6369311B1 (en) Apparatus and method for generating harmony tones based on given voice signal and performance data
JP2002515987A (en) Real-time music creation system
US6646644B1 (en) Tone and picture generator device
US8887051B2 (en) Positioning a virtual sound capturing device in a three dimensional interface
JP3770293B2 (en) Visual display method of performance state and recording medium recorded with visual display program of performance state
JP5887293B2 (en) Karaoke device and program
JP3603599B2 (en) Method for visual display of performance system and computer-readable recording medium on which visual display program for performance system is recorded
JPH11352963A (en) Information display method and recording medium for recording information display program
JP3451936B2 (en) Method for setting music data for trial listening and recording medium storing music data setting program for trial listening
JP3259367B2 (en) Karaoke equipment
JP5510207B2 (en) Music editing apparatus and program
JP3487176B2 (en) Performance information creation display device and recording medium therefor
JP3642043B2 (en) Music generator
JP3823951B2 (en) Performance information creation and display device and recording medium therefor
JP6127549B2 (en) Music data editing method, program for realizing the music data editing method, and music data editing apparatus
Exarchos ‘Past’masters, present beats: exponential sound staging as sample-based (re) mastering in contemporary hip hop practice
JP7404737B2 (en) Automatic performance device, electronic musical instrument, method and program
JP3830615B2 (en) Automatic performance device
JP3988812B2 (en) Automatic performance controller
JP3758041B2 (en) Musical sound control data generator
JP3864784B2 (en) Electronic musical instruments and programs for electronic musical instruments
JP2001013964A (en) Playing device and recording medium therefor

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060131

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130217

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees