JP3548825B2 - Performance operation display device and recording medium - Google Patents

Performance operation display device and recording medium Download PDF

Info

Publication number
JP3548825B2
JP3548825B2 JP2001217443A JP2001217443A JP3548825B2 JP 3548825 B2 JP3548825 B2 JP 3548825B2 JP 2001217443 A JP2001217443 A JP 2001217443A JP 2001217443 A JP2001217443 A JP 2001217443A JP 3548825 B2 JP3548825 B2 JP 3548825B2
Authority
JP
Japan
Prior art keywords
data
finger
variable
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001217443A
Other languages
Japanese (ja)
Other versions
JP2002091430A (en
Inventor
直幸 小股
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2001217443A priority Critical patent/JP3548825B2/en
Publication of JP2002091430A publication Critical patent/JP2002091430A/en
Application granted granted Critical
Publication of JP3548825B2 publication Critical patent/JP3548825B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、鍵盤などの演奏操作の対象となる演奏操作子群に対し、演奏の進行に応じて操作していく際の動作を表示するための技術に関する。
【0002】
【従来の技術および発明が解決しようとする課題】
現在では、多くの鍵盤楽器に、演奏の進行に応じて押鍵(操作)すべき鍵を順次、ユーザ(演奏者)に通知していくナビゲーション機能が搭載されている。しかし、ナビゲーション機能を利用するユーザの多くは技術的に未熟であり、そのナビゲーション機能によって次に押鍵すべき鍵を知ることができても、その鍵をどの指で押鍵すべきかが判らないのが実状である。このことから、鍵の押鍵に使うべき指を表示する装置(演奏動作表示装置)を搭載した鍵盤楽器も製品化されている。その演奏動作表示装置を利用することにより、指の運び方を意識した演奏を行えるため、ユーザにとってはより効率的な練習(学習)を行うことができる。
【0003】
演奏動作表示装置の多くは、次の押鍵(操作)に使うべき指を単に表示するだけである。しかし、押鍵(操作)すべき鍵への指の運び方は、その鍵に単に指を運ぶだけではない。別の指の下をくぐらせて指を運んだり、別の指の上をまたいで指を運んだりすることもある。これは、単に指だけを表示した場合、その指をどのように運んで押鍵(操作)するべきなのかをユーザが直ちに理解できるとは限らないことを意味する。このことから、例えば特開平10−39739号公報に開示されているように、使う指だけでなく、その指の運び方をより理解しやすい形で表示する演奏動作表示装置が創案されている。
【0004】
その特開平10−39739号公報に開示された従来の演奏動作表示装置では、押鍵時の手指(手首から先の部分)を表示することにより、押鍵に使うべき指をどのような形で使うべきかをユーザに知らせるようになっている。しかし、次に押鍵すべき鍵が現在、押鍵している鍵と離れているような場合、普通、手や指を大きく動かさなければならない。これは、押鍵時の手指を表示しても、その表示された手指の形にどのようにして移行させるのかをユーザが直ちに理解できるとは限らないことを意味する。このため、従来の演奏動作表示装置には、全体的な手指の動作が判りにくいという問題点があった。
【0005】
なお、上記従来の演奏動作表示装置では、コンピュータ・グラフィクス(以降、CGと略記する)技術を用いて、押鍵に使う指を動かしている。その指の動きにより、押鍵に使うべき指をユーザは知ることができる。しかし、その指の動きは、押鍵時の手指の形を作った後の動きである。このため、その指の動きによって、押鍵時の手指の形にどのようにして移行させるかをユーザに知らせることはできない。
また、こうした押鍵時の手指の形は、より現実に即した、無理のないものにしなければならない。特に、実際の演奏においては、各指の曲げ角があまりに大きくならないように、手の曲げ角で調整している。
【0006】
本発明の課題は、演奏中における手指の動作をユーザが容易に理解できる形で表示するための技術を提供することにある。
【0007】
【課題を解決するための手段】
本発明の演奏操作表示装置は、演奏操作子群上で発生させるべきイベントの内容を表わすイベントデータ、該イベントの発生タイミングを示す時間データ、及び該イベントの発生に使用すべき指を指定する指データから構成される楽音・運指データを取得する楽音・運指データ取得手段と、楽音・運指データ取得手段にて取得された楽音・運指データに基づいて、少なくとも演奏操作子群上の手指の位置及び回転角を表わす動作制御データを生成する動作制御データ生成手段と、動作制御データ生成手段からの動作制御データに基づいて、演奏操作子群を操作していく手指の動作を動画表示する動画表示手段と、を有し、動作制御データ生成手段は、各指の回転角のちの最大値が最も小さくなるように手首の回転角を設定することを特徴とする。
【0008】
本発明の記録媒体は、演奏操作の対象となる演奏操作子群上で発生させるべきイベントの内容を表わすイベントデータ、該イベントの発生タイミングを示す時間データ、及び該イベントの発生に使用すべき指を指定する指データから構成される楽音・運指データを取得する取得手順と、取得手順にて取得された楽音・運指データに基づいて、少なくとも演奏操作子群上の手指の位置及び回転角を表わす動作制御データを生成する生成手順と、生成手順からの動作制御データに基づいて、演奏操作子群を操作していく手指の動作を動画表示させる表示手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であり、生成手順は、各指の回転角のちの最大値が最も小さくなるように手首の回転角を設定することを特徴とする。
【0009】
本発明では、楽音・運指データを基に、演奏操作子群、例えば鍵盤における押鍵または離鍵操作時の手指の位置と回転角(曲げ角)を表わす動作制御データを生成して、この動作制御データに基づいて手指による演奏動作を動画表示する。そのようにして、演奏動作の一連の流れを動画で表現することにより、ユーザに演奏中における手指の動作を容易に理解させることが可能になる。
【0010】
さらに、本発明においては、演奏する手の曲げ角を、各指の曲げ角が最小となるように調整しているため、きわめて実際の演奏に近い無理のない手指の動作表示が行われる。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。
図1は、本実施の形態による演奏動作表示装置の回路構成図である。この演奏動作表示装置は、後述する楽音・運指データを外部から取得し、取得した楽音・運指データに基づいて演奏中の手指の動作を動画で表示する装置として実現されている。
【0012】
上記演奏動作表示装置は、図1に示すように、装置全体の制御を行うCPU101と、そのCPU101が実行するプグラムや各種制御データ(画像表示用の各種データを含む)などを格納したROM102と、そのCPU101がワーク用に用いるRAM103と、上記楽音・運指データを含む各種データを取得するためのデータ入力部104と、CPU101から送られたデータを画面上に表示する表示部105と、ユーザが操作の対象とする操作部106と、CPU101の指示に従って楽音の波形データを生成する音源107と、その音源107が出力した波形データをサウンドに変換して放音するサウンドシステム108と、CPU101を各部102〜107と接続するバス109と、を備えて構成されている。
【0013】
上記データ入力部104は、例えばフロッピー(登録商標)ディスクドライブ(FDD)である。表示部105は、例えばCRT、或いは液晶表示装置などの表示装置である。操作部106は、例えば各種スイッチやキー等の複数の操作子、及びそれら操作子への操作を検出する検出回路から構成された入力装置である。サウンドシステム108は、例えばD/Aコンバータ、アンプ、及びスピーカからなるシステムである。なお、データ入力部104は、外部機器が出力した信号を少なくとも受信できるインターフェース、或いは所定のネットワークとの通信を行う通信制御装置であっても良い。
【0014】
上記楽音・運指データは、図2に示すように、楽音データに運指データを付加する形で構成されている。楽音データは、通常は演奏の再生に使用される演奏データ(シーケンスデータ)であり、楽音の音階(音高)データ、その楽音の発音が開始(ノートオンイベント)か消音(ノートオフイベント)かを含むイベントの種別を表す種別データ、及び楽音の音高データと種別データによって特定されるイベントが発生したタイミングを示す時間データを1単位のデータ(以降、便宜的に単位楽音データと呼ぶ)として、その単位楽音データをイベントの発生順に並べた形で構成されている。運指データは、単位楽音データ毎に付加された、その単位楽音データが表すイベントを発生させるために用いるべき指を示す指番号データからなるデータである。指番号として、親指には0、人差し指には1、中指には2、薬指には3、小指には4がそれぞれ割り当てられている。
【0015】
上記運指データには、通常、指番号データの他に、少なくとも、動かす指が右手か左手かを示す手データが存在し、単位楽音データ毎に、それらのデータが付加される。しかし、ここでは、混乱を避けて理解を容易とするために、右手のみに着目して手データ等は考慮しないことにする。上記時間データは、イベント間の時間間隔(デルタタイム)でそのイベントの発生タイミングを表すデータであり、種別データ、及び音高データは、例えばMIDIデータを構成するデータである。
【0016】
なお、上記楽音データ(演奏データ)では、楽音の発音開始(オン)、その楽音の消音(オフ)をそれぞれ別のイベントとして扱い、楽音の発音期間はそれらのイベントによって指定されるようになっているが、楽音データはそれらのイベントを一つにまとめたものであっても良い。即ち単位楽音データは、例えば音高データ、その音高データで指定される楽音の発音開始タイミングを指定する時間データ、及びその楽音を発音させている時間長(ゲートタイム)を指定する時間長データから構成されるものであっても良い。このことから明らかなように、楽音データの形式は特に限定されるものではない。
【0017】
以上の構成において、その動作を説明する。
CPU101は、電源がオンされると、ROM103に格納されているプログラムを読み出して実行することにより、装置全体の制御を開始し、表示部105には初期画面を表示させる。以降は、ユーザの操作部106への操作に応じて制御を行う。
【0018】
CPU101は、その初期画面を表示させるための画像データを、例えばRAM103を作業用に使用して、ROM102から読み出した複数の画像データを用いて生成する。そのようにして生成された初期画面の画像データを送られた表示部105は、それを特には図示しないメモリ(例えばデュアルポートRAM)に格納する。それ以降における表示内容の全体的、或いは部分的な変更は、例えばCPU101が、そのメモリに格納された画像データ中でデータを書き換えるべき部分の画像データをROM102から読み出すか、或いはそれを用いて生成し、そのようにして得た画像データを、そのメモリ中の画像データを書き換えるべき部分に上書きすることで行われる。そのようにして、CPU101は、表示部105に、表示すべき画面やメッセージ、後述する演奏動作を表現する手指などを必要に応じて表示させる。
【0019】
ユーザが操作部106を操作してフロッピー(登録商標)ディスク(FD)に格納されたファイルのデータの読み出しを指示した場合、その旨を示すデータが操作部106からバス109を介してCPU101に送られる。そのデータを受け取ったCPU101は、データ入力部(FDD)104に対しそれの読み出しを指示するコマンドを送り、その後にデータ入力部104から送られるそのファイルのデータをRAM103に格納する。そのようにして、楽音・運指データを含め、ユーザが指定したデータをファイル単位でFDから取得する。
【0020】
CPU101にデータを読み出させるファイルの指定は、特に詳細な説明は省略するが、操作部106を操作してファイル名を入力するか、或いはFDに格納されたファイルの一覧を表示部105に表示させて、そのなかからファイルを選択することで行うようになっている。その一覧に表示させるファイル名は、CPU101が、データ入力部104にFDに格納されたファイル名を読み出させて受け取ったものである。
【0021】
特開平10−39739号公報に開示された従来の演奏動作表示装置のように、基本的には押鍵時における手指の形だけを表示させるのでは、その形に移行するまでの手指の動かし方をユーザは理解しにくい。このことから、本実施の形態では、イベント単位で、それまでの手指の状態から、そのイベントを生じさせる手指の状態に移行するまでの動作を動画で表示するようにしている。即ち手をどこからどこまで移動させるか、どの指をどのように変化せるか、といったことを動画で表示するようにしている。そのようにして、演奏中における一連の手指の動作を細かく表示した場合、どのように手指を動作させれば良いのかを考えさせることなくユーザに理解させることができる。
【0022】
演奏中における手指の動作を動画で表示させるためには、そのためのデータ(以降、動作制御データと呼ぶ)を生成しなければならない。そのデータは、楽音・運指データから生成するが、対象となる楽音・運指データによってはその生成に重い負荷がかかる。これは、動作制御データを生成しつつ、楽音・運指データ(楽音データ)を再生させようとすると、楽音の発音や画像の表示に不具合を生じさせる可能性があることを意味する。即ち、楽音を発音させるべきタイミングで発音させられなかったり、手指の動作をスムーズに表示させられないといったことが生じる可能性がある。このことから、本実施の形態では、動作制御データの生成は楽音・運指データの再生とは別に行うようにしている。
【0023】
動作制御データの生成は、例えばRAM103にファイル形式で格納された楽音・運指データを対象に行うようにしている。ユーザが操作部106を操作して、RAM103に格納された楽音・運指データのなかから一つを指定(選択)し、動作制御データの生成を指示した場合、CPU101は、以下のようにしてユーザが指定した楽音・運指データの動作制御データを生成する。なお、楽音・運指データの指定方法は、基本的にFDから読み出すファイルを指定する場合と同じである。
【0024】
図3は、表示用の手指の構造を説明する図である。
身体の各部は、関節を曲げて動かすことができる。これは、手指においても同じである。このことから、本実施の形態では、図3に示すように、手首から先を、手と5本の指に分けている。各指は、3関節の曲げ動作が行えることから、3つの部分に更に分けている。以降、表示する手指については、実際の手指のそれと区別するために「パート」を最後に付けて表記することにする。
【0025】
図3中の301〜306は、各部分を動かすうえでの基点である。具体的には、基点301は手パートの基点であり、手首(の関節)に対応する。基点302は親指パートの基点であり、その第1関節に対応する。基点303〜306は、それぞれ、人差し指パート、中指パート、薬指パート、及び小指パートの基点であり、対応している指の第1関節に対応する。
【0026】
手パートの状態は、基点301のx、y、z軸上における各位置hx、hy、hzの他に、z軸の周りの回転角hrzで管理している。それらを示す値は、それぞれ、用意した変数に代入させることで保持させている。それにより、3次元で手の動きを表現するようになっている。z軸の周りの回転角hrzは、手パートの基点301から中指パートの基点304までの長さLaをx軸上に投影させた際に、基点304が投影されたx軸上の位置から基点301が投影されたx軸上の位置を引いて得られる長さがその長さLaと一致する状態が基準(0度)である。例えば図3に向かって左回りが正、右回りが負である。そのようにして、図3中の鍵盤300との相対的な位置関係を任意に変更できるようにしている。なお、x軸、或いは/及び、y軸の周りの回転角を更に考慮しても良い。上記hx、hy、hz、及びhrzを保持させる変数については、以降、そのシンボルを最後に付加して表記する(変数hx、等)ことにする。
【0027】
各指には、上記したように3つの関節がある。このことから、第1関節だけでなく、第2及び第3関節も基点とし、第1関節と第2関節間、第2関節と第3関節間、及び第3関節から先を、それぞれ一つのパートとしている。ここでは、それらのパートをそれぞれ、指第1パート、指第2パート、及び指第3パートと呼ぶことにする。それらの長さL1、L2、及びL3は、指毎にその長さが異なることから、各指パート毎に定めている。
【0028】
指の第1関節は2方向(曲げたり伸ばしたりする方向と、開いたり閉じたりする方向)に動き、他の第2、及び第3関節は一方向にのみ動く。このことから、指第1パートの状態は、第1関節に対応する基点上におけるz軸の周りの回転角frzと、手の甲から手のひらに向けてそれを折り曲げた角度frx1とで管理している。指第2パート、及び指第3パートは、それぞれ、第2関節、及び第3関節に対応する基点上において、それを手の甲から手のひらに向けて折り曲げた角度frx2、及びfrx3で管理している。そのようにして、指の間を広げたり狭めたり、指を伸ばしたり曲げたりといった動作を模倣できるようにしている。なお、指第1〜第3パートの状態を管理するための角度frx1〜frx3は、例えば基点を介してつながっている2つのパートが直線となる状態を基準(0度)として表したものである。このため、例えば手の甲と指の第2関節までが直線状となった状態では、角度frx1は0となる。以降は、角度frx1〜3の何れかを変化させる動きを指(指パート)の縦の動き、回転角frzを変化させる動きを指(指パート)の横の動きとも呼ぶことにする。
【0029】
上記frz、及びfrx1〜3の値は、それぞれ、用意した変数に代入させることで保持させている。それらの値は各指パート毎に保持しなければならないことから、その変数は配列変数とし、指番号で指定される要素に、対応する値を代入させている。以降、frz、及びfrx1〜3を保持させる配列変数も、そのシンボルを最後に付加して表記する(配列変数frz、等)ことにする。
【0030】
各指パートの基点302〜306は、手パートの基点(手首)301の位置の変化に伴って移動する。上記したように、各指パートは人間の指を模倣した動きを表現させることができる。このため、鍵盤300上の任意の鍵を押鍵するために手を移動させる動作や、鍵を押鍵、或いは離鍵する指の動作、それらを組み合わせた動作を動画で表現することができる。その表現は、鍵盤300を操作していく手指の各パートの動作を表示することで行うことから、鍵盤300上の白鍵や黒鍵のサイズやその並び、各鍵間の位置関係、などのデータは予め変数などの形で用意している。
【0031】
図4は、手の移動範囲を説明する図である。手パートは基点301によってその表示状態を管理している。図4は、その基点301の位置として取りうる範囲を示したものである。
【0032】
鍵盤と手首との間のy軸上における距離は、押鍵するのが白鍵か黒鍵かで異なる。当然のことながら、黒鍵を押鍵する場合は白鍵を押鍵する場合と比較して距離は小さくなる。また、同じ白鍵、或いは黒鍵を押鍵するとしても、複数の鍵を同時に押鍵するのか1鍵だけを押鍵するのかによってその距離は変化する。複数の鍵を同時に押鍵しているときには、各指の間を広げた形となっているので、1鍵だけを押鍵しているときと比較して鍵盤に近くなる。このようなことから、本実施の形態では、鍵盤300から離した場合の基点301のy軸上の位置としてYPOS1、その鍵盤300に近づけた場合の位置としてYPOS2を定めている。
【0033】
一方、鍵盤と手首(手のひら)の間のz軸上における距離も、複数の鍵を同時に押鍵するのか1鍵だけを押鍵するのかによって変化する。複数の鍵を同時に押鍵しているときには、手全体を鍵盤に向けて移動させている形となっているので、その距離は小さくなる。このようなことから、本実施の形態では、鍵盤300から離した場合の基点301のz軸上の位置としてZPOS1、その鍵盤300に近づけた場合の位置としてZPOS2を定めている。そのような位置を定めて、白鍵、或いは黒鍵を押鍵するのか、複数の鍵を押鍵するのか1鍵を押鍵するのか、といった動作の違いを表現するようにしている。
【0034】
図3に示すように複数のパートに分割した手指の動画表示は、各パートの状態を演奏の進行に応じて順次、変更させていくことで行っている。その動画表示を実現させるための動画制御データは、本実施の形態では2段階で生成している。ここでは、便宜的に、始めの段階で生成したデータを動画制御データA、次の段階で生成したデータを動画制御データBと呼ぶことにする。
【0035】
上記動画制御データAは、CPU101が、図2に示すような楽音・運指データの他に、各指パートの長さ(指第1〜第3パートの長さ)やその手パートにおける配置、鍵盤300上の鍵の配置や各種鍵の形状といった予め用意したデータ(パラメータ)を参照しつつ生成する。CPU101は、楽音・運指データ中の単位楽音データ、及びそれに付加された指番号データ、更にはそれらによって指定される演奏の流れなどを解析して、イベント単位でそれまでの手指の状態から次のイベントを生じさせるために移行させる手指の状態を求め、その後者の手指の状態を指定するデータ、即ちどのパートの状態をどのように変化させるべきかを指定するデータをRAM103に保存する。手や指を動かす速さは、イベント間の時間間隔の長さに依存する。その時間間隔が短いほど、手や指を速く動かさなければならない。このことから、イベント間の時間間隔を基に、パートの状態の変化を開始するタイミングやその変化を継続している時間を決定し、それらを示すデータも合わせてRAM103に保存する。そのようにして生成・保存したデータが動画制御データAである。なお、上記解析は、例えば楽音データに付加された運指データの生成に用いたアルゴリズムにより行われる。それにより、求めた手指の状態が不自然な形とならないようになっている。
【0036】
上記動画制御データAの生成によって、離鍵イベントでは離鍵させる指パートの離鍵後の状態が決定し、押鍵イベントでは指パートの押鍵時の状態の他に、必要に応じて、その状態への移行に合わせて他のパートの状態を決定する。他のパートの状態の決定とは、例えば押鍵すべき鍵の位置やその種類(白鍵か黒鍵か)に応じた手パートの移動や、押鍵中の鍵があれば、その鍵を押鍵させている指パートはその鍵から離すことができないことから、その手パートの移動に伴って指パート間を広げたり狭くする、といったことである。CPU101は、その決定した状態に移行するまでを幾つかの段階に分け、各段階毎にその状態を示すデータを生成し、RAM103に動作制御データAとは別に保存する。そのようにして生成・保存したデータが動作補助データBである。なお、本実施の形態では、後述するように、イベント単位での動作制御データAの生成に連動して、動作制御データBの生成も行うようにしている。
【0037】
図5は、上述したようにして生成・保存される動作制御データの構成を説明する図である。同図(a)は動作制御データA、同図(b)は動作制御データBを示す。
【0038】
動作制御データAは、図5(a)に示すように、値を変更すべき変数、或いは配列変数の要素を指定するデータ(以降、変数指定データと呼ぶ)、変数、或いは配列変数の要素の変更後の値である値データ、変数、或いは配列変数の要素に対応するパートを動作させている時間を示す動作時間データ、及びそのパートの動作終了、或いは動作開始のタイミングを指定する時間データを、演奏上の1イベントに対応するデータ(それらをまとめて単位動作データAと呼ぶことにする)として構成されている。値データ、及び動作時間データは変数指定データ毎に存在する。それにより、変数指定データが指定する変数、或いは配列変数の要素の値で指定されるパートの状態は、独立に変化させられるようにしている。単位動作データA中の時間データは、楽音・運指データ中の対応する単位楽音データ中の時間データと一致する。なお、一組の変数指定データ、値データ、及び動作時間データはパートの或る状態量をどのように変化させるかを表していることから、以降、それらをまとめてパート動作データと呼ぶことにする。
【0039】
図5(a)に示す動作制御データAは、図2に示す楽音・運指データを基に生成されたものであり、以下のようなイベント、即ちパートの状態変化を生じさせることを表している。図2も参照しつつ、時系列に沿って説明する。
【0040】
図2に示すように、楽音・運指データ中の最初の単位楽音データが指定するイベントは、音名が「C3」の楽音の発音開始である。その「C3」は、鍵番号(ノートナンバー)の64が対応する。このため、そのイベントは、鍵盤号64の鍵の押鍵を表している。
【0041】
そのイベントの発生は、時間データの値である100で指定されるタイミングであり、その前にはイベントは存在していない。各パートには初期状態(対応する変数、或いは配列変数の要素の初期値)を定めている。このため、そのイベントが発生する様子を表示するには、指番号データで指定された人差し指パートで鍵盤号64の鍵を押鍵させるまでに、その押鍵を行える位置にまで手パートを移動させておかなければならない。ここでは、変数hxの値を値データの100として得られる位置に手パートを移動させなければならない。動作制御データA中の最初の単位動作データAは、そのために生成されたものである。その単位動作データAでは、時間データの値が0で動作時間データも0である。このため、それは、図6(a)に示すように、手パートは初めから変数hxの値を100としたx軸上の位置に表示させることを表している。
【0042】
なお、手パートは、最初の押鍵を行える位置に初めから表示させなくても良い。例えば、予め定めた位置に表示させた後、その押鍵を行うべきタイミングとなるまでに、その位置から押鍵を行える位置に移動させても良い。時間データ、及び動作時間データの値は、予め定めた単位時間で表したものであることから、その値で指定される時間の単位は単位時間と呼ぶことにする。
【0043】
次の単位動作データAでは、時間データは100、変数指定データは配列要素frx1[1]と配列要素note[1]を指定し、値データは配列要素frx1[1]の値として10を、配列変数note[1]の値として64をそれぞれ指定し、動作時間データは配列要素frx1[1]では−5、配列要素note[1]では0となっている。これは、直前(最初)の単位動作データAが表すイベントから100単位時間が経過した後、人差し指パートを第1関節で曲げて鍵盤号64の鍵を押鍵するイベントを発生させることを表している。動作時間データの負の値は、その第1関節で曲げ始めるのを時間データで指定されるタイミングより5単位時間だけ早く開始させることを表している。それにより、直前のイベントから95単位時間が経過した後に、人差し指パートは鍵盤号64の鍵に対する押鍵動作を開始し、100単位時間が経過したときに押鍵が完了することになっている。配列変数note[1]の動作時間データの0は時間データが示すタイミングで楽音を発音開始させることを表している。
【0044】
その次の単位動作データAでは、時間データは50、変数指定データは配列要素frx1[1]と配列要素note[1]を指定し、値データは配列要素frx1[1]の値として0を、配列変数note[1]の値として0をそれぞれ指定し、動作時間データは配列要素frx1[1]では2、配列要素note[1]では0となっている。これは、直前の単位動作データAが表すイベントから50単位時間が経過した後、それまで第1関節で曲げていた人差し指パートを伸ばして鍵盤号64の鍵を離鍵するイベントを発生させることを表している。動作時間データの値は正である。それにより、直前のイベントから50単位時間が経過した後に、人差し指パートは伸び始めて鍵盤号64の鍵を離鍵し、それから2単位時間が経過して元の位置に戻ることになっている。配列変数note[1]の値データの0は離鍵を表し、その動作時間データの0は時間データが示すタイミングで楽音を消音させることを表している。
【0045】
このように、動作制御データA中の単位動作データAは、イベント発生時に、どのパートをどの状態に移行させるかを指定するだけでなく、その移行にかける時間を動作時間データによって指定するようになっている。
【0046】
一方の動作制御データBは、図5(b)に示すように、値を変更すべき変数、或いは配列変数の要素を指定する変数指定データ、変数、或いは配列変数の要素の変更後の値である値データ、及び、変数指定データとそれの値データによって指定される状態に変化させるタイミングを指定する時間データを、1段階の動作を表現するデータ(それらをまとめて段階動作データと呼ぶ)として構成されている。当然のことながら、段階動作データ中の時間データの値は、対応する単位動作データA中の時間データの値以下である、
単位動作データAを構成するパート動作データの数、即ち変数指定データが指定する変数、或いは配列変数の要素の数は、それまでの状態やイベントの内容などによって異なる。指パートを折り曲げるだけで済むのであれば一つの配列変数の要素の値を変更するだけで済む。しかし、他の指パートとの間隔を広げて或る指パートを折り曲げるのであれば、その指パートでは二つの要素の値を変更する必要がある。例えばその指パートが中指パートであり、人差し指パートとの間隔を広げるのであれば、中指パートの外側に位置する薬指パートや小指パートも、その中指パートの横の動きに合わせて、それぞれ、一つの要素の値を変更しなければならない。このようなことから、図5(b)には、各パート毎に、値の変更の対象となりうる変数、及び配列変数の要素を示してある。親指パートのfrz、frx1〜3は、全て配列変数の要素であり、明確に図示していないが、それらは人差し指パート、中指パート、薬指パート、及び小指パートにも存在する。各配列変数の要素は、指パートの指番号を引数として指定される。
【0047】
図5(b)に示す動作制御データBは図5(a)に示す動作制御データAを基に生成したものである。動作制御データA中で最初に位置する単位動作データA中の動作時間データの値は0であり、2番目の単位動作データA中の時間データの値は100、その単位動作データA中で最初に位置するパート動作データ中の動作時間データの値は5である。2番目、及び3番目の段階動作データ中の時間データの値はそれぞれ95、2となっている。このことから明らかなように、それらの段階動作データは2番目の単位動作データAを基に生成されたものであり、人差し指パートによる押鍵動作を表現するために、特には図示していないが、変数指定データによって配列要素frx1[1]が指定され、それに代入すべき値が値データとして設定されている。
【0048】
図6は、手指の動作表示例を説明する図である。図5に示す動作制御データに従って手指の各パートの状態を変化させていく様子を示したものである。図6(a)において、楽音・運指データでは、楽音・運指データによって指定される楽音の発音開始タイミング(押鍵タイミング)、及びその消音タイミング(離鍵タイミング)を時間軸上に矢印で示してある。楽音の音名(「C」や「F」など)は矢印の近傍に示してある。指動作では、押鍵動作開始タイミング、及び離鍵動作開始タイミングを時間軸上に矢印で示してある。その矢印の近傍に表記した「1」や「2」などの数字は、押鍵、或いは離鍵する指パートの指番号である。手x位置では、手パートのx軸上の位置の時間変化を示してある。手y位置、及び手z位置では、それぞれ、手パートのy軸上、及びz軸上の位置の時間変化を示してある。手z位置の時間軸に表記した0は、楽音・運指データの再生開始時点を示している。なお、手x位置、手y位置、及び手z位置は、それぞれ、初期位置からの移動を相対的に示したものである。
【0049】
図6(a)に示すように、押鍵動作は、実際に楽音を発音させるタイミングよりも前に開始し、離鍵動作は、楽音の消音タイミングと合わせて開始するようになっている。手パートのx軸上における位置は、音名が「C」の鍵の離鍵動作開始後に、次に人差し指パートによって音名が「F」の鍵を押鍵できる位置に向かって移動を開始し、その押鍵開始タイミングの前に移動を完了させている。手パートのy軸上における位置は、親指パート、人差し指パート、中指パート、及び薬指パートによって、それぞれ、発音される楽音の音名が「D#」、「F」、「G」、及び「B」の鍵を同時に押鍵していることを表現するために、「G」の鍵の離鍵後に鍵盤300に向かって移動を開始し、即ち図4に示す位置YPOS1から位置YPOS2に向かって移動を開始し、それらの鍵の離鍵が開始するまでは位置YPOS2にとどまり、その離鍵の開始後に位置YPOS2から位置YPOS1に向かって移動を開始する。手パートのz軸上における位置は、それらの鍵の押鍵動作開始から最後の鍵の押鍵が終了するまでの間に鍵盤300に向かって下降する。即ちその間に図4に示す位置ZPOS1から位置ZPOS2に移動する。位置ZPOS2から位置ZPOS1への移動は、それらの鍵の離鍵動作開始から最後の鍵の離鍵が終了するまでの間に行われている。
【0050】
図6(b)は、図6(a)中の時点▲1▼〜▲5▼における手パートの基点(手首)301の位置を示す図である。それらの時点▲1▼〜▲5▼におけるxy平面上の位置は、それぞれ、▲1▼〜▲5▼で示してある。
【0051】
図6(b)に示すように、手パートは、始めに▲1▼で示す位置から▲2▼で示す位置にまで移動する。次には複数鍵を同時に押鍵するために、▲3▼で示す位置に移動する。その▲3▼で示す位置と▲4▼で示す位置が同じことから明らかなように、複数鍵を押鍵している間はその位置にとどまる。▲1▼で示す位置は▲5▼で示す位置と同じである。このことから、複数鍵を離鍵後は、▲4▼で示す位置から▲1▼で示す位置に移動する。
【0052】
上述したように、手パートを移動させたり、各指パートの状態を変化させることで手指の動作を動画で表現している。
図7は、実際の表示例を示す図である。
【0053】
図7に示すように、実際には、右手だけでなく、左手も表示している。押鍵中か否かをユーザが判りやすいように、押鍵中の鍵は他と表示色を変えて表現している。その表示色の変更は、押鍵時(発音開始時)から離鍵時(消音時)の間だけ行っても良いが、押鍵すべき鍵を事前に通知する、或いは離鍵すべき鍵を事前に通知する、といったことのために、表示色を複数の色に変更するようにしても良い。なお、特に詳細な説明は省略するが、本実施の形態では、手指の各パートのサイズの変更、即ち拡大、或いは縮小や、各パートの表示の透過表示、或いはワイヤーフレーム表示への変更、表示角度の変更、なども行えるようになっている。ユーザが実際に操作する鍵盤を備えている場合には、ユーザの演奏速度に応じて、楽音・運指データの再生速度(演奏動作の表示速度を含む)を変更するようにしても良い。
【0054】
図6に示すような手指パートの動作表示は、ユーザが操作部106を操作して、RAM103に格納された楽音・運指データの再生を指示した場合に行われる。その指示をユーザが行うと、CPU101は、楽音・運指データ(ここでは運指データを除いた部分である楽音データのみが対象)とそれを基に生成した動作制御データBを並行に処理する。それにより、楽音の発音と同期した手指の各パートの動作を表示部105に表示させる。本実施の形態では、それ以外に、楽音データから演奏内容を示す楽譜を表示するようになっている。
【0055】
図8は、本実施の形態による演奏動作表示装置の機能ブロック図である。
図8に示すように、上記演奏動作表示装置は、機能的に見て、基本的に、楽音・運指データから動作制御データを生成するデータ生成部801、及び楽音・運指データや動作制御データを再生するリアルタイム処理部802から構成されている。データ生成部801において、楽音・運指データから動作制御データを生成するのは動作制御データ生成部803によって行われる。そのデータ生成部801には、図1において、例えばCPU101、ROM102、RAM103、データ入力部104、表示部105、及び操作部106が対応する。
【0056】
一方のリアルタイム処理部802は、データ生成部801が生成した動作制御データや楽音データを処理するデータ送出部(シーケンス処理部)804、そのデータ送出部804から送られた動作制御データに従って手指の動作を表示する動作表示部805、それから送られた楽音データに従って楽音を放音する音源部806、及びそれから送られた楽音データに応じて楽譜を表示する楽譜表示部807を備えたものである。図1において、例えばCPU101、ROM102、RAM103、表示部105、操作部106、音源107、及びサウンドシステム108が対応する。
【0057】
次に、上述した動作制御データの生成やその再生などを実現するCPU101の動作について、図9〜図21に示す各種動作フローチャートを参照して詳細に説明する。
【0058】
図9は、動作制御データ生成処理の動作フローチャートである。この生成処理は、ユーザが操作部106を操作して、RAM103に格納された楽音・運指データのなかから一つを指定(選択)し、動作制御データの生成を指示した場合に、CPU101が、ROM102に格納されているプログラムを実行することで実現される処理である。図8に示すデータ生成部801はその生成処理を実行することによって実現される。始めに図9を参照して、その生成処理について詳細に説明する。
【0059】
この生成処理では、ユーザが指定した楽音・運指データから単位楽音データ、及びそれに付加された指番号データを順次、読み出しながら、その単位楽音データが表すイベントを指番号データが指定する指によって発生させる様子を表示するための動作制御データを生成するようになっている。ここでは、単位楽音データが表すイベントの種類として、ノートオンイベント、及びノートオフイベントに重点をおいて処理の流れを示してある。
【0060】
先ず、ステップ901では、初期設定を行う。その初期設定により、各種変数には初期値が代入され、RAM103には動作制御データを格納する領域が確保される。楽音・運指データから読み出す単位楽音データを管理するための変数peには、その先頭に位置する単位楽音データが格納されたアドレス値が代入される。
【0061】
ステップ901に続くステップ902では、楽音・運指データが終了したか否か判定する。例えば、楽音・運指データの最後には、そのデータの終了を表すユニークなデータ(以降、エンドデータと呼ぶ)が付加されている。このため、変数peの値が指定するデータがそのエンドデータであった場合、判定はYESとなり、ここで一連の処理を終了する。そうでない場合には、判定はNOとなってステップ903に移行する。
【0062】
ステップ903では、変数tkoldに変数tktimeの値を代入した後、その変数tktimeに、それまでの値に変数peが指定する単位楽音データの時間データの値を加算した値を代入する。続くステップ904では、その変数peの値が指定する単位楽音データが表すイベントがノートオンイベントか否か判定する。その単位楽音データがノートオンイベントを表すものであった場合、判定はYESとなってステップ905に移行し、そうでない場合には、判定はNOとなってステップ915に移行する。なお、各単位楽音データの時間データの値を累算していくことから明らかなように、変数tktimeの値は楽音データの再生を開始してから経過した時間(絶対時間)で示す値である。
【0063】
ステップ905〜909では、ノートオンイベントを表す単位楽音データに対応するための処理が行われる。
先ず、ステップ905では、変数peの値で指定される単位楽音データを基に、各種の設定を行う。それにより、変数figに指番号データの値を代入し、変数noteには音高データ(鍵盤号)を代入するとともに、それらの値から単位動作データAを生成して保存する。そのような代入が終了した後はステップ906に移行する。なお、ここで生成される単位動作データAは、時間データ、変数figの値で指定される配列要素note[fig]を指定する変数指定データ、及びその配列要素note[fig]の値データ(変数figの値で指定される指パートに押鍵させる鍵のノートナンバー)である(図5(a)参照)。
【0064】
ステップ906では、その変数peの値で指定される単位楽音データが表すノートオンイベントの発生時に、他のノートオンイベントが発生中か否か、即ち他の鍵が押鍵されているか否か判定する。他の鍵が押鍵されていない場合、判定はYESとなってステップ907に移行し、そうでない場合には、判定はNOとなって後述するステップ909に移行する。なお、上記押鍵の判定は、楽音・運指データが表す仮想的な演奏を想定しての判定である。以降も便宜的に、特に断らない限り、その想定で説明を行うことにする。
【0065】
ステップ907では、手パートのy軸上の位置を決定する手のy位置処理を実行する。続くステップ908では、手パートのz軸上の位置を決定する手のz位置処理を実行する。その後に移行するステップ909では、他のイベントとの関係を考慮しつつ、単位楽音データが表すノートオンイベントに応じて手指の各パートを動作させる内容を決定するノートオンメイン処理を実行する。そのノートオンメイン処理を実行した後はステップ910に移行する。
【0066】
ステップ910では、変数bchordに「TRUE」を表す値が代入されているか否か判定する。直前のノートオンメイン処理の実行時に、単位楽音データが表すノートイベントが和音を発音させるためのものであると判定すると、その変数bchordには「TRUE」を表す値が代入される。このため、ノートオンメイン処理の実行時に単位楽音データが和音を発音させるためのものと判定されていた場合、判定はYESとなってステップ913に移行する。そうでない場合には、判定はNOとなり、ステップ911に移行する。
【0067】
ステップ911では、手パートのx軸上の位置を決定する手のx位置処理を実行する。続くステップ912では、手パートのy軸上の位置を再度、決定する手のy位置再処理を実行する。その処理を実行した後は、ステップ913でその他の処理を実行し、続くステップ914で変数peに、次に対象となる単位楽音データのアドレスを代入した後、上記ステップ902に戻る。
【0068】
上記ステップ907〜909、911、912、及び後述するステップ917では、それぞれ、特定の動作が伴うパラメータ(変数、或いは配列変数の要素)に着目したパート動作データの生成が行われ、それが単位動作データAに追加される。それにより、ステップ913に移行時には、手指の各パートをどのような状態に移行させるかが確定するようになっている。このため、ステップ913では、単位動作データAから段階動作データを生成し、それをRAM103に格納することを行っている。その生成は、本実施の形態では、動作時間データで指定される時間間隔を複数に区切り、それまでの状態と移行後の状態の間を直線で補間することで行っている。また、そのステップ913では、ノートオンイベント、及びノートオフイベント以外のイベントを表す単位楽音データの処理も行っている。
【0069】
一方、上記ステップ904の判定がNOとなって移行するステップ915では、変数peの値で指定される単位楽音データがノートオフイベントを表しているか否か判定する。その単位楽音データがノートオフイベントを表している場合、判定はYESとなってステップ916に移行する。そうでない場合には、上記ステップ913に移行する。
【0070】
ステップ916では、変数peの値で指定される単位楽音データを基に、各種の設定を行う。それにより、変数figに指番号データの値を代入し、変数noteには音高データ(鍵盤号)を代入するとともに、それらの値から単位動作データAを生成して保存する。そのような代入が終了した後はステップ917に移行する。なお、ここで生成される単位動作データAは、時間データ、変数figの値で指定される配列要素note[fig]を指定する変数指定データ、及びその配列要素note[fig]の値データ(ここでは離鍵なので0である)である。
それに続くステップ917では、ノートオフイベント時に手指の各パートを動作させるための動作制御データ(単位動作データAに追加するパート動作データ)を生成するノートオフメイン処理を実行する。その後は上記ステップ910に移行する。
【0071】
上述したようにして、動作制御データ生成処理では、動作制御データの生成の対象とする単位楽音データ、及びそれに付加した指番号データを順次、変更しながら動作制御データを生成する。それにより、動作制御データは演奏上のイベント単位で生成するようになっている。
【0072】
次に、上記動作制御データ生成処理内で実行される各種サブルーチン処理について、図10〜図20に示すその動作フローチャートを参照しながら詳細に説明する。
【0073】
図10は、上記ステップ907として実行される手のy位置処理の動作フローチャートである。サブルーチン処理では、始めに図10を参照して、手のy位置処理について詳細に説明する。
【0074】
基点301のy軸上の位置を示す値は、変数hynewに保持されている。この手のy位置処理では、基点301を次に配置すべき位置を求め、その位置を示す値を変数hynewに代入することが行われる。
【0075】
先ず、ステップ1001では、初期設定を行い、変数hynewの値を変数hynowに代入する。続くステップ1002では、現在、対象としている単位楽音データ、及び指番号データ以降のデータを読み出し、次に全ての鍵が離鍵するまでに親指か小指が黒鍵を押鍵するようになっているか否か判定する。次に全ての鍵が離鍵するまでに、0、或いは4を指番号データとする黒鍵音高の単位楽音データが存在していた場合、判定はYESとなってステップ1005に移行する。そうでない場合には、判定はNOとなってステップ1003に移行する。
【0076】
ステップ1003では、変数hynowに位置YPOS1(図4参照)を示す値が代入されているか否か判定する。その値が変数hynowに代入されていた場合、判定はYESとなり、ここで一連の処理を終了する。そうでない場合には、判定はNOとなり、ステップ1004で変数hynewに位置YPOSを示す値を代入し、直前の単位楽音データの処理タイミングから今回の単位楽音データの処理タイミングまでに位置YPOS1への移動を完了させるパート動作データを生成し、それを単位動作データAに追加した後、一連の処理を終了する。
【0077】
一方、ステップ1002の判定がYESとなって移行するステップ1005でも、変数hynowに位置YPOS1(図4参照)を示す値が代入されているか否か判定する。その値が変数hynowに代入されていなかった場合、判定はNOとなり、ここで一連の処理を終了する。そうでない場合には、判定はYESとなり、ステップ1006で変数hynewに位置YPOSを示す値を代入し、直前の単位楽音データの処理タイミングから今回の単位楽音データの処理タイミングまでに位置YPOS2への移動を完了させるパート動作データを生成した後、一連の処理を終了する。
【0078】
このように、手のy位置処理では、ユーザが親指、或いは小指を使って黒鍵を押鍵しなければならない場合、手パートを位置YPOS2に移動させて、鍵盤300に予め近づけるようにしている。今回を含め、親指、及び小指を使うことなく、全ての鍵を離鍵している状態となる場合、手パートは位置YPOS1に位置させている。
【0079】
親指、或いは小指を使って黒鍵を押鍵する以外にも、指を大きく開いた形で複数の鍵を押鍵したりすると、手と鍵盤との間のy軸上の距離は小さくなる。そのようなことに対応するための手パートの基点301のy軸上における位置調整は、ステップ912として実行される手のy位置再処理で行っている。
【0080】
図11は、図9に示す動作制御データ生成処理内でステップ908として実行される手のz位置処理の動作フローチャートである。次に、図11を参照して、その処理について詳細に説明する。
【0081】
現時点において基点301が存在すべきz軸上の位置を示す値は変数hznowに保持されている。直前の単位楽音データを処理した際の変数tktimeの値は変数tkoldに保持されている。手パートの基点301は、図4に示すように、z軸上では位置ZPOS1、或いはZPOS2の何れかの位置をとる。手のz位置処理の実行時は、押鍵されている鍵が存在していない状況である。
【0082】
先ず、ステップ1101では、変数hznowに位置ZPOS1を示す値が代入されているか否か判定する。その値が変数hznowに代入されていた場合、判定はYESとなり、ここで一連の処理を終了する。そうでない場合には、即ち手パートの基点301が位置ZPOS2に位置している場合には、判定はNOとなり、ステップ1102に移行して、変数tkoldの値が示すタイミングから変数tktimeの値が示すタイミングまでに、基点301を位置ZPOS2から位置ZPOS1に移動させるパート動作データを作成し、それを単位動作データAに追加する形でRAM103に格納する。それが終了した後に一連の処理を終了する。
【0083】
図12は、図9に示す動作制御データ生成処理内でステップ909として実行されるノートオンメイン処理の動作フローチャートである。次に、図12を参照して、その処理について詳細に説明する。
【0084】
現在、処理対象としている単位楽音データを実際に処理、即ち再生する際に、和音(コード)が発音中か否かを示す値(「TRUE」或いは「FALSE」)は変数bchordに保持されている。和音が発音中であれば、その和音を構成する楽音のなかで最後に発音が開始する楽音の単位楽音データのアドレスは変数pchordendに保持されている。ノートオンメイン処理では、そのような変数を含む各種変数の値が参照される。
【0085】
先ず、ステップ1201では、変数bchordの値が「TRUE」か否か判定する。処理対象としている単位楽音データを再生する状況で和音を発音させているとみなしていた場合、その変数bchordには「TRUE」が代入されていることから、判定はYESとなってステップ1207に移行し、そうでない場合には、判定はNOとなってステップ1202に移行する。
【0086】
ステップ1202では、変数balloffの値が「TRUE」か否か判定する。処理対象としている単位楽音データを再生する状況で押鍵されている鍵が存在している場合、判定はNOとなってステップ1206に移行する。そうでない場合には、判定はYESとなってステップ1203に移行する。
【0087】
ステップ1203では、処理対象としている単位楽音データ、及びそれに続く単位楽音データによって和音が発音されるか否か判定する和音判定処理を実行する。その和音判定処理において、それらの単位楽音データによって和音が発音されると判定すると、変数bchordには「TRUE」が代入されることになる。その実行後は、ステップ1204に移行する。
【0088】
ステップ1204では、変数bchordの値が「TRUE」か否か判定する。上記和音判定処理を実行した結果、新たに和音が発音されるとみなした場合、判定はYESとなり、ステップ1205でその和音を発音させる動作の内容を決定する和音動作処理を実行した後、一連の処理を終了する。そうでない場合には、判定はNOとなり、ステップ1206で押鍵動作の内容を決定するノートオン動作処理を実行した後、一連の処理を終了する。
【0089】
一方、上記ステップ1201の判定がYESとなって移行するステップ1207では、変数pchordendの値が変数peの値と等しいか否か判定する。変数peの値が指定する単位楽音データ、即ち現在、処理対象としている単位楽音データが、和音を構成しているとみなす楽音のなかで最後に発音される楽音の発音開始を指示するものであった場合、判定はYESとなり、ステップ1208で変数bchordに「FALSE」、変数pchordendにNULL(空値)をそれぞれ代入した後、一連の処理を終了する。そうでない場合には、判定はNOとなって、ここで一連の処理を終了する。
【0090】
このように、ノートオンメイン処理では、単位楽音データが発音開始を指示する楽音が和音を構成しているか否かにより処理を分岐させている。それにより、和音を発音させるのか単に楽音を発音させるのかに応じて、手指の各パートを動作させるようにしている。
【0091】
ここで、上記ノートオンメイン処理内で実行される各種サブルーチン処理について、図13〜図15を参照して詳細に説明する。
図13は、上記ステップ1203として実行される和音判定処理の動作フローチャートである。ノートオンメイン処理内で実行されるサブルーチン処理では、図13を参照して、始めに和音判定処理について詳細に説明する。
【0092】
先ず、ステップ1301では、初期設定を行う。その初期設定を行うことにより、変数tknextには、変数peの値で指定される単位楽音データ以降で最初に楽音の発音開始を指示する単位楽音データの処理タイミングを絶対時間で示す値が代入され、変数tknextoffには、変数peの値で指定される単位楽音データ以降で最初に楽音の消音を指示する単位楽音データの処理タイミングを絶対時間で示す値が代入される。
【0093】
ステップ1301に続くステップ1302では、変数tknextの値が、変数tktimeの値に変数tkchordの値を加算した値より小さいか否か判定する。その変数tkchordには、和音を構成しているか否か判定するうえで基準となる、楽音間の発音開始間隔を示す値が代入されている。このことから、その間隔以内に次の楽音の発音が開始する場合、判定はYESとなってステップ1303に移行し、そうでない場合には、判定はNOとなって、ここで一連の処理を終了する。
【0094】
ステップ1303では、変数tknextoffの値が、変数tktimeの値に変数tkchordの値を加算した値より大きいか否か判定する。変数tkchordの値が示す時間が経過する前に、消音される楽音が存在していない場合、判定はYESとなり、ステップ1304で変数bchordに「TRUE」を代入した後、一連の処理を終了する。そうでない場合には、判定はNOとなり、ここで一連の処理を終了する。
【0095】
このように、本実施の形態では、変数tkchordの値が示す時間内に複数の押鍵(ノートオンイベント)があり、且つその時間内に離鍵(ノートオフイベント)が存在していなければ、その時間内に発音開始される楽音は和音を構成しているとみなすようにしている。
【0096】
図14は、図12に示すノートオンメイン処理内でステップ1205として実行される和音動作処理の動作フローチャートである。次に図14を参照して、和音動作処理について詳細に説明する。
【0097】
先ず、ステップ1401では、初期化処理を実行する。その初期化処理を実行することにより、変数tktime0には、変数tktimeの値が代入され、変数pe0には変数peの値が代入され、変数pchordendにはNULLが代入される。ステップ1401に続くステップ1402以降は、変数pe0の値を順次、インクリメントしながら、和音とみなす楽音の範囲の特定や、その和音を鳴らす動作内容を決定するための処理が行われる。
【0098】
ステップ1402では、楽音・運指データが終了したか否か判定する。変数pe0の値が指定するデータが楽音・運指データの最後に位置するエンドデータであった場合、判定はYESとなってステップ1410に移行し、そうでない場合には、判定はNOとなってステップ1403に移行する。
【0099】
ステップ1403では、変数pe0の値が変数peの値と等しいか否か判定する。それらの値が等しい場合、判定はYESとなってステップ1405に移行する。そうでない場合には、判定はNOとなり、ステップ1404で変数tktime0に、それまでの値に変数pe0の値が指定する単位楽音データの時間データの値を加算した値を代入した後、そのステップ1405に移行する。そのようにして、変数tktime0には、変数peの値が指定する単位楽音データ以降の単位楽音データを処理すべきタイミングを絶対時間で示す値が代入される。
【0100】
ステップ1405では、変数tktime0の値が、変数tktimeの値に変数tkchordの値を加算した値よりも小さいか否か判定する。つまり変数pe0、及びpeの値がそれぞれ指定する単位楽音データの処理タイミングの差が、変数tkchordの値で指定される時間内でなかった場合、判定はNOとなって上記ステップ1410に移行する。そうでない場合には、判定はYESとなってステップ1406に移行する。
【0101】
ステップ1406では、変数pe0の値が指定する単位楽音データ押鍵(ノートオンイベント)を表すものであるか否か判定する。その単位楽音データがノートオンイベントを表していた場合、判定はYESとなり、ステップ1407で変数pchordendに変数pe0の値を代入し、続くステップ1408でノートオン動作処理を実行した後、ステップ1409に移行する。そうでない場合には、判定はNOとなってそのステップ1409に移行する。
【0102】
ステップ1409では、変数pe0に次の単位楽音データのアドレスを代入する。それを行った後、上記ステップ1402に戻る。
このように、ステップ1402〜1409で形成される処理ループをステップ1402の判定がYES、或いはステップ1405の判定がNOとなるまで繰り返し実行することにより、変数pchordendには、和音を構成するとみなす楽音のなかで最後に発音が開始する楽音の単位楽音データのアドレス値が代入されることになる。
【0103】
一方、ステップ1402の判定がYES、或いはステップ1405の判定がNOとなって移行するステップ1410では、手パートがz軸上を移動していく動作(ここでは図4に示す位置ZPOS1から位置ZPOS2に移動していく動作である)を表現するパート動作データを作成する。その動作データを作成することにより、手パートの基点301が、変数tkstart0の値が示すタイミングで移動を開始し、変数tktimeの値が示すタイミングで位置POS2への移動が終了するようにさせる。そのようなパート動作データを単位動作データAに追加した後、一連の処理を終了する。
【0104】
上記変数tkstart0の値が示すタイミングは、和音を構成する楽音のなかで最初に発音される楽音を発音させる指パートの動作を開始するタイミングか、或いは各指パートの離鍵から押鍵に移行するまでの時間が比較的に長ければ、変数tktimeの値から、押鍵動作を開始してから押鍵するまでの基準時間を示す値を引いた値が示すタイミングである。それにより、和音を鳴らす状況に応じて、それを鳴らすための手指の各パートの動作を異ならせるようにしている。図6に示す例では、変数tkstart0に前者の値が代入された結果、親指パートの押鍵動作の開始に合わせて手パートのz軸上の移動が開始し、そのz軸上の移動が「D#」の楽音の発音開始時に終了していることを表している。なお、基準時間を示す値は変数tkcostに代入されている。離鍵動作を開始してからその動作が完了するまでの基準時間を示す値は変数tkoffcostに代入されている。
【0105】
次に、上記ステップ1408、或いは図12に示すノートオンメイン処理内でステップ1206として実行されるノートオン動作処理処理について、図15に示すその動作フローチャートを参照して詳細に説明する。なお、この処理内では、単位楽音データに付加された指番号データは変数figに、その単位楽音データ中の音高データは変数noteに代入されている。
【0106】
先ず、ステップ1501では、初期設定を行う。その初期設定では、変数figの値を指番号データとして付加された、ノートオフイベントを表す直前の単位楽音データの処理タイミングを絶対時間で示す値を求め、その求めた値を変数tkfoffに代入することが行われる。
【0107】
ステップ1501に続くステップ1502では、変数tktimeの値から変数tkfoffの値を引いた値が、変数tkcostの値に変数tkoffcostの値を加算した値より小さいか否か判定する。即ち変数figで指定される指パートの離鍵動作を開始させてからその指パートを押鍵させるまでの時間が、離鍵動作の基準時間と押鍵動作の基準時間を足した時間よりも短いか否か判定する。前者の時間が後者の時間よりも長い場合、判定はNOとなり、ステップ1503で変数tkstartに、変数tktimeの値から変数tkcostの値を引いた値を代入した後、ステップ1504に移行する。そうでない場合には、即ち離鍵動作、或いは押鍵動作を基準時間で行わせる余裕がない場合には、判定はYESとなってステップ1506に移行する。
【0108】
ステップ1504では、変数tkendに、押鍵動作が終了するタイミングを示す値として変数tktimeの値を代入する。続くステップ1505では、変数figの値で指定される指パートが、変数tkstartの値が示すタイミングで変数noteの値が示す鍵に対する押鍵動作を開始し、変数tkendの値が示すタイミングでその動作を完了、即ち押鍵する動作を行わせるためのパート動作データを作成し単位動作データAに追加する。そのパート動作データ中の動作時間データの値が示す時間は、変数tkcostの値が示す時間である。その作成・追加を行った後、一連の処理を終了する。
【0109】
手パートを移動させなければ変数figの値で指定される指パートで鍵を押鍵させることができないこともある。各指パートの回転角frzは、その手パートの位置が確定していなければ確定させることはできない。このようなことから、ここでは単に押鍵する動作を行わせるためのパート動作データだけを作成している。指パートを横に動作させるためのパート動作データは、図9に示す動作制御データ生成処理内のステップ911の手のx位置処理を実行した際に、必要に応じて作成する。ここで作成したパート動作データも必要に応じて修正する。
【0110】
一方、上記ステップ1502の判定がYESとなって移行するステップ1506では、変数tktimeの値から変数tkfoffの値を引いた値に0.2を掛けた値が、変数tkoffcostの値よりも大きいか否か判定する。離鍵開始から次の押鍵までの時間に0.2を掛けて得られる時間が、離鍵動作の基準時間よりも長い場合、判定はYESとなり、ステップ1507で変数tkstartに、変数tkfoffの値に変数tkoffcostの値を加算した値を代入した後、上記ステップ1504に移行する。そうでない場合には、判定はNOとなり、ステップ1508で変数tkstartに、変数tkoffcostの値に0.8を掛けた値に変数tkfoffの値を加算した値を代入した後、ステップ1504に移行する。その後にステップ1505を実行した際に設定される動作時間データの値は、ステップ1507からステップ1504に移行したのであれば、変数tktimeの値から変数tkfoffの値を減算し、その減算結果から更に変数tkoffcostの値を減算した値である。ステップ1508からステップ1504に移行したのであれば、変数tktimeの値から変数tkfoffの値を減算し、その減算結果から更に、変数tkoffcostの値に0.8を掛けた値を減算した値である。
【0111】
このように、同じ指パートによる離鍵、押鍵を短い時間内に行わせる場合、離鍵動作に要する時間、及び押鍵動作に要する時間の少なくとも一方を調整して、それらの動作を表現するようにしている。
【0112】
図12に示すノートオンメイン処理では、上述した各種サブルーチン処理が実行される。それにより、指パートを押鍵させる動作を表現するためのパート動作データをサブルーチン処理単位で生成し単位動作データAに追加している。それらのパート動作データでは、変数hz、配列変数rx1〜3のうちの何れかが値の変更対象である。
【0113】
図16は、図9に示す動作制御データ生成処理内でステップ917として実行されるノートオフメイン処理の動作フローチャートである。次に、図16を参照して、ノートオフメイン処理について詳細に説明する。
【0114】
現在、処理対象としている単位楽音データを実際に処理、即ち再生する際に、消音すべき和音(コード)があるか否かを示す値(「TRUE」或いは「FALSE」)は変数bchordoffに保持されている。その和音があれば、その和音を構成する楽音のなかで最後に消音する楽音の単位楽音データのアドレスは変数pchordendoffに保持されている。ノートオフメイン処理では、そのような変数を含む各種変数の値が参照される。
【0115】
先ず、ステップ1601では、変数bchordoffの値が「TRUE」か否か判定する。処理対象としている単位楽音データを再生する状況で消音すべき和音があるとみなしていた場合、その変数bchordoffには「TRUE」が代入されていることから、判定はYESとなってステップ1606に移行し、そうでない場合には、判定はNOとなってステップ1602に移行する。
【0116】
ステップ1602では、処理対象としている単位楽音データ、及びそれに続く単位楽音データによって和音が消音、即ちその和音の構成音が全て消音されるか否か判定する和音オフ判定処理を実行する。その和音オフ判定処理において、それらの単位楽音データによって和音が消音されると判定すると、変数bchordoffには「TRUE」が代入されることになる。その実行後は、ステップ1603に移行する。
【0117】
ステップ1603では、変数bchordoffの値が「TRUE」か否か判定する。上記和音オフ判定処理を実行した結果、和音を消音させると決定した場合、判定はYESとなり、ステップ1604でその和音を消音させる動作の内容を決定する和音オフ動作処理を実行した後、一連の処理を終了する。そうでない場合には、判定はNOとなり、ステップ1605で離鍵動作の内容を決定するノートオフ動作処理を実行した後、一連の処理を終了する。
【0118】
一方、上記ステップ1601の判定がYESとなって移行するステップ1606では、変数pchordendoffの値が変数peの値と等しいか否か判定する。変数peの値が指定する単位楽音データ、即ち現在、処理対象としている単位楽音データが、和音を構成する楽音のなかで最後に消音される楽音の消音を指示するものであった場合、判定はYESとなり、ステップ1607で変数bchordoffに「FALSE」、変数pchordendoffにNULLをそれぞれ代入した後、一連の処理を終了する。そうでない場合には、判定はNOとなって、ここで一連の処理を終了する。
【0119】
このように、ノートオフメイン処理では、単位楽音データが消音を指示する楽音が和音を構成しているか否かにより処理を分岐させている。それにより、和音を構成する楽音を消音させるのか単に楽音を消音させるのかに応じて、手指の各パートを動作させる内容を決定している。
【0120】
ここで、上記ノートオフメイン処理内で実行される各種サブルーチン処理について、図17〜図19を参照して詳細に説明する。
図17は、上記ステップ1602として実行される和音オフ判定処理の動作フローチャートである。ノートオフメイン処理内で実行されるサブルーチン処理では、図17を参照して、始めに和音オフ判定処理について詳細に説明する。
【0121】
先ず、ステップ1701では、初期設定を行う。その初期設定を行うことにより、変数tknextには、変数peで指定される単位楽音データ以降で最初に楽音の発音開始を指示する単位楽音データの処理タイミングを絶対時間で示す値が代入され、変数tknextoffには、変数peで指定される単位楽音データ以降で最初に楽音の消音を指示する単位楽音データの処理タイミングを絶対時間で示す値が代入される。
【0122】
ステップ1701に続くステップ1702では、変数tknextoffの値が、変数tktimeの値に変数tkchordの値を加算した値より小さいか否か判定する。変数tkchordの値が示す時間が経過する前に、消音される楽音が存在していない場合、判定はNOとなり、ここで一連の処理を終了する。そうでない場合には、判定はYESとなってステップ1703に移行する。
【0123】
ステップ1703では、変数tknextの値が、変数tktimeの値に変数tkchordの値を加算した値より大きいか否か判定する。変数tkchordの値が示す時間が経過する前に、次の楽音の発音が開始する場合、判定はNOとなり、ここで一連の処理を終了する。そうでない場合には、判定はYESとなり、ステップ1704で変数bchordoffに「TRUE」を代入した後、一連の処理を終了する。
【0124】
このように、本実施の形態では、変数tkchordの値が示す時間内に複数の楽音の消音(ノートオンイベント)があり、且つその時間内に発音開始する楽音(ノートオフイベント)が存在していなければ、和音の構成音とみなした楽音は消音すべき状況になったとしている。
【0125】
図18は、図16に示すノートオフメイン処理内でステップ1604として実行される和音オフ動作処理の動作フローチャートである。次に図18を参照して、和音オフ動作処理について詳細に説明する。
【0126】
先ず、ステップ1801では、初期化処理を実行する。その初期化処理を実行することにより、変数tktime0には、変数tktimeの値が代入され、変数pe0には変数peの値が代入され、変数pchordendoffにはNULLが代入される。ステップ1801に続くステップ1802以降では、変数pe0の値を順次、インクリメントしながら、和音とみなす楽音の範囲の特定や、その和音を消音させる動作内容を決定するための処理が行われる。
【0127】
ステップ1802では、楽音・運指データが終了したか否か判定する。変数pe0の値が指定するデータが楽音・運指データの最後に位置するエンドデータであった場合、判定はYESとなってステップ1810に移行し、そうでない場合には、判定はNOとなってステップ1803に移行する。
【0128】
ステップ1803では、変数pe0の値が変数peの値と等しいか否か判定する。それらの値が等しい場合、判定はYESとなってステップ1805に移行する。そうでない場合には、判定はNOとなり、ステップ1804で変数tktime0に、それまでの値に変数pe0の値が指定する単位楽音データの時間データの値を加算した値を代入した後、そのステップ1805に移行する。そのようにして、変数tktime0には、変数peの値が指定する単位楽音データ以降の単位楽音データを処理すべきタイミングを絶対時間で示す値が代入される。
【0129】
ステップ1805では、変数tktime0の値が、変数tktimeの値に変数tkchordの値を加算した値よりも小さいか否か判定する。変数pe0、及びpeの値がそれぞれ指定する単位楽音データの各処理タイミングが、変数tkchordの値で指定される時間内でなかった場合、判定はNOとなって上記ステップ1810に移行する。そうでない場合には、判定はYESとなってステップ1806に移行する。
【0130】
ステップ1806では、変数pe0の値が指定する単位楽音データは楽音の消音(ノートオフイベント)を表すものであるか否か判定する。その単位楽音データがノートオフイベントを表していた場合、判定はYESとなり、ステップ1807で変数pchordendoffに変数pe0の値を代入し、次にステップ1808でノートオフ動作処理を実行した後、ステップ1809に移行する。そうでない場合には判定はNOとなり、そのステップ1809に移行する。
【0131】
ステップ1809では、変数pe0に次の単位楽音データのアドレスを代入する。それを行った後、上記ステップ1802に戻る。
このように、ステップ1802〜1809で形成される処理ループをステップ1802の判定がYES、或いはステップ1805の判定がNOとなるまで繰り返し実行することにより、変数pchordendoffには、和音を構成するとみなす楽音のなかで最後に消音する楽音の単位楽音データのアドレス値が代入されることになる。
【0132】
一方、ステップ1802の判定がYES、或いはステップ1805の判定がNOとなって移行するステップ1810では、手パートがz軸上を移動していく動作(ここでは図4に示す位置ZPOS2から位置ZPOS1に移動していく動作である)内容を指定するパート動作データを作成する。その動作データの作成は、変数tktimeの値が示すタイミングで移動を開始し、所定の速度で位置ZPOS1に達するように行う。そのようにしてパート動作データを生成し単位動作データAに追加した後、一連の処理を終了する。
【0133】
和音の消音動作内容として、手パートをz軸上における移動内容を指定するパート動作データは上述したようにして生成される。それにより、図6に示す例では、親指パートが「D#」の音高が割り当てられた鍵の離鍵開始に合わせて、手パートのz軸上の移動が開始している。
【0134】
次に、上記ステップ1808、或いは図16に示すノートオフメイン処理内でステップ1605として実行されるノートオフ動作処理処理について、図19に示すその動作フローチャートを参照して詳細に説明する。なお、この処理内では、単位楽音データに付加された指番号データは変数figに、その単位楽音データ中の音高データは変数noteに代入されている。
【0135】
先ず、ステップ1901では、初期設定を行う。その初期設定では、変数peの値で指定される単位楽音データ以降で、変数figの値が指番号データとして付加されているノートオンイベントを表す単位楽音データ中の音高データを抽出し、その抽出した音高データを変数nextnoteに代入することなどが行われる。
【0136】
ステップ1901に続くステップ1902では、変数figの値が指定する指パートが押鍵に使用中か否か判定する。変数noteの値で指定される楽音を実際には発音させないような場合、即ちその楽音の発音開始を指示する単位楽音データが存在していない、或いはその単位楽音データが存在していても、それに変数figの値が指番号データとして付加されていないような場合、判定はNOとなり、ここで一連の処理を終了する。そうでない場合には、判定はYESとなってステップ1903に移行する。
【0137】
ステップ1903では、変数noteの値が変数nextnoteの値と等しいか否か判定する。それらの値が等しくない場合、即ちユーザがそれまで押鍵していた鍵とは異なる鍵を同じ指で押鍵しなければならない場合、判定はNOとなってステップ1904に移行し、変数figの値で指定される指パートが、変数tktimeの値で指定されるタイミングで離鍵動作を開始させるパート動作データを生成した後、一連の処理を終了する。その動作データは、離鍵動作を開始させる指パートと隣の指パートとの間を広げさせていたならば、その間を狭くさせて弛緩状態に戻す動作も行わせるものである。反対に、そうでない場合には、判定はYESとなってステップ1905に移行し、変数figの値で指定される指パートが、変数tktimeの値で指定されるタイミングで単に離鍵動作を開始させるパート動作データを生成した後、一連の処理を終了する。その動作データでは、離鍵動作を開始させる指パートと隣の指パートとの間を広げさせていても、その間を狭くさせることは行わせない。
【0138】
このように、本実施の形態では、指パートの離鍵後の状態は、それを次の押鍵に使用するか否かを考慮して決定している。それにより、次の押鍵に使わない指パートをいつまでも広げた状態にしておくようなことは回避させている。このため、指パートを離鍵開始時から次の押鍵終了時まで単に上下(frx)方向に動かすようなことは無くなる。その結果、より自然な形で演奏動作を表現できるだけでなく、押鍵イベント、或いは離鍵イベントを発生させる指パートの動作や、その動作に伴う他の指パートの動作をより目立たせることができる。
【0139】
図16に示すノートオフメイン処理では、上述した各種サブルーチン処理が実行される。それにより、指パートを離鍵させる動作を表現するためのパート動作データをサブルーチン処理単位で生成し単位動作データAに追加している。それらの動作データでは、変数hz、配列変数rx1〜3、及びfrzのうちの何れかが値の変更対象である。
【0140】
図20は、図9に示す動作制御データ生成処理内でステップ911として実行される手のx位置処理の動作フローチャートである。次に、図20を参照して、手のx位置処理について詳細に説明する。
【0141】
先ず、ステップ2001では、指パートが押鍵している、或いは押鍵する鍵、その配置、各指パートの長さ、などを基に、横方向に動かした際の各指パートの回転角frzのなかの最大角(の絶対値)が最小となる手パートの基点301(手首)を軸としたz軸の周りの回転角hrzを求める。指を横に動かせる範囲は、指毎に若干、異なる。このことから、その回転角hrzは、指毎の横に動かせる範囲を考慮しつつ決定している。それにより、各指パートが実際の指が横に動く範囲を越えて横に動くのを回避させている。
【0142】
ステップ2001を実行することにより、手パート、及び各指パートのxy平面上での配置が確定する。このことから、ステップ2001に続くステップ2002では、各指パートが押鍵している、或いは押鍵する鍵、その鍵の配置、各指パートの長さ、その回転角frz、手パートの回転角hrz、及び手パートの長さLa(図3参照)などを基に、手パートの基点301のx軸上の位置hxを求める。その後はステップ2003に移行する。
【0143】
ステップ2003では、変数tkoldの値で指定されるタイミングから変数tktimeの値で指定されるタイミングまでに、手パートの基点301をステップ2002で求めた位置hxまで移動させたり、ステップ2001で求めた回転角hrzにさせるパート動作データをそれぞれ必要に応じて生成し単位動作データAに追加する。位置hx、及び回転角hrzを共に変化させる必要がなければ、それらのパート動作データは作成しない。
【0144】
各指パートのxy平面上での配置が確定することで、各指パートの回転角frzが確定し、押鍵させている、或いは押鍵させる指パートは伸ばしたままで良いのか、それとも第2関節、及び3関節(第3関節は第2関節での曲がりに応じて曲げる必要がある)で曲げなければならないのか、といったことも確定する。押鍵させる指パートを第2関節で曲げることになれば、それを伸ばして押鍵させる場合と比較して、第1関節で曲げる角度は小さくさせなければならない。このようなことから、上記ステップ2003では、手パートの基点301の回転角をhrzとし、それを位置hxに移動させることによって状態を変化させるべき指パートがあれば、必要に応じて、指パートの状態を変化させるためのパート動作データを新たに作成したり、既に作成したパート動作データを修正することも合わせて行っている。それにより、他の指パートをくぐらせたり、或いはまたいでの押鍵動作や、指パートの横の動作に応じて他の指パートを横に動作させるといった動画表現を実現させている。そのようなことを行うステップ2003の処理を実行した後に一連の処理を終了する。
【0145】
上記手のx位置処理を実行すると、変数peの値で指定される単位楽音データが表すイベントの発生時、或いはそのイベント後の手指の各パートの状態を指定する各種変数、及び各種配列変数のなかで、変数hyの除く全てのものの値が確定することになる。その変数hyの値は、この手のx値処理の次にステップ912として実行される手のy位置再処理によって確定される。
【0146】
図21は、シーケンス処理の動作フローチャートである。このシーケンス処理は、例えばユーザが操作部106を操作して、予め指定(選択)した楽音・運指データの再生を指示した場合に、CPU101が、ROM102に格納されているプログラムを実行することで実現される処理である。図8に示すリアルタイム処理部802はそのシーケンス処理を実行することによって実現される。
【0147】
図5(b)に示す動作制御データBは、楽音・運指データとは別の領域に格納されている。動作制御データBを構成する段階動作データは、当然のことながら、楽音・運指データを構成する単位楽音データの数よりも多く、その処理タイミングは、通常、単位楽音データの処理タイミングと一致しない。このようなことから、動作制御データB、及び楽音・運指データは、それぞれ、並行に処理している。
【0148】
先ず、ステップ2101では、変数tktimeE、tktimeM、及びclockにそれぞれ0を代入したり、変数pe、及びpmにそれぞれ初期値を代入するといった各種変数への値の代入や、特には図示しないハードタイマが所定時間間隔で出力する割り込み信号を有効にして、タイマインタラプト処理の実行禁止を解除するといった初期設定を行う。その実行禁止を解除することによって、変数clockの値は、タイマインタラプト処理が実行される度にインクリメントされる。
【0149】
ステップ2101に続くステップ2102では、変数clockの値やテンポデータの値を用いた演算を行って、変数clockの値を楽音・運指データ中の時間データの単位で示す値を算出し、その算出結果を変数tktimeに代入する。その後はステップ2103に移行する。
【0150】
ステップ2103〜2109では、楽音・運指データの再生に係わる処理が実行される。
先ず、ステップ2103では、楽音・運指データが終了したか否か判定する。変数peの値が指定するデータが楽音・運指データの最後に位置するエンドデータであった場合、判定はYESとなってステップ2110に移行し、そうでない場合には、判定はNOとなってステップ2104に移行する。
【0151】
ステップ2104では、変数peの値で指定される単位楽音データ中の時間データの値を変数tktimeEの値に加算した値が、変数tktimeの値以上か否か判定する。変数tktimeEには、それまでに処理した単位楽音データ中の時間データの値を累算した値、即ち直前に処理した単位楽音データの処理タイミングを絶対時間で示す値が代入されている。このため、変数peの値で指定される単位楽音データを処理すべきタイミングとなった場合、判定はYESとなってステップ2105に移行する。そうでない場合には、判定はNOとなってステップ2110に移行する。
【0152】
ステップ2105では、変数tktimeEに、それまでの値に変数peの値が指定する単位楽音データ中の時間データの値を加算した値を代入する。それにより、次の単位時間データを処理すべきタイミングを示す値を変数tktimeEに代入した後は、処理タイミングとなった単位楽音データをそれが表すイベントの種類に応じて処理を行い、その処理による演奏の進行に応じて、表示ページの切り換え、新たに発音させた楽音に対応する音符の表示色の変更などを行い、更に変数peに、それまでのアドレス値から1イベント分だけ進めたアドレス値を代入した(以上、ステップ2106〜2109)後、ステップ2110に移行する。なお、単位楽音データの処理は、CPU101が、そのデータから音源107に送出すべきコマンドを生成して送出することで行われる。
【0153】
ステップ2110〜2115では、動作制御データBに従って手指の各パートを動作させるための処理が行われる。
先ず、ステップ2110では、動作制御データBが終了したか否か判定する。変数pmの値が指定する段階動作データが動作制御データB中に存在していない場合、判定はYESとなってステップ2115に移行し、そうでない場合には、判定はNOとなってステップ2111に移行する。
【0154】
ステップ2111では、変数pmの値で指定される段階動作データ中の時間データの値を変数tktimeMの値に加算した値が、変数tktimeの値以上か否か判定する。変数tktimeMには、上記変数tktimeEと同様に、それまでに処理した段階動作データ中の時間データの値を累算した値、即ち直前に処理した段階動作データの処理タイミングを絶対時間で示す値が代入されている。このため、変数pmの値で指定される段階動作データを処理すべきタイミングとなった場合、判定はYESとなってステップ2112に移行する。そうでない場合には、判定はNOとなって上記ステップ2102に戻る。
【0155】
ステップ2112では、変数tktimeMに、それまでの値に変数pmの値が指定する段階動作データ中の時間データの値を加算した値を代入する。それにより、次の段階動作データを処理すべきタイミングを示す値を変数tktimeMに代入すると、ステップ2113に移行して、処理タイミングとなった段階動作データに従って、手指の各パートのなかで状態を変化させるべきパートの状態を変化させて演奏動作を示す表示内容を更新する演奏動作表示更新処理を実行する。その実行後は、ステップ2114で変数pmに、それまでのアドレス値から1イベント分だけ進めたアドレス値を代入した後、上記ステップ2102に戻る。なお、表示内容の更新は、例えばCPU101が、表示部105のメモリに格納された画像データ中でデータを書き換えるべき部分の画像データをROM102から読み出すか、或いはそれを用いて生成し、そのようにして得た画像データを、そのメモリ中の画像データを書き換えるべき部分に上書きすることで行われる。
【0156】
一方、上記ステップ2110の判定がYESとなって移行するステップ2115では、楽音・運指データが終了したか否か判定する。変数peの値が指定するデータが楽音・運指データの最後に位置するエンドデータであった場合、判定はYESとなって一連の処理を終了し、そうでない場合には、判定はNOとなって上記ステップ2102に戻る。
【0157】
上述したシーケンス処理を実行することにより、図7に示すような画像が表示部105に表示され、それに表示された手指の各パートが図6に示すように動作することになる。
【0158】
なお、本実施の形態では、図6に示すように、手パートは単位楽音データの処理タイミングで動作を開始させることを基本としているが、必ずしもそうしなくて良い。演奏中の動作としては、例えば横動作は押鍵動作の開始前に完了するといった特徴がある(関口、英保:仮想空間におけるピアノ演奏動作の生成と表示、情報処理学会研究報告 Vol99、No.16(1999))。このことから、例えば押鍵では、例えば手パートや指パートの移動が完了した後に指パートを関節で曲げての押鍵動作を開始するといったように、複数のフェーズに分けて手指の各パートを動作させるようにしても良い。
【0159】
手パートの基点301がとり得るz軸上の位置は、位置ZPOS1、或いはZPOS2の2通りだけにしているが、その位置を3通り以上、或いは任意に設定できるようにしても良い。そのようにした場合、指が他の指をくぐる動作やまたぐ動作をより適切に表現できるようになる。
【0160】
また、本実施の形態では、演奏操作子群として鍵盤を想定し、その鍵盤に対する演奏動作を表示しているが、鍵盤以外の演奏操作子群に対する演奏動作を表示するようにしても良い。
【0161】
本実施の形態は音源107や表示部105を搭載した装置に本発明を適用したものであるが、本発明を適用できる装置はそれらを搭載したものに限定されるわけではない。音源107は無くても良く、表示部105についても、外部の表示装置と接続できるのであれば、無くても良い。
【0162】
上記演奏動作表示装置の動作を実現させるようなプログラムは、CD−ROM、フロッピー(登録商標)ディスク、或いは光磁気ディスク等の記録媒体に記録させて配布しても良い。或いは、公衆網等の通信回線を用いて、そのプログラムの一部、若しくは全部を配信するようにしても良い。そのようにした場合には、ユーザはプログラムを取得して任意の演奏動作表示装置、或いはコンピュータ等のデータ処理装置にロードすることにより、その装置に本発明を適用させることができる。このことから、記録媒体は、プログラムを配信する装置がアクセスできるものであっても良い。
【0163】
【発明の効果】
以上、説明したように本発明は、楽音・運指データを基に、演奏操作子群、例えば鍵盤における押鍵または離鍵操作時の手指の位置と曲げ角(回転角)を表わす動作制御データを生成して、この動作制御データに基づいて手指による演奏動作を動画表示する。このため、ユーザに演奏中における手指の動作を容易に理解させることができる。
さらに、本発明においては、演奏する手(手首)の曲げ角を、指の曲げ角が最さくなるように調整しているため、きわめて実際の演奏に近い無理のない手指の動作表示が行われる。
【図面の簡単な説明】
【図1】本実施の形態による演奏動作表示装置の回路構成図である。
【図2】楽音・運指データの構成を説明する図である。
【図3】表示用の手指の構造を説明する図である。
【図4】手の移動範囲を説明する図である。
【図5】動作制御データの構成を説明する図である。
【図6】手指の動作表示例を説明する図である。
【図7】実際の表示例を示す図である。
【図8】本実施の形態による演奏動作表示装置の機能ブロック図である。
【図9】動作制御データ生成処理の動作フローチャートである。
【図10】手のy位置処理処理の動作フローチャートである。
【図11】手のz位置処理の動作フローチャートである。
【図12】ノートオンメイン処理の動作フローチャートである。
【図13】和音判定処理の動作フローチャートである。
【図14】和音動作処理の動作フローチャートである。
【図15】ノートオン動作処理の動作フローチャートである。
【図16】ノートオフメイン処理の動作フローチャートである。
【図17】和音オフ判定処理の動作フローチャートである。
【図18】和音オフ動作処理の動作フローチャートである。
【図19】ノートオフ動作処理の動作フローチャートである。
【図20】手のx位置処理の動作フローチャートである。
【図21】シーケンス処理の動作フローチャートである。
【符号の説明】
101 CPU
102 ROM
103 RAM
104 データ入力部
105 表示部
106 操作部
107 音源
108 サウンドシステム
300 鍵盤
301〜306 基点
801 データ生成部
802 リアルタイム処理部
803 動作制御データ生成部
804 データ送出部
805 動作表示部
806 音源部
807 楽譜表示部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for displaying, for a performance operation group such as a keyboard, which is a target of a performance operation, an operation at the time of performing an operation as the performance progresses.
[0002]
2. Description of the Related Art
At present, many keyboard instruments have a navigation function for sequentially notifying a user (performer) of a key to be pressed (operated) in accordance with the progress of a performance. However, many users who use the navigation function are technically inexperienced, and even though the navigation function can know the key to be pressed next, it does not know which finger to press the key. This is the actual situation. For this reason, keyboard musical instruments equipped with a device for displaying a finger to be used for depressing a key (performance operation display device) have been commercialized. By using the performance operation display device, it is possible to perform a performance conscious of how to carry a finger, so that a more efficient practice (learning) can be performed for the user.
[0003]
Many of the performance operation display devices simply display the finger to be used for the next key press (operation). However, the way in which a finger is carried to a key to be pressed (operated) is not merely a matter of carrying a finger to the key. Sometimes they carry a finger under another finger, or carry a finger across another finger. This means that when only a finger is displayed, the user cannot always immediately understand how to carry the finger and depress (operate) the key. For this reason, as disclosed in, for example, Japanese Patent Application Laid-Open No. 10-39939, a performance operation display device has been devised that displays not only the finger to be used but also how to carry the finger in a more easily understood form.
[0004]
In the conventional performance display device disclosed in Japanese Patent Application Laid-Open No. 10-39939, the finger to be used for key-depression is displayed by displaying the finger at the time of key-depression (the part beyond the wrist). It informs the user when to use it. However, when the key to be pressed next is separated from the key currently being pressed, the hand or finger usually has to be moved greatly. This means that even when the finger at the time of key depression is displayed, the user cannot always immediately understand how to shift to the displayed finger shape. For this reason, the conventional performance display apparatus has a problem in that it is difficult to understand the overall movement of the fingers.
[0005]
In the above-mentioned conventional performance operation display device, a finger used for key pressing is moved using computer graphics (hereinafter abbreviated as CG) technology. By the movement of the finger, the user can know the finger to be used for key pressing. However, the movement of the finger is a movement after the finger is shaped when the key is pressed. For this reason, it is not possible to inform the user how to shift to the shape of the finger at the time of key depression by the movement of the finger.
In addition, the shape of the finger at the time of key depression must be more realistic and reasonable. Particularly, in an actual performance, the bending angle of the hand is adjusted so that the bending angle of each finger does not become too large.
[0006]
An object of the present invention is to provide a technique for displaying a finger movement during a performance in a form that can be easily understood by a user.
[0007]
[Means for Solving the Problems]
A performance operation display device according to the present invention includes an event data indicating the content of an event to be generated on a performance operator group, time data indicating an occurrence timing of the event, and a finger for designating a finger to be used for generating the event. Musical sound / fingering data acquisition means for acquiring musical sound / fingering data composed of data, and at least a performance operator group based on the musical sound / fingering data acquired by the musical sound / fingering data acquiring means. Motion control data generating means for generating motion control data representing the position and rotation angle of the finger, and a moving picture display of the finger motion for operating the performance operation group based on the motion control data from the motion control data generating means Moving control data generating means, and the motion control data generating means has a rotation angle of each finger. U The wrist rotation angle is set so that the maximum value becomes the smallest.
[0008]
The recording medium of the present invention includes event data representing the contents of an event to be generated on a performance operation group to be performed, time data indicating the timing of occurrence of the event, and a finger to be used for generation of the event. An acquisition procedure for acquiring musical sound / fingering data composed of finger data designating a finger, and at least a position and a rotation angle of a finger on a performance operator group based on the musical sound / fingering data acquired in the acquiring procedure. A program for executing a generation procedure for generating motion control data representing the motion control data, and a display procedure for displaying a moving image of a finger operating a performance operator group based on the motion control data from the generation procedure. This is a computer-readable recording medium that has been recorded, and the generation procedure is based on the rotation angle of each finger. U The wrist rotation angle is set so that the maximum value becomes the smallest.
[0009]
In the present invention, a group of performance operators For example, operation control data representing the position and rotation angle (bending angle) of a finger at the time of a key press or key release operation on a keyboard is generated, and based on this operation control data, A moving image of the performance operation by the finger is displayed. By expressing a series of performance operations in a moving image in this manner, it becomes possible for the user to easily understand the operation of the fingers during the performance.
[0010]
Further, in the present invention, since the bending angle of the hand to be played is adjusted so that the bending angle of each finger is minimized, the operation display of the finger which is extremely easy and is very close to the actual performance is performed.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a circuit configuration diagram of the performance operation display device according to the present embodiment. This performance operation display device is realized as a device that acquires musical sound / fingering data, which will be described later, from the outside, and displays the motion of a finger during performance in a moving image based on the acquired musical sound / fingering data.
[0012]
As shown in FIG. 1, the performance operation display device includes a CPU 101 for controlling the entire device, and a program executed by the CPU 101. B ROM 102 storing various control data (including various data for image display), a RAM 103 used by the CPU 101 for work, and a data input unit for acquiring various data including the above-mentioned musical tone and fingering data. 104, a display unit 105 for displaying data transmitted from the CPU 101 on the screen, an operation unit 106 to be operated by the user, a sound source 107 for generating musical sound waveform data in accordance with an instruction from the CPU 101, and the sound source 107 The sound system 108 is configured to convert the waveform data output by the CPU into sound and emit the sound, and a bus 109 that connects the CPU 101 to each of the units 102 to 107.
[0013]
The data input unit 104 is, for example, a floppy (registered trademark) disk drive (FDD). The display unit 105 is a display device such as a CRT or a liquid crystal display device. The operation unit 106 is an input device including a plurality of operators such as various switches and keys, and a detection circuit that detects an operation on the operators. The sound system 108 is a system including, for example, a D / A converter, an amplifier, and a speaker. The data input unit 104 may be an interface that can receive at least a signal output from an external device, or a communication control device that performs communication with a predetermined network.
[0014]
As shown in FIG. 2, the musical sound / fingering data is configured by adding fingering data to the musical sound data. The musical tone data is performance data (sequence data) which is usually used for playing a performance, and includes musical scale (pitch) data of the musical tone and whether the tone is started (note-on event) or muted (note-off event). The type data representing the type of the event including the data, and the pitch data of the musical tone and the time data indicating the timing at which the event specified by the type data occurred are defined as one unit of data (hereinafter referred to as unit musical tone data for convenience). The unit musical tone data is arranged in the order of occurrence of the event. The fingering data is finger number data indicating a finger to be used for generating an event represented by the unit musical sound data, which is added to each unit musical sound data. As finger numbers, 0 is assigned to the thumb, 1 to the index finger, 2 to the middle finger, 3 to the ring finger, and 4 to the little finger.
[0015]
Usually, the fingering data includes at least hand data indicating whether the finger to be moved is the right hand or the left hand, in addition to the finger number data, and these data are added to each unit tone data. However, here, in order to avoid confusion and facilitate understanding, only the right hand will be focused on and hand data and the like will not be considered. The time data is data representing the occurrence timing of the event at a time interval (delta time) between the events, and the type data and the pitch data are data constituting, for example, MIDI data.
[0016]
In the tone data (performance data), the start of tone generation (on) and the mute (off) of the tone are treated as separate events, and the tone generation period of the tone is specified by those events. However, the musical sound data may be a collection of those events. That is, the unit musical tone data includes, for example, pitch data, time data for specifying a sound generation start timing of a musical tone specified by the pitch data, and time length data for specifying a time length (gate time) for generating the musical sound. May be configured. As is clear from this, the format of the musical sound data is not particularly limited.
[0017]
The operation of the above configuration will be described.
When the power is turned on, the CPU 101 reads and executes a program stored in the ROM 103 to start control of the entire apparatus, and causes the display unit 105 to display an initial screen. Thereafter, the control is performed according to the operation on the operation unit 106 by the user.
[0018]
The CPU 101 generates image data for displaying the initial screen using a plurality of image data read from the ROM 102 using, for example, the RAM 103 for work. The display unit 105 to which the image data of the initial screen thus generated is sent is stored in a memory (not shown) (for example, a dual port RAM). For example, the CPU 101 reads, from the ROM 102, image data of a portion of the image data stored in the memory where data should be rewritten, or generates the image data using the whole or partial change of the display content thereafter. Then, the image data obtained in this way is overwritten on a portion of the memory where the image data is to be rewritten. In this way, the CPU 101 causes the display unit 105 to display a screen to be displayed, a message, a finger expressing a performance operation to be described later, and the like as necessary.
[0019]
When the user operates the operation unit 106 to instruct reading of data of a file stored in a floppy (registered trademark) disk (FD), data indicating the instruction is transmitted from the operation unit 106 to the CPU 101 via the bus 109. Can be The CPU 101 that has received the data sends a command instructing the data input unit (FDD) 104 to read the data, and then stores the data of the file sent from the data input unit 104 in the RAM 103. In this way, data specified by the user, including musical sound and fingering data, is obtained from the FD in file units.
[0020]
The specification of a file from which data is read by the CPU 101 is not particularly described in detail, but the user operates the operation unit 106 to input a file name, or displays a list of files stored in the FD on the display unit 105. Then, by selecting a file from among them, this is done. The file names to be displayed in the list are those received by the CPU 101 by causing the data input unit 104 to read out the file names stored in the FD.
[0021]
As in the conventional performance display apparatus disclosed in Japanese Patent Application Laid-Open No. H10-39939, displaying only the shape of the finger when the key is pressed basically means how to move the finger until the display changes to that shape. Is difficult for the user to understand. For this reason, in the present embodiment, the operation from the state of the finger up to that point to the state of the finger causing the event is displayed as a moving image in event units. In other words, how to move your hand from where to where, how to change which finger Sa To be displayed or not. In this way, when a series of finger movements during a performance are displayed in detail, the user can be understood without having to think about how to move the fingers.
[0022]
In order to display the motion of a finger during a performance in a moving image, data for that purpose (hereinafter, referred to as motion control data) must be generated. The data is generated from the musical sound / fingering data, but a heavy load is imposed on the generation depending on the target musical sound / fingering data. This means that reproducing the musical sound / fingering data (musical sound data) while generating the operation control data may cause a problem in generating the musical sound and in displaying the image. That is, there is a possibility that a tone cannot be produced at a timing at which a musical tone should be produced, or a movement of a finger cannot be displayed smoothly. For this reason, in the present embodiment, the operation control data is generated separately from the reproduction of the musical sound / fingering data.
[0023]
The generation of the operation control data is performed, for example, on musical sound and fingering data stored in the RAM 103 in a file format. When the user operates the operation unit 106 to designate (select) one of the musical tones and fingering data stored in the RAM 103 and instruct generation of operation control data, the CPU 101 performs the following operation. The operation control data of the musical sound / fingering data specified by the user is generated. The method of designating the musical sound / fingering data is basically the same as the method of designating the file to be read from the FD.
[0024]
FIG. 3 is a diagram illustrating the structure of the display finger.
Each part of the body can bend and move its joints. This is the same for fingers. For this reason, in the present embodiment, as shown in FIG. 3, the tip of the wrist is divided into a hand and five fingers. Each finger is further divided into three parts because three fingers can perform a bending operation. Hereinafter, the fingers to be displayed will be described with a “part” added to the end to distinguish them from those of the actual fingers.
[0025]
Reference numerals 301 to 306 in FIG. 3 are reference points for moving each part. Specifically, the base point 301 is the base point of the hand part, and corresponds to (the joint of) the wrist. The base point 302 is the base point of the thumb part and corresponds to the first joint. The base points 303 to 306 are the base points of the index finger part, the middle finger part, the ring finger part, and the little finger part, respectively, and correspond to the first joint of the corresponding finger.
[0026]
The state of the hand part is managed by the rotation angle hrz around the z-axis in addition to the positions hx, hy, and hz of the base point 301 on the x-, y-, and z-axes. Values indicating these are held by assigning them to prepared variables. Thereby, hand movements are expressed in three dimensions. The rotation angle hrz around the z-axis is determined by projecting the length La from the base point 301 of the hand part to the base point 304 of the middle finger part on the x-axis, from the position on the x-axis where the base point 304 is projected. The reference (0 degree) is a state in which the length obtained by subtracting the position on the x-axis where 301 is projected matches the length La. For example, the counterclockwise direction in FIG. 3 is positive, and the clockwise direction is negative. Thus, the relative positional relationship with the keyboard 300 in FIG. 3 can be arbitrarily changed. Note that a rotation angle around the x-axis and / or the y-axis may be further considered. The variables holding hx, hy, hz, and hrz will be described by adding the symbols at the end (variable hx, etc.).
[0027]
Each finger has three joints as described above. For this reason, not only the first joint but also the second and third joints are used as base points, and the distance between the first joint and the second joint, the distance between the second joint and the third joint, and the point beyond the third joint are each one. Part. Here, these parts are referred to as a finger first part, a finger second part, and a finger third part, respectively. The lengths L1, L2, and L3 are determined for each finger part since the lengths differ for each finger.
[0028]
The first joint of the finger moves in two directions (bending and stretching and opening and closing), and the other second and third joints move only in one direction. From this, the state of the first part of the finger is managed by the rotation angle frz about the z-axis on the base point corresponding to the first joint and the angle frx1 obtained by bending it from the back of the hand to the palm. The finger second part and the finger third part are managed on the base points corresponding to the second joint and the third joint, respectively, at angles frx2 and frx3 obtained by bending them from the back of the hand toward the palm. In this way, it is possible to imitate a movement such as widening or narrowing the space between the fingers, and stretching or bending the fingers. Note that the angles frx1 to frx3 for managing the states of the first to third parts of the finger are, for example, expressed based on a state where two parts connected via a base point are straight lines (0 degree). . Therefore, for example, in a state where the back of the hand and the second joint of the finger are linear, the angle frx1 is 0. Hereinafter, a motion that changes any of the angles frx1 to frx1 will be referred to as a vertical motion of the finger (finger part), and a motion that changes the rotation angle frz will be referred to as a horizontal motion of the finger (finger part).
[0029]
The values of frz and frx1 to frx1 are held by substituting the variables into prepared variables. Since these values must be held for each finger part, the variables are array variables, and the corresponding values are assigned to the elements specified by the finger numbers. Hereinafter, the array variables that hold frz and frx1 to frx1 will be described with the symbols added to the end (array variables frz, etc.).
[0030]
The base points 302 to 306 of each finger part move as the position of the base point (wrist) 301 of the hand part changes. As described above, each finger part can express a movement imitating a human finger. Therefore, an operation of moving a hand to depress an arbitrary key on the keyboard 300, an operation of a finger depressing or releasing a key, and an operation of a combination thereof can be expressed in a moving image. Since the expression is performed by displaying the operation of each part of the finger that operates the keyboard 300, the size and arrangement of the white keys and black keys on the keyboard 300, the positional relationship between the keys, and the like. The data is prepared in advance in the form of variables.
[0031]
FIG. 4 is a diagram illustrating the range of movement of the hand. The display state of the hand part is managed by the base point 301. FIG. 4 shows a range that can be taken as the position of the base point 301.
[0032]
The distance on the y-axis between the keyboard and the wrist differs depending on whether a key is pressed with a white key or a black key. As a matter of course, when the black key is pressed, the distance is smaller than when the white key is pressed. Even if the same white key or black key is pressed, the distance varies depending on whether a plurality of keys are pressed simultaneously or only one key is pressed. When a plurality of keys are pressed at the same time, the space between the fingers is widened, so that it is closer to the keyboard than when only one key is pressed. For this reason, in the present embodiment, YPOS1 is defined as the position on the y-axis of base point 301 when separated from keyboard 300, and YPOS2 is determined as the position when approached to keyboard 300.
[0033]
On the other hand, the distance between the keyboard and the wrist (palm) on the z-axis also changes depending on whether a plurality of keys are pressed simultaneously or only one key is pressed. When a plurality of keys are pressed at the same time, the entire hand is moved toward the keyboard, so that the distance is reduced. For this reason, in the present embodiment, ZPOS1 is determined as the position on the z-axis of the base point 301 when the keyboard 301 is separated from the keyboard 300, and ZPOS2 is determined as the position when the base point 301 is closer to the keyboard 300. By determining such a position, a difference in operation, such as whether a white key or a black key is pressed, whether a plurality of keys are pressed, or one key is pressed, is expressed.
[0034]
As shown in FIG. 3, a moving image of a finger divided into a plurality of parts is displayed by sequentially changing the state of each part in accordance with the progress of the performance. In this embodiment, the moving image control data for realizing the moving image display is generated in two stages. Here, for convenience, the data generated in the first stage is referred to as moving image control data A, and the data generated in the next stage is referred to as moving image control data B.
[0035]
The moving image control data A is transmitted from the CPU 101 to the length of each finger part (the length of the first to third parts of the finger) and the arrangement of the hand part in addition to the musical sound / fingering data as shown in FIG. It is generated with reference to data (parameters) prepared in advance, such as the arrangement of keys on the keyboard 300 and the shapes of various keys. The CPU 101 analyzes the unit tone data in the tone / fingering data, the finger number data added thereto, and the flow of the performance specified by the data, and performs the next event from the state of the finger in the event unit. The state of the finger to be shifted in order to generate the event is determined, and data specifying the state of the finger of the latter, that is, data specifying which part is to be changed in what manner is stored in the RAM 103. The speed at which you move your hand or finger depends on the length of the time interval between events. The shorter the time interval, the faster the hand or finger must move. Based on this, based on the time interval between events, the timing to start changing the state of the part and the time during which the change is continued are determined, and data indicating these is also stored in the RAM 103. The data generated and stored in this manner is the moving image control data A. The above analysis is performed by, for example, an algorithm used to generate fingering data added to the musical sound data. As a result, the obtained state of the finger does not become unnatural.
[0036]
By the generation of the moving image control data A, the state of the finger part to be released after the key release event is determined in the key release event. The state of another part is determined according to the transition to the state. Determining the state of other parts includes, for example, moving the hand part in accordance with the position of the key to be pressed and its type (white key or black key), and if there is a key being pressed, the key is depressed. Since the finger part being pressed cannot be released from the key, the distance between the finger parts is increased or decreased with the movement of the hand part. The CPU 101 divides the process up to the determined state into several stages, generates data indicating the state for each stage, and stores the data in the RAM 103 separately from the operation control data A. The data generated and stored in this manner is the operation auxiliary data B. In the present embodiment, as described later, the operation control data B is also generated in conjunction with the generation of the operation control data A in event units.
[0037]
FIG. 5 is a diagram illustrating the configuration of the operation control data generated and stored as described above. 2A shows the operation control data A, and FIG. 2B shows the operation control data B.
[0038]
The operation control data A includes, as shown in FIG. 5A, data for designating a variable whose value is to be changed or an element of an array variable (hereinafter, referred to as variable designation data), a variable, or an element of an array variable. Value data, which is the value after the change, operation time data indicating the time during which the part corresponding to the element of the variable or array variable is operating, and time data specifying the end of the operation of the part or the start of the operation , Data corresponding to one event in the performance (collectively referred to as unit operation data A). The value data and the operation time data exist for each variable designation data. Thus, the state of the part specified by the variable specified by the variable specifying data or the value of the element of the array variable can be changed independently. The time data in the unit operation data A matches the time data in the corresponding unit tone data in the tone and fingering data. In addition, since a set of variable designation data, value data, and operation time data indicate how a certain state quantity of a part is changed, these are hereinafter collectively referred to as part operation data. I do.
[0039]
The operation control data A shown in FIG. 5A is generated based on the musical sound / fingering data shown in FIG. 2 and represents that the following event, that is, a state change of the part is generated. I have. The description will be given in chronological order with reference to FIG.
[0040]
As shown in FIG. 2, the event specified by the first unit tone data in the tone / fingering data is the start of tone generation of a tone having a note name of “C3”. “C3” corresponds to 64 of the key number (note number). For this reason, the event represents the depressing of the key of the keyboard No. 64.
[0041]
The occurrence of the event is a timing designated by the value 100 of the time data, and no event exists before that. Each part defines an initial state (corresponding variable or initial value of an element of an array variable). Therefore, in order to display a state in which the event occurs, the hand part is moved to a position where the key can be pressed before the key of the keyboard No. 64 is pressed by the index finger part specified by the finger number data. Must be kept. Here, the hand part must be moved to a position where the value of the variable hx is obtained as 100 of the value data. The first unit operation data A in the operation control data A is generated for that purpose. That unit In the operation data A, the value of the time data is 0 and the operation time data is also 0. Therefore, as shown in FIG. 6A, this means that the hand part is displayed at a position on the x-axis where the value of the variable hx is 100 from the beginning.
[0042]
Note that the hand part does not have to be displayed at the position where the first key press can be performed. For example, after displaying at a predetermined position, the key may be moved from that position to a position where the key can be pressed by the time the key should be pressed. Since the values of the time data and the operation time data are expressed in a predetermined unit time, the unit of time specified by the value is called a unit time.
[0043]
In the next unit operation data A, the time data is 100, the variable specifying data specifies the array element frx1 [1] and the array element note [1], the value data is 10 as the value of the array element frx1 [1], and 64 is specified as the value of the variable note [1], and the operation time data is -5 for the array element frx1 [1] and 0 for the array element note [1]. This means that after 100 unit time has elapsed from the event represented by the immediately preceding (first) unit operation data A, an event of bending the index finger part with the first joint and pressing the key of the keyboard No. 64 is generated. I have. A negative value of the operation time data indicates that the bending at the first joint is started five unit times earlier than the timing specified by the time data. As a result, the index finger part starts the key pressing operation on the key of the keyboard No. 64 after 95 unit time has elapsed from the immediately preceding event, and the key pressing is completed when 100 unit time has elapsed. A 0 in the operation time data of the array variable note [1] indicates that the musical sound is started to be generated at the timing indicated by the time data.
[0044]
In the next unit operation data A, the time data is 50, the variable designation data specifies the array element frx1 [1] and the array element note [1], and the value data is 0 as the value of the array element frx1 [1]. 0 is specified as the value of the array variable note [1], and the operation time data is 2 for the array element frx1 [1] and 0 for the array element note [1]. This means that after 50 unit time has elapsed from the event represented by the immediately preceding unit operation data A, an event of extending the index finger part bent by the first joint and releasing the key of the keyboard 64 is generated. Represents. The value of the operation time data is positive. As a result, after 50 unit time has elapsed from the immediately preceding event, the index finger part starts to expand and releases the key on the keyboard 64, and then returns to the original position after 2 unit time has elapsed. 0 in the value data of the array variable note [1] indicates a key release, and 0 in the operation time data indicates that the musical tone is muted at the timing indicated by the time data.
[0045]
As described above, the unit operation data A in the operation control data A not only specifies which part should be shifted to which state when an event occurs, but also specifies the time required for the shift by the operation time data. Has become.
[0046]
One operation control data B is, as shown in FIG. 5B, a variable to be changed, or variable designation data for designating an element of an array variable, a variable, or a value after an element of an array variable is changed. The certain value data, the variable designation data, and the time data designating the timing of changing to the state designated by the value data are data representing one-stage operation (these are collectively referred to as stage operation data). It is configured. Naturally, the value of the time data in the step operation data is equal to or less than the value of the time data in the corresponding unit operation data A.
The number of part operation data constituting the unit operation data A, that is, the number of variables specified by the variable specification data or the number of elements of the array variable differs depending on the state up to that time, the content of the event, and the like. If you only need to bend the finger part, you only need to change the value of one array variable element. However, if a certain finger part is bent while widening the interval with another finger part, it is necessary to change the values of two elements in the finger part. For example, if the finger part is the middle finger part and the interval with the index finger part is to be increased, the ring finger part and the little finger part located outside the middle finger part will also be one each according to the horizontal movement of the middle finger part. You must change the value of the element. For this reason, FIG. 5B shows, for each part, a variable whose value can be changed and elements of an array variable. The thumb parts frz and frx1 to 3 are all array variable elements, and although not explicitly shown, they also exist in the index finger part, the middle finger part, the ring finger part, and the little finger part. The elements of each array variable are specified with the finger number of the finger part as an argument.
[0047]
The operation control data B shown in FIG. 5B is generated based on the operation control data A shown in FIG. The value of the operation time data in the unit operation data A located first in the operation control data A is 0, the value of the time data in the second unit operation data A is 100, and the first in the unit operation data A The value of the operation time data in the part operation data located at 5 The values of the time data in the second and third stage operation data are 95 and 2, respectively. As is apparent from this, the step operation data is generated based on the second unit operation data A, and is not shown in the drawing in order to express the key pressing operation by the index finger part. The array element frx1 [1] is designated by the variable designation data, and the value to be assigned to it is set as value data.
[0048]
FIG. 6 is a diagram illustrating an example of a finger motion display. FIG. 6 shows how the state of each part of a finger is changed according to the operation control data shown in FIG. 5. In FIG. 6A, in the musical tone / fingering data, the sounding start timing (key pressing timing) of the musical tone specified by the musical tone / fingering data and the silencing timing (key release timing) are indicated by arrows on the time axis. Is shown. The names of musical tones ("C", "F", etc.) are shown near the arrows. In the finger operation, the key-pressing operation start timing and the key-release operation start timing are indicated by arrows on the time axis. Numerals such as “1” and “2” written near the arrow are the finger numbers of the finger parts to be pressed or released. The hand x position shows the time change of the position of the hand part on the x axis. The hand y-position and the hand z-position show the time change of the position of the hand part on the y-axis and the z-axis, respectively. The 0 shown on the time axis of the hand z position indicates the reproduction start point of the musical sound / fingering data. Note that the hand x position, the hand y position, and the hand z position each relatively indicate movement from the initial position.
[0049]
As shown in FIG. 6A, the key pressing operation is started before the timing of actually generating a musical tone, and the key releasing operation is started in synchronization with the timing of silence of the musical tone. The position of the hand part on the x-axis starts moving after the start of the key release operation of the key with the note name “C”, and then toward the position where the index finger part can press the key with the note name “F”. The movement is completed before the key-pressing start timing. The position of the hand part on the y-axis is such that the tone names of the tones to be pronounced by the thumb part, the index finger part, the middle finger part, and the ring finger part are “D #”, “F”, “G”, and “B”, respectively. In order to express that the key “G” is pressed at the same time, the key “G” starts moving toward the keyboard 300 after the key is released, that is, moves from the position YPOS1 to the position YPOS2 shown in FIG. , And stays at the position YPOS2 until the key release starts, and after the key release starts moving from the position YPOS2 toward the position YPOS1. The position of the hand part on the z-axis is lowered toward the keyboard 300 from the start of the key press operation of these keys to the end of the key press of the last key. That is, during that time, the position moves from the position ZPOS1 shown in FIG. 4 to the position ZPOS2. The movement from the position ZPOS2 to the position ZPOS1 is performed from the start of the key release operation of those keys to the end of the key release of the last key.
[0050]
FIG. 6B is a diagram showing the position of the base point (wrist) 301 of the hand part at times (1) to (5) in FIG. 6 (a). The positions on the xy plane at the time points (1) to (5) are indicated by (1) to (5), respectively.
[0051]
As shown in FIG. 6B, the hand part first moves from the position indicated by (1) to the position indicated by (2). Next, in order to depress a plurality of keys at the same time, it moves to the position indicated by (3). As is apparent from the fact that the position indicated by (3) is the same as the position indicated by (4), the position remains at that position while a plurality of keys are pressed. The position indicated by (1) is the same as the position indicated by (5). For this reason, after releasing a plurality of keys, the key moves from the position indicated by (4) to the position indicated by (1).
[0052]
As described above, the movement of the finger is represented by a moving image by moving the hand part or changing the state of each finger part.
FIG. 7 is a diagram showing an example of an actual display.
[0053]
As shown in FIG. 7, actually, not only the right hand but also the left hand is displayed. The key being pressed is represented in a different display color from the others so that the user can easily recognize whether or not the key is being pressed. The display color may be changed only from the time of key depression (at the start of sound generation) to the time of key release (at the time of mute). However, the key to be pressed is notified in advance, or The display color may be changed to a plurality of colors in order to notify the user in advance. Although not described in detail, in the present embodiment, the size of each part of the finger is changed, that is, enlarged or reduced, the display of each part is transparently displayed, or the display is changed to a wire frame display. You can also change the angle, etc. If the user has a keyboard that is actually operated, the reproduction speed of the tone and fingering data (including the display speed of the performance operation) may be changed according to the performance speed of the user.
[0054]
The operation display of the finger part as shown in FIG. 6 is performed when the user operates the operation unit 106 to instruct reproduction of the musical sound / fingering data stored in the RAM 103. When the user gives the instruction, the CPU 101 processes the tone / finger data (here, only the tone data excluding the fingering data) and the operation control data B generated based on the tone / finger data in parallel. . Thereby, the operation of each part of the finger synchronized with the tone generation is displayed on the display unit 105. In the present embodiment, in addition, a musical score indicating the performance content from the musical sound data is displayed.
[0055]
FIG. 8 is a functional block diagram of the performance operation display device according to the present embodiment.
As shown in FIG. 8, the performance operation display device basically includes a data generation unit 801 that generates operation control data from musical sound / fingering data, and a musical sound / fingering data or operation control. It comprises a real-time processing unit 802 for reproducing data. The operation control data generation unit 803 generates the operation control data from the musical sound / fingering data in the data generation unit 801. In FIG. 1, for example, the CPU 101, the ROM 102, the RAM 103, the data input unit 104, the display unit 105, and the operation unit 106 correspond to the data generation unit 801 in FIG.
[0056]
On the other hand, the real-time processing unit 802 includes a data transmission unit (sequence processing unit) 804 that processes the operation control data and the musical sound data generated by the data generation unit 801, and operates the finger according to the operation control data transmitted from the data transmission unit 804. Display section 805 for displaying a tone, a tone for emitting a tone according to the tone data sent from the action display section 805 Source 806 and a musical score display section 807 for displaying musical scores in accordance with musical tone data sent from the musical instrument. In FIG. 1, for example, a CPU 101, a ROM 102, a RAM 103, a display unit 105, an operation unit 106, a sound source 107, and a sound system 108 correspond.
[0057]
Next, the operation of the CPU 101 for realizing the above-described generation and reproduction of the operation control data will be described in detail with reference to various operation flowcharts shown in FIGS.
[0058]
FIG. 9 is an operation flowchart of the operation control data generation process. In this generation processing, when the user operates the operation unit 106 to designate (select) one of the musical sound / fingering data stored in the RAM 103 and instruct the generation of the operation control data, the CPU 101 Is a process realized by executing a program stored in the ROM 102. The data generation unit 801 shown in FIG. 8 is realized by executing the generation processing. First, the generation process will be described in detail with reference to FIG.
[0059]
In this generation process, the unit tone data and the finger number data added thereto are sequentially read from the tone and fingering data specified by the user, and an event represented by the unit tone data is generated by the finger specified by the finger number data. Operation control data for displaying the state of the operation is generated. Here, the flow of processing is shown with emphasis on note-on events and note-off events as the types of events represented by the unit tone data.
[0060]
First, in step 901, initialization is performed. By the initial setting, initial values are substituted for various variables, and an area for storing operation control data is secured in the RAM 103. The variable pe for managing the unit tone data read from the tone / fingering data is assigned an address value storing the unit tone data located at the head thereof.
[0061]
In a step 902 following the step 901, it is determined whether or not the musical sound / fingering data is completed. For example, at the end of the musical tone / fingering data, unique data indicating the end of the data (hereinafter referred to as end data) is added. Therefore, if the data specified by the value of the variable pe is the end data, the determination is YES, and a series of processing ends here. Otherwise, the determination is no and the process moves to step 903.
[0062]
In step 903, after substituting the value of the variable tktime for the variable tkold, a value obtained by adding the value of the time data of the unit musical sound data specified by the variable pe to the previous value is substituted for the variable tktime. In the following step 904, it is determined whether or not the event represented by the unit tone data specified by the value of the variable pe is a note-on event. If the unit tone data indicates a note-on event, the determination is YES and the process moves to step 905; otherwise, the determination is NO and the process moves to step 915. Note that the value of the variable tktime is a value indicated by the time (absolute time) elapsed from the start of reproduction of the musical sound data, as is apparent from accumulating the value of the time data of each unit musical sound data. .
[0063]
In steps 905 to 909, processing is performed to correspond to the unit tone data representing the note-on event.
First, in step 905, various settings are made based on the unit tone data specified by the value of the variable pe. Thus, the value of the finger number data is substituted for the variable fig, the pitch data (keyboard number) is substituted for the variable note, and the unit operation data A is generated and stored from those values. After the completion of such substitution, the process proceeds to step 906. The unit operation data A generated here includes time data, variable specifying data specifying an array element note [fig] specified by the value of the variable fig, and value data (variable data) of the array element note [fig]. This is the note number of the key to be pressed by the finger part specified by the value of “fig” (see FIG. 5A).
[0064]
In step 906, when a note-on event represented by the unit tone data specified by the value of the variable pe occurs, it is determined whether or not another note-on event is occurring, that is, whether or not another key is pressed. I do. If no other key is depressed, the determination is YES and the process moves to step 907; otherwise, the determination is NO and the process moves to step 909 described below. Note that the determination of the key press is a determination assuming a virtual performance represented by the musical sound / fingering data. Hereinafter, for convenience, the description will be made on the assumption unless otherwise specified.
[0065]
In step 907, y position processing of the hand for determining the position of the hand part on the y axis is executed. In the following step 908, z position processing of the hand for determining the position of the hand part on the z axis is executed. Thereafter, in step 909, a note-on main process is performed to determine the contents for operating each part of the finger according to the note-on event represented by the unit musical sound data, while considering the relationship with other events. After executing the note-on-main processing, the flow shifts to step 910.
[0066]
In step 910, it is determined whether or not a value representing “TRUE” has been substituted for the variable bchord. If it is determined during the immediately preceding note-on-main process that the note event represented by the unit tone data is for generating a chord, a value representing "TRUE" is substituted for the variable bchord. Therefore, if it is determined at the time of execution of the note-on-main processing that the unit musical tone data is for generating a chord, the determination is YES and the process proceeds to step 913. Otherwise, the determination is no and the process moves to step 911.
[0067]
In step 911, x position processing of the hand for determining the position of the hand part on the x axis is executed. In the following step 912, the y-position re-processing of the hand for determining the position of the hand part on the y-axis is executed again. After executing this processing, other processing is executed in step 913. In step 914, the address of the next target musical tone data is substituted for the variable pe, and the process returns to step 902.
[0068]
In steps 907 to 909, 911, 912, and step 917 described later, part operation data is generated by focusing on parameters (variables or elements of array variables) accompanied by specific operations, and the generated unit operation data is unit operation. It is added to data A. Thus, when the process proceeds to step 913, the state in which each part of the finger is to be transferred is determined. Thus, in step 913, step operation data is generated from the unit operation data A and stored in the RAM 103. In the present embodiment, the generation is performed by dividing a time interval specified by the operation time data into a plurality of intervals and interpolating a straight line between the previous state and the state after the transition. In step 913, processing of unit tone data representing events other than the note-on event and the note-off event is also performed.
[0069]
On the other hand, in step 915 to which the determination in step 904 is NO and the process proceeds, it is determined whether or not the unit tone data specified by the value of the variable pe represents a note-off event. If the unit tone data indicates a note-off event, the determination becomes YES and the flow shifts to step 916. If not, the process proceeds to step 913.
[0070]
In step 916, various settings are made based on the unit tone data specified by the value of the variable pe. Thus, the value of the finger number data is substituted for the variable fig, the pitch data (keyboard number) is substituted for the variable note, and the unit operation data A is generated and stored from those values. After such an assignment is completed, step 9 17 Move to The unit operation data A generated here includes time data, variable specifying data specifying an array element note [fig] specified by the value of the variable fig, and value data of the array element note [fig] (here Is 0 because the key is released).
In a subsequent step 917, a note-off main process for generating operation control data (part operation data added to the unit operation data A) for operating each part of the finger at the time of the note-off event is executed. Thereafter, the flow shifts to step 910.
[0071]
As described above, in the operation control data generation processing, the operation control data is generated while sequentially changing the unit musical sound data for which the operation control data is to be generated and the finger number data added thereto. Thus, the operation control data is generated in event units in performance.
[0072]
Next, various subroutine processes executed in the operation control data generation process will be described in detail with reference to the operation flowcharts shown in FIGS.
[0073]
FIG. 10 is an operation flowchart of the hand y position processing executed as step 907. In the subroutine process, first, the y-position process of the hand will be described in detail with reference to FIG.
[0074]
The value indicating the position of the base point 301 on the y-axis is held in a variable hynew. In this kind of y position processing, a position where the base point 301 is to be arranged next is obtained, and a value indicating the position is substituted into a variable hynew.
[0075]
First, in step 1001, initialization is performed, and the value of the variable hynew is substituted for the variable hynow. In the following step 1002, the current unit tone data and the data after the finger number data are read, and it is determined whether the thumb or the little finger presses the black key by the time all keys are released next time. Determine whether or not. Next, until all keys are released, 0 or 4 is used as finger number data. Black key pitch If the unit tone data exists, the determination is YES and the process moves to step 1005. Otherwise, the determination is no and the process moves to step 1003.
[0076]
In step 1003, it is determined whether or not a value indicating the position YPOS1 (see FIG. 4) has been substituted into the variable hynow. If the value has been assigned to the variable hynow, the determination becomes YES, and the series of processing ends here. Otherwise, the determination is no and at step 1004 the position YPOS is stored in the variable hynew. 1 Is generated, and the part operation data for completing the movement to the position YPOS1 from the processing timing of the immediately preceding unit musical data to the processing timing of the current unit musical data is generated, and is added to the unit operation data A. Thereafter, a series of processing ends.
[0077]
On the other hand, also in step 1005 where the determination in step 1002 is YES and the process proceeds, it is determined whether or not the value indicating the position YPOS1 (see FIG. 4) is substituted for the variable hynow. If the value has not been assigned to the variable hynow, the determination is NO, and the series of processing ends here. Otherwise, the determination is yes and at step 1006 the position YPOS is stored in the variable hynew. 2 Is generated, and part operation data for completing the movement to the position YPOS2 from the processing timing of the immediately preceding unit musical tone data to the processing timing of the current unit musical tone data is generated, and then a series of processing is ended.
[0078]
As described above, in the y-position processing of the hand, when the user has to press the black key using the thumb or the little finger, the hand part is moved to the position YPOS2 so as to approach the keyboard 300 in advance. . In the state where all keys are released without using the thumb and the little finger including this time, the hand part is located at the position YPOS1.
[0079]
In addition to pressing the black key using the thumb or the little finger, when a plurality of keys are pressed with the finger widely opened, the distance between the hand and the keyboard on the y-axis is reduced. The position adjustment of the base point 301 of the hand part on the y-axis in order to cope with such a situation is performed by the re-processing of the y-position of the hand executed in step 912.
[0080]
FIG. 11 is an operation flowchart of the hand z-position process executed as step 908 in the operation control data generation process shown in FIG. Next, the processing will be described in detail with reference to FIG.
[0081]
A value indicating the position on the z-axis at which the base point 301 should exist at the present time is held in a variable hznow. The value of the variable tktime when the immediately preceding unit tone data is processed is stored in the variable tkold. As shown in FIG. 4, the base point 301 of the hand part takes one of the positions ZPOS1 and ZPOS2 on the z-axis. When the z-position process of the hand is executed, there is no key being pressed.
[0082]
First, in step 1101, it is determined whether or not a value indicating the position ZPOS1 has been assigned to the variable hznow. If the value has been assigned to the variable hznow, the determination is YES, and the series of processing ends here. Otherwise, that is, when the base point 301 of the hand part is located at the position ZPOS2, the determination is NO, and the process proceeds to step 1102, where the value of the variable tktime indicates the value from the timing indicated by the value of the variable tkold. By the timing, the part operation data for moving the base point 301 from the position ZPOS2 to the position ZPOS1 is created, and the part operation data is added to the unit operation data A and stored in the RAM 103. After that, a series of processing ends.
[0083]
FIG. 12 is an operation flowchart of the note-on main processing executed as step 909 in the operation control data generation processing shown in FIG. Next, the processing will be described in detail with reference to FIG.
[0084]
A value ("TRUE" or "FALSE") indicating whether or not a chord (chord) is being generated at the time of actually processing, ie, reproducing, the unit musical tone data to be processed is held in a variable bchord. . If a chord is being generated, the address of the unit tone data of the musical tone whose tone starts last in the musical tones constituting the chord is held in the variable pholdend. In the note-on main processing, the values of various variables including such variables are referred to.
[0085]
First, in step 1201, it is determined whether the value of the variable bchord is “TRUE”. If it is considered that a chord is being generated in a situation where the unit musical sound data to be processed is reproduced, since “TRUE” is substituted for the variable bchord, the determination is YES and the process proceeds to step 1207. Otherwise, the determination is no and the process moves to step 1202.
[0086]
In Step 1202, it is determined whether or not the value of the variable balloff is “TRUE”. If there is a key that has been pressed in a situation where the unit musical sound data to be processed is reproduced, the determination is no and the process moves to step 1206. Otherwise, the determination is yes and the process moves to step 1203.
[0087]
In step 1203, a chord determination process is performed to determine whether or not a chord is to be generated by the unit musical tone data to be processed and the subsequent unit musical tone data. In the chord determination process, if it is determined that a chord is to be generated by the unit tone data, "TRUE" is substituted for the variable bchord. After the execution, the process moves to step 1204.
[0088]
In step 1204, it is determined whether the value of the variable bchord is “TRUE”. If it is determined that a new chord is to be generated as a result of executing the above-described chord determination processing, the determination becomes YES, and in step 1205, after performing the chord operation processing for determining the content of the operation for generating the chord, The process ends. Otherwise, the determination is NO, and after executing the note-on operation processing for determining the content of the key pressing operation in step 1206, the series of processing ends.
[0089]
On the other hand, in step 1207 to which the determination in step 1201 is YES and the process proceeds, it is determined whether the value of the variable pholdend is equal to the value of the variable pe. The unit tone data specified by the value of the variable pe, that is, the unit tone data currently being processed, instructs the start of the last tone to be pronounced among the tones considered to constitute a chord. In this case, the determination is YES, and in step 1208, “FALSE” is substituted for the variable “bchord” and NULL (null value) is substituted for the variable “pchordend”. Then, a series of processing ends. Otherwise, the determination is no and the series of processing ends here.
[0090]
As described above, in the note-on main processing, the processing is branched depending on whether or not the musical sound for which the unit musical sound data instructs the start of sound generation constitutes a chord. Thereby, each part of the finger is operated according to whether to generate a chord or simply generate a musical tone.
[0091]
Here, various subroutine processes executed in the note-on main process will be described in detail with reference to FIGS.
FIG. 13 is an operation flowchart of the chord determination processing executed as step 1203. In the subroutine process executed in the note-on main process, first, the chord determination process will be described in detail with reference to FIG.
[0092]
First, in step 1301, initialization is performed. By performing the initial setting, the value indicating the processing time of the unit musical sound data which instructs the start of the musical sound first after the unit musical sound data specified by the value of the variable pe is substituted for the variable tknext. In the variable tknextoff, a value indicating, in absolute time, the processing timing of the unit tone data which instructs to silence the tone first after the unit tone data specified by the value of the variable pe is substituted.
[0093]
In step 1302 following step 1301, it is determined whether or not the value of the variable tknext is smaller than the value obtained by adding the value of the variable tktime to the value of the variable tktime. A value indicating a sound generation start interval between musical tones, which is a reference for determining whether or not a chord is formed, is substituted into the variable tkchord. From this, if the next musical tone starts to be produced within that interval, the determination is YES and the process moves to step 1303; otherwise, the determination is NO and the series of processes ends here. I do.
[0094]
In step 1303, it is determined whether or not the value of the variable tknextoff is larger than the value obtained by adding the value of the variable tktime to the value of the variable tktime. If there is no tone to be muted before the time indicated by the value of the variable tkchord has elapsed, the determination is YES, and “TRUE” is substituted for the variable bchord in step 1304, and then a series of processing ends. Otherwise, the determination is no, and a series of processing ends here.
[0095]
As described above, in the present embodiment, if there are a plurality of key presses (note-on events) within the time indicated by the value of the variable tkchord and there is no key release (note-off event) within the time, Musical sounds that start sounding within that time are regarded as constituting chords.
[0096]
FIG. 14 is an operation flowchart of the chord operation processing executed as step 1205 in the note-on main processing shown in FIG. Next, the chord operation processing will be described in detail with reference to FIG.
[0097]
First, in step 1401, an initialization process is performed. By executing the initialization processing, the value of the variable tktime is substituted for the variable tktime0, the value of the variable pe is substituted for the variable pe0, and NULL is substituted for the variable pholdend. In step 1402 and subsequent steps subsequent to step 1401, the value of the variable pe0 is sequentially incremented to specify a range of musical tones to be regarded as a chord and to determine the operation content of the chord.
[0098]
In step 1402, it is determined whether or not the musical sound / fingering data has been completed. If the data specified by the value of the variable pe0 is the end data located at the end of the musical tone / fingering data, the determination is YES and the process proceeds to step 1410; otherwise, the determination is NO. Move to step 1403.
[0099]
In step 1403, it is determined whether the value of the variable pe0 is equal to the value of the variable pe. If the values are equal, the determination is YES and the process moves to step 1405. Otherwise, the determination is no, and in step 1404, the value obtained by adding the value of the time data of the unit musical sound data designated by the value of the variable pe0 to the value up to that time is substituted for the variable tktime0. Move to In this way, the value indicating the timing at which the unit tone data after the unit tone data specified by the value of the variable pe is to be processed is assigned to the variable tktime0 in absolute time.
[0100]
In Step 1405, it is determined whether or not the value of the variable tktime0 is smaller than the value obtained by adding the value of the variable tktime to the value of the variable tktime. I mean Processing timing of unit tone data specified by the values of variables pe0 and pe, respectively Difference Is not within the time specified by the value of the variable tkchord, the determination is no and the process moves to step 1410. Otherwise, the determination is yes and the process moves to step 1406.
[0101]
In step 1406, the unit tone data specified by the value of the variable pe0 But It is determined whether or not it represents a key press (note-on event). If the unit tone data indicates a note-on event, the determination is YES, the value of the variable pe0 is substituted for the variable pholdend in step 1407, and note-on operation processing is executed in the following step 1408, and then the process proceeds to step 1409. I do. Otherwise, the determination is no and the process moves to step 1409.
[0102]
In step 1409, the address of the next unit tone data is substituted for the variable pe0. After that, the process returns to step 1402.
In this way, by repeatedly executing the processing loop formed in steps 1402 to 1409 until the determination in step 1402 is YES or the determination in step 1405 is NO, the variable pchordend contains a musical tone that is regarded as constituting a chord. Of these, the address value of the unit tone data of the tone whose tone generation starts last is substituted.
[0103]
On the other hand, in step 1410 to which the determination in step 1402 is YES or the determination in step 1405 is NO and the process moves, the hand part moves on the z-axis (here, from the position ZPOS1 shown in FIG. 4 to the position ZPOS2). (Moving action) is created. By creating the movement data, the base point 301 of the hand part starts moving at the timing indicated by the value of the variable tkstart0, and moves at the timing indicated by the value of the variable tktime. Z The movement to POS2 is terminated. After adding such part operation data to the unit operation data A, a series of processing is ended.
[0104]
The timing indicated by the value of the variable tkstart0 is the timing at which the operation of the finger part for generating the first musical tone to be produced among the musical tones constituting the chord starts, or the transition from key release to key press of each finger part. If the time until the key is pressed is relatively long, it is the timing indicated by the value obtained by subtracting the value indicating the reference time from the start of the key pressing operation to the key pressing from the value of the variable tktime. Thereby, the operation of each part of the finger for sounding the chord is made different depending on the situation where the chord sounds. In the example shown in FIG. 6, as a result of substituting the former value for the variable tkstart0, the movement of the hand part on the z-axis starts in synchronization with the start of the key-pressing operation of the thumb part, and the movement on the z-axis is " D # "at the start of the tone generation. Note that , Basis The value indicating the quasi-time is substituted for the variable tkcost. A value indicating a reference time from the start of the key release operation to the completion of the operation is assigned to a variable tkoffcost.
[0105]
Next, the note-on operation processing executed as step 1206 in the above-described step 1408 or the note-on main processing shown in FIG. 12 will be described in detail with reference to the operation flowchart shown in FIG. In this process, the finger number data added to the unit tone data is assigned to a variable fig, and the pitch data in the unit tone data is assigned to a variable note.
[0106]
First, in step 1501, initialization is performed. In the initial setting, a value indicating, in absolute time, the processing timing of the unit musical sound data immediately before the note-off event to which the value of the variable fig is added as the finger number data is obtained, and the obtained value is substituted for the variable tkfoff. Is done.
[0107]
In step 1502 following step 1501, it is determined whether the value obtained by subtracting the value of variable tkoff from the value of variable tktime is smaller than the value obtained by adding the value of variable tkoffcost to the value of variable tkcost. That is, the time from the start of the key release operation of the finger part specified by the variable fig until the finger part is pressed is shorter than the time obtained by adding the reference time of the key release operation and the reference time of the key press operation. Is determined. If the former time is longer than the latter time, the determination is NO, and in step 1503, the variable tkstart is set to the variable tktime from the value of the variable tktime. kc After substituting the value obtained by subtracting the value of ost, the process proceeds to step 1504. If not, that is, if there is no room for performing the key release operation or the key press operation in the reference time, the determination is YES and the process proceeds to step 1506.
[0108]
In step 1504, the value of the variable tktime is substituted into the variable tkend as a value indicating the timing at which the key pressing operation ends. In the following step 1505, the finger part specified by the value of the variable fig starts the key pressing operation on the key indicated by the value of the variable note at the timing indicated by the value of the variable tkstart, and performs the operation at the timing indicated by the value of the variable tkend. Is completed, that is, the part operation data for performing the key pressing operation is created and added to the unit operation data A. The time indicated by the value of the operation time data in the part operation data is a variable t kc This is the time indicated by the value of ost. After the creation / addition, the series of processing ends.
[0109]
Unless the hand part is moved, the key may not be pressed with the finger part specified by the value of the variable FIG. The rotation angle frz of each finger part cannot be determined unless the position of the hand part is determined. For this reason, here, only the part operation data for simply performing the key pressing operation is created. Part movement data for moving the finger part sideways is created as needed when the x position processing of the hand in step 911 in the movement control data generation processing shown in FIG. 9 is executed. The part operation data created here is also modified as necessary.
[0110]
On the other hand, in step 1506, to which the determination in step 1502 is YES and the process proceeds, whether a value obtained by subtracting the value of the variable tktime from the value of the variable tktime and 0.2 is larger than the value of the variable tkoffcost is determined. Is determined. If the time obtained by multiplying the time from the start of key release to the next key press by 0.2 is longer than the reference time of the key release operation, the determination is YES, and in step 1507, the variable tkstart is set to the value of the variable tkfoff. After substituting the value obtained by adding the value of the variable tkoffcost into, the process proceeds to step 1504. Otherwise, the determination is no, and in step 1508, the value obtained by adding the value of the variable tkoffoff to the value obtained by multiplying the value of the variable tkoffcost by 0.8 is substituted for the variable tkstart, and the process proceeds to step 1504. If the value of the operation time data set when step 1505 is subsequently executed is shifted from step 1507 to step 1504, the value of variable tkfoff is subtracted from the value of variable tktime, and the variable tkoffco st Is the value obtained by subtracting the value of If the process has proceeded from step 1508 to step 1504, the value of the variable tkoff is subtracted from the value of the variable tktime, and the variable tkoffco is further subtracted from the result of the subtraction. st Is a value obtained by subtracting a value obtained by multiplying the value of 0.8 by 0.8.
[0111]
As described above, when the key release and key press by the same finger part are performed within a short time, at least one of the time required for the key release operation and the time required for the key press operation is adjusted to express those operations. Like that.
[0112]
In the note-on main process shown in FIG. 12, the various subroutine processes described above are executed. As a result, part operation data for expressing the operation of depressing the finger part is generated in subroutine processing units and added to the unit operation data A. In these part operation data, Number h z, array variable f Any of rx1 to rx1 to 3 is a value change target.
[0113]
FIG. 16 is an operation flowchart of the note-off main process executed as step 917 in the operation control data generation process shown in FIG. Next, the note-off main processing will be described in detail with reference to FIG.
[0114]
A value ("TRUE" or "FALSE") indicating whether or not there is a chord (chord) to be muted when actually processing, that is, reproducing, the unit musical tone data to be processed is held in a variable bchordoff. ing. If there is a chord, the address of the unit tone data of the last tone to be silenced among the tones constituting the chord is held in the variable pchordendoff. In the note-off main processing, the values of various variables including such variables are referred to.
[0115]
First, in step 1601, it is determined whether the value of the variable bchordoff is “TRUE”. When it is considered that there is a chord to be silenced in a situation where the unit musical sound data to be processed is reproduced, “TRUE” is assigned to the variable bchordoff, so that the determination is YES and the process proceeds to step 1606. Otherwise, the determination is no and the process moves to step 1602.
[0116]
In step 1602, a chord OFF determination process is performed to determine whether or not all chords are muted by unit tone data to be processed and subsequent unit tone data. In the chord off determination processing, when it is determined that the chord is muted by the unit musical tone data, "TRUE" is substituted for the variable bchordoff. After the execution, the flow shifts to step 1603.
[0117]
In step 1603, it is determined whether or not the value of the variable bchordoff is “TRUE”. If it is determined that the chord is to be silenced as a result of executing the chord off determination processing, the determination is YES, and after performing the chord off operation processing for determining the content of the operation for silencing the chord in step 1604, a series of processing is performed. To end. Otherwise, the determination is NO, and after executing the note-off operation processing for determining the content of the key release operation in step 1605, a series of processing ends.
[0118]
On the other hand, in step 1606 to which the determination in step 1601 is YES and the process proceeds, it is determined whether the value of the variable pholdendoff is equal to the value of the variable pe. If the unit tone data specified by the value of the variable pe, that is, the unit tone data that is currently being processed, indicates that the tone to be silenced last among the tones constituting the chord is to be silenced. If YES, at step 1607, "FALSE" is substituted for the variable bchordoff, and NULL is substituted for the variable pchordendoff, and then a series of processing ends. Otherwise, the determination is no and the series of processing ends here.
[0119]
As described above, in the note-off main processing, the processing is branched depending on whether or not the musical sound instructing the mute of the unit musical sound data constitutes a chord. Thus, the content for operating each part of the finger is determined according to whether the musical tones constituting the chord are to be muted or simply tones.
[0120]
Here, various subroutine processes executed in the note-off main process will be described in detail with reference to FIGS.
FIG. 17 is an operation flowchart of the chord off determination processing executed as step 1602. In the subroutine processing executed in the note-off main processing, first, the chord off determination processing will be described in detail with reference to FIG.
[0121]
First, in step 1701, initialization is performed. By performing the initial setting, the variable tknext is substituted with a value indicating, in absolute time, the processing timing of the unit tone data which instructs the start of tone generation first after the unit tone data specified by the variable pe. In tknextoff, a value indicating the processing timing of the unit tone data which instructs to silence the tone first after the unit tone data specified by the variable pe is assigned in absolute time.
[0122]
In step 1702 following step 1701, it is determined whether the value of the variable tknextoff is smaller than the value obtained by adding the value of the variable tktime to the value of the variable tktime. If there is no tone to be muted before the time indicated by the value of the variable tkchord has elapsed, the determination is NO, and a series of processing ends here. Otherwise, the determination is yes and the process moves to step 1703.
[0123]
In step 1703, it is determined whether the value of the variable tknext is greater than the value of the variable tktime plus the value of the variable tkchord. If the sounding of the next musical tone starts before the time indicated by the value of the variable tkchord has elapsed, the determination is NO, and a series of processing ends here. Otherwise, the determination is YES, and “TRUE” is substituted for the variable bchordoff in step 1704, after which a series of processes is terminated.
[0124]
As described above, in this embodiment, a plurality of musical tones are muted (note-on event) within the time indicated by the value of the variable tkchord, and a musical tone (note-off event) that starts sounding within that time is present. If not, the musical tone regarded as a constituent sound of the chord is said to be in a situation where it should be muted.
[0125]
FIG. 18 is an operation flowchart of the chord off operation processing executed as step 1604 in the note off main processing shown in FIG. Next, the chord off operation processing will be described in detail with reference to FIG.
[0126]
First, in step 1801, initialization processing is executed. By executing the initialization processing, the value of the variable tktime is substituted for the variable tktime0, the value of the variable pe is substituted for the variable pe0, and NULL is substituted for the variable pholdendoff. In step 1802 and subsequent steps subsequent to step 1801, the value of the variable pe0 is sequentially incremented to specify a range of musical tones to be regarded as a chord and to determine an operation content for silencing the chord.
[0127]
In step 1802, it is determined whether the musical sound / fingering data has been completed. If the data specified by the value of the variable pe0 is the end data located at the end of the musical tone / fingering data, the determination is YES and the process moves to step 1810; otherwise, the determination is NO. Move to step 1803.
[0128]
In step 1803, it is determined whether the value of the variable pe0 is equal to the value of the variable pe. If the values are equal, the determination is YES and the process moves to step 1805. Otherwise, the determination is no, and in step 1804, a value obtained by adding the value of the time data of the unit musical sound data specified by the value of the variable pe0 to the value up to that time is substituted for the variable tktime0, and then the process proceeds to step 1805. Move to In this way, the value indicating the timing at which the unit tone data after the unit tone data specified by the value of the variable pe is to be processed is assigned to the variable tktime0 in absolute time.
[0129]
In step 1805, it is determined whether or not the value of the variable tktime0 is smaller than a value obtained by adding the value of the variable tktime to the value of the variable tktime. If the processing timings of the unit tone data specified by the values of the variables pe0 and pe are not within the time specified by the value of the variable tkchord, the determination is NO and the process proceeds to step 1810. Otherwise, the determination is yes and the process moves to step 1806.
[0130]
In step 1806, it is determined whether or not the unit tone data specified by the value of the variable pe0 indicates a tone silence (note-off event). If the unit tone data indicates a note-off event, the determination is YES, the value of the variable pe0 is substituted for the variable pchordendoff in step 1807, and note-off operation processing is executed in step 1808. Transition. Otherwise, the determination is no and the process moves to step 1809.
[0131]
In step 1809, the address of the next unit tone data is substituted for the variable pe0. After that, the process returns to step 1802.
In this way, by repeatedly executing the processing loop formed in steps 1802 to 1809 until the determination in step 1802 is YES or the determination in step 1805 is NO, the variable pchordendoff is set to the variable pchordendoff, The address value of the unit tone data of the tone to be silenced last is substituted.
[0132]
On the other hand, in step 1810 to which the determination in step 1802 is YES or the determination in step 1805 is NO and the process moves, the hand part moves on the z-axis (here, from the position ZPOS2 shown in FIG. 4 to the position ZPOS1). Create part operation data that specifies the contents. The movement data is created such that the movement starts at the timing indicated by the value of the variable tktime and reaches the position ZPOS1 at a predetermined speed. After the part operation data is generated and added to the unit operation data A in this manner, a series of processing is terminated.
[0133]
Part operation data for designating the content of movement of the hand part on the z-axis as the content of the chord silencing operation is generated as described above. Thus, in the example shown in FIG. 6, the hand part starts moving on the z-axis in accordance with the start of key release of the key to which the pitch of the thumb part “D #” is assigned.
[0134]
Next, the note-off operation processing executed in step 1808 or in step 1605 in the note-off main processing shown in FIG. 16 will be described in detail with reference to the operation flowchart shown in FIG. In this process, the finger number data added to the unit tone data is assigned to a variable fig, and the pitch data in the unit tone data is assigned to a variable note.
[0135]
First, in step 1901, initialization is performed. In the initial setting, after the unit tone data specified by the value of the variable pe, the pitch data in the unit tone data representing the note-on event to which the value of the variable fig is added as the finger number data is extracted. Substitution of the extracted pitch data into the variable nextnote is performed.
[0136]
In step 1902 following step 1901, it is determined whether the finger part specified by the value of the variable FIG is being used for key depression. In the case where the tone specified by the value of the variable "note" is not actually emitted, that is, even if there is no unit tone data indicating the start of tone generation of the tone, or even if the unit tone data exists, If the value of the variable FIG is not added as the finger number data, the determination is NO, and a series of processing ends. Otherwise, the determination is yes and the process moves to step 1903.
[0137]
In step 1903, it is determined whether or not the value of the variable note is equal to the value of the variable nextnote. If the values are not equal, that is, if the user must press a key different from the key previously pressed with the same finger, the determination is NO and the process proceeds to step 1904, where the variable fig After the finger part specified by the value generates the part operation data for starting the key release operation at the timing specified by the value of the variable tktime, a series of processing ends. The movement data is used to expand the space between the finger part that starts the key release operation and the next finger part. If For example, an operation of narrowing the interval and returning to the relaxed state is also performed. On the other hand, otherwise, the determination is YES and the process moves to step 1905, where the finger part specified by the value of the variable fig simply starts the key release operation at the timing specified by the value of the variable tktime. After the part operation data is generated, a series of processing ends. In the operation data, even if the space between the finger part for starting the key release operation and the adjacent finger part is widened, the space between the finger parts is not narrowed.
[0138]
As described above, in the present embodiment, the state of the finger part after the key release is determined in consideration of whether or not to use the finger part for the next key press. Thereby, it is avoided that the finger part not used for the next key press is kept in an extended state forever. For this reason, the finger part is simply changed from the start of key release to the end of the next key press. Up and down (frx) direction There is no need to move. As a result, not only can the performance action be expressed in a more natural form, but also the action of a finger part that generates a key press event or a key release event, and the action of other finger parts accompanying the action can be made more conspicuous. .
[0139]
In the note-off main process shown in FIG. 16, the various subroutine processes described above are executed. As a result, part operation data for expressing an operation of releasing a finger part is generated in subroutine processing units and added to the unit operation data A. In those operation data, Number h z, array variable f Any of rx1 to rx1 and frz is a value change target.
[0140]
FIG. 20 is an operation flowchart of the hand x-position processing executed as step 911 in the operation control data generation processing shown in FIG. Next, the x position processing of the hand will be described in detail with reference to FIG.
[0141]
First, in step 2001, the rotation angle frz of each finger part when it is moved in the horizontal direction based on the key pressed or pressed by the finger part, its arrangement, the length of each finger part, etc. The rotation angle hrz about the z-axis about the base point 301 (wrist) of the hand part in which the maximum angle (absolute value) is minimum is obtained. The range in which the finger can be moved laterally differs slightly from finger to finger. From this, the rotation angle hrz is determined in consideration of the range in which each finger can be moved horizontally. This prevents each finger part from moving laterally beyond the range in which the actual finger moves laterally.
[0142]
By executing step 2001, the arrangement of the hand part and each finger part on the xy plane is determined. From this, in step 2002 following step 2001, the key that each finger part is pressing or pressing, the key arrangement, the length of each finger part, the rotation angle frz, the rotation angle of the hand part The position hx on the x-axis of the base point 301 of the hand part is determined based on the hrz, the length La of the hand part (see FIG. 3), and the like. After that, the process moves to step 2003.
[0143]
In step 2003, the base point 301 of the hand part is moved to the position hx obtained in step 2002, or the rotation obtained in step 2001, from the timing specified by the value of the variable tkold to the timing specified by the value of the variable tktime. Part operation data to be set to the angle hrz is generated as necessary and added to the unit operation data A. If it is not necessary to change both the position hx and the rotation angle hrz, the part operation data is not created.
[0144]
When the arrangement of each finger part on the xy plane is determined, the rotation angle frz of each finger part is determined, and the key is depressed or the finger part to be depressed may be kept extended, or the second joint may be used. ,as well as No. It is also determined whether the joint must be bent at three joints (the third joint needs to be bent according to the bending at the second joint). When the finger part to be pressed is bent at the second joint, the angle at which the finger is bent at the first joint must be smaller than when the key part is extended and pressed. For this reason, in step 2003, the rotation angle of the base point 301 of the hand part is set to hrz, and if there is a finger part whose state should be changed by moving it to the position hx, the finger part is changed if necessary. In addition, new part operation data for changing the state of the part operation data is created, and the already created part operation data is corrected. Thereby, a moving image expression is realized in which another finger part is passed through, or a key is pressed across, or another finger part is moved horizontally in response to a lateral movement of the finger part. After performing the processing of step 2003 for performing such a thing, a series of processing ends.
[0145]
When the x position processing of the hand is executed, when an event represented by the unit tone data specified by the value of the variable pe occurs, or after the event, various variables that specify the state of each part of the finger and various array variables Among them, the values of everything except the variable hy are determined. The value of the variable hy is determined by the y-position reprocessing of the hand executed as step 912 following the x-value processing of the hand.
[0146]
FIG. 21 is an operation flowchart of the sequence processing. This sequence processing is performed by the CPU 101 executing a program stored in the ROM 102 when, for example, the user operates the operation unit 106 to instruct reproduction of music sound / fingering data specified (selected) in advance. This is the processing to be realized. The real-time processing unit 802 shown in FIG. 8 is realized by executing the sequence processing.
[0147]
The operation control data B shown in FIG. 5B is stored in an area different from the tone / fingering data. Naturally, the step operation data constituting the operation control data B is larger than the number of unit musical sound data constituting the musical sound / fingering data, and the processing timing thereof usually does not coincide with the processing timing of the unit musical sound data. . For this reason, the motion control data B and the musical sound / fingering data are processed in parallel.
[0148]
First, in step 2101, a variable timer tktimeE, tktimeM, and clock are substituted with 0, and variables pe and pm are substituted with initial values, respectively. Initialization is performed such that the interrupt signal output at a predetermined time interval is enabled and the execution prohibition of the timer interrupt processing is released. By releasing the execution prohibition, the value of the variable clock is incremented each time the timer interrupt processing is executed.
[0149]
In step 2102 following step 2101, a calculation is performed using the value of the variable clock and the value of the tempo data to calculate a value indicating the value of the variable clock in the unit of time data in the musical sound / fingering data. Substitute the result for the variable tktime. After that, it moves to step 2103.
[0150]
In steps 2103 to 2109, processing relating to reproduction of musical sound / fingering data is executed.
First, in step 2103, it is determined whether or not the musical sound / fingering data has been completed. If the data specified by the value of the variable pe is the end data located at the end of the musical tone / fingering data, the determination is YES and the process proceeds to step 2110; otherwise, the determination is NO. Move to step 2104.
[0151]
In step 2104, it is determined whether or not the value obtained by adding the value of the time data in the unit tone data specified by the value of the variable pe to the value of the variable tktimeE is equal to or greater than the value of the variable tktime. To the variable tktimeE, a value obtained by accumulating the value of the time data in the unit tone data processed up to that time, that is, a value indicating the processing timing of the unit tone data processed immediately before in absolute time is substituted. Therefore, when it is time to process the unit tone data specified by the value of the variable pe, the determination is YES and the process moves to step 2105. Otherwise, the determination is no and the process moves to step 2110.
[0152]
In step 2105, the value obtained by adding the value of the time data in the unit musical sound data specified by the value of the variable pe to the value up to that time is substituted for the variable tktimeE. Thereby, after substituting the value indicating the timing to process the next unit time data into the variable tktimeE, the unit musical tone data at the processing timing is processed according to the type of the event represented by the processing, and the processing In accordance with the progress of the performance, the display page is changed, the display color of the note corresponding to the newly generated musical tone is changed, and the address pe advanced by one event from the previous address value to the variable pe. (Steps 2106 to 2109), the process proceeds to step 2110. The processing of the unit musical sound data is performed by the CPU 101 generating a command to be transmitted to the sound source 107 from the data and transmitting the generated command.
[0153]
In steps 2110 to 2115, processing for operating each part of the finger according to the operation control data B is performed.
First, in step 2110, it is determined whether or not the operation control data B has been completed. If the step operation data specified by the value of the variable pm does not exist in the operation control data B, the determination is YES and the process proceeds to step 2115. Otherwise, the determination is NO and the process proceeds to step 2111. Transition.
[0154]
In step 2111, it is determined whether or not the value obtained by adding the value of the time data in the step operation data specified by the value of the variable pm to the value of the variable tktimeM is equal to or greater than the value of the variable tktime. Similarly to the variable tktimeE, the variable tktimeM contains a value obtained by accumulating the values of the time data in the step operation data processed up to that time, that is, a value indicating the processing timing of the step operation data processed immediately before in absolute time. Has been assigned. Therefore, when it is time to process the step operation data specified by the value of the variable pm, the determination is YES and the process proceeds to step 2112. Otherwise, the determination is no and the process returns to step 2102.
[0155]
In step 2112, a value obtained by adding the value of the time data in the step operation data specified by the value of the variable pm to the value up to that time is substituted for the variable tktimeM. Accordingly, when the value indicating the timing at which the next step operation data is to be processed is substituted for the variable tktimeM, the flow shifts to step 2113 to change the state in each part of the finger according to the step operation data at the processing timing. A performance operation display update process is performed to update the display content indicating the performance operation by changing the state of the part to be performed. After the execution, in step 2114, an address value advanced by one event from the previous address value is substituted for the variable pm, and the process returns to step 2102. The display content is updated, for example, by the CPU 101 reading out from the ROM 102 image data of a portion of the image data stored in the memory of the display unit 105 whose data is to be rewritten, or generating the image data by using the image data. This is performed by overwriting the image data obtained as described above to a portion of the memory where the image data is to be rewritten.
[0156]
On the other hand, in step 2115 to which the determination in step 2110 is YES and the process proceeds, it is determined whether or not the musical sound / fingering data has been completed. If the data specified by the value of the variable pe is the end data located at the end of the musical sound / fingering data, the determination is YES and the series of processes is terminated; otherwise, the determination is NO. Then, the process returns to step 2102.
[0157]
By executing the above-described sequence processing, an image as shown in FIG. 7 is displayed on the display unit 105, and each part of the finger displayed thereon operates as shown in FIG.
[0158]
In the present embodiment, as shown in FIG. 6, the hand part basically starts operation at the processing timing of the unit musical sound data, but this is not necessarily required. As an operation during the performance, for example, there is a feature that the horizontal operation is completed before the start of the key pressing operation (Sekiguchi, Eiho: Generation and Display of Piano Performance Operation in Virtual Space, Information Processing Society of Japan Vol 99, No. 16). (1999)). For this reason, for example, in key pressing, each part of the finger is divided into a plurality of phases, for example, after the movement of the hand part and the finger part is completed, the key pressing operation by bending the finger part by the joint is started. You may make it operate.
[0159]
The base point 301 of the hand part is Good Although there are only two positions on the z-axis, ZPOS1 or ZPOS2, three or more positions or any position may be set. In such a case, the movement of a finger passing through or straddling another finger can be more appropriately expressed.
[0160]
Further, in the present embodiment, a keyboard is assumed as a performance operator group, and a performance operation on the keyboard is displayed. However, a performance operation on a performance operator group other than the keyboard may be displayed.
[0161]
In the present embodiment, the present invention is applied to a device equipped with the sound source 107 and the display unit 105, but the device to which the present invention can be applied is not limited to the device equipped with them. The sound source 107 may not be provided, and the display unit 105 may not be provided as long as it can be connected to an external display device.
[0162]
A program for realizing the operation of the performance operation display device may be recorded on a recording medium such as a CD-ROM, a floppy (registered trademark) disk, or a magneto-optical disk and distributed. Alternatively, part or all of the program may be distributed using a communication line such as a public network. In such a case, the user can apply the present invention to the device by acquiring the program and loading it into an arbitrary performance operation display device or a data processing device such as a computer. For this reason, the recording medium may be one that can be accessed by an apparatus that distributes the program.
[0163]
【The invention's effect】
As described above, the present invention provides a performance operation group based on musical sound and fingering data. For example, operation control data representing the position and bending angle (rotation angle) of a finger at the time of a key press or key release operation on a keyboard is generated, and based on this operation control data, A moving image of the performance operation by the finger is displayed. For this reason, the user can easily understand the finger movement during the performance.
Further, in the present invention, the playing hand (wrist) Bend angle of the finger Also small Bloom As a result, the operation display of the finger which is very reasonable and very close to the actual performance is performed.
[Brief description of the drawings]
FIG. 1 is a circuit configuration diagram of a performance operation display device according to an embodiment.
FIG. 2 is a diagram illustrating a configuration of musical sound / fingering data.
FIG. 3 is a diagram illustrating the structure of a finger for display.
FIG. 4 is a diagram illustrating a hand movement range.
FIG. 5 is a diagram illustrating a configuration of operation control data.
FIG. 6 is a diagram illustrating an example of a finger motion display.
FIG. 7 is a diagram showing an actual display example.
FIG. 8 is a functional block diagram of the performance operation display device according to the present embodiment.
FIG. 9 is an operation flowchart of an operation control data generation process.
FIG. 10 is an operation flowchart of a hand y position processing process.
FIG. 11 is an operation flowchart of a hand z-position process.
FIG. 12 is an operation flowchart of a note-on main process.
FIG. 13 is an operation flowchart of a chord determination process.
FIG. 14 is an operation flowchart of a chord operation process.
FIG. 15 is an operation flowchart of a note-on operation process.
FIG. 16 is an operation flowchart of a note-off main process.
FIG. 17 is an operation flowchart of chord off determination processing.
FIG. 18 is an operation flowchart of a chord off operation process.
FIG. 19 is an operation flowchart of a note-off operation process.
FIG. 20 is an operation flowchart of a hand x-position process.
FIG. 21 is an operation flowchart of a sequence process.
[Explanation of symbols]
101 CPU
102 ROM
103 RAM
104 Data input section
105 Display
106 Operation unit
107 sound source
108 sound system
300 keys
301 to 306 base point
801 Data generation unit
802 Real-time processing unit
803 operation control data generation unit
804 Data transmission unit
805 Operation display section
806 Sound source section
807 Music score display

Claims (2)

演奏操作の対象となる演奏操作子群に対し、演奏の進行に応じて演奏者が操作していく際の動作を表示する装置であって、
前記演奏操作子群上で発生させるべきイベントの内容を表わすイベントデータ、該イベントの発生タイミングを示す時間データ、及び該イベントの発生に使用すべき指を指定する指データから構成される楽音・運指データを取得する楽音・運指データ取得手段と、
前記楽音・運指データ取得手段にて取得された楽音・運指データに基づいて、少なくとも演奏操作子群上の手指の位置及び回転角を表わす動作制御データを生成する動作制御データ生成手段と、
前記動作制御データ生成手段からの動作制御データに基づいて、前記演奏操作子群を操作していく手指の動作を動画表示する動画表示手段と、
を有し、
前記動作制御データ生成手段は、前記各指の回転角のちの最大値が最も小さくなるように手首の回転角を設定することを特徴とする演奏動作表示装置。
A device for displaying an operation performed by a player in accordance with the progress of a performance for a group of performance operators to be performed,
A musical tone / operation composed of event data representing the content of an event to be generated on the performance operator group, time data representing the timing of occurrence of the event, and finger data designating a finger to be used for generating the event. Musical sound / fingering data acquisition means for acquiring finger data;
Operation control data generating means for generating operation control data representing at least the position and rotation angle of a finger on a performance operator group based on the musical sound / fingering data acquired by the musical sound / fingering data acquiring means;
Based on the operation control data from the operation control data generating means, a moving image display means for displaying a moving image of a finger operating the performance operator group,
Has,
The operation control data generating means, performance operation display device and sets the rotation angle of the wrist the like cormorants Chino maximum value of the rotational angle of each finger is minimized.
コンピュータに、
演奏操作の対象となる演奏操作子群上で発生させるべきイベントの内容を表わすイベントデータ、該イベントの発生タイミングを示す時間データ、及び該イベントの発生に使用すべき指を指定する指データから構成される楽音・運指データを取得する取得手順と、
前記取得手順にて取得された楽音・運指データに基づいて、少なくとも演奏操作子群上の手指の位置及び回転角を表わす動作制御データを生成する生成手順と、
前記生成手順からの動作制御データに基づいて、前記演奏操作子群を操作していく手指の動作を動画表示させる表示手順と、
を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であり、
前記生成手順は、前記各指の回転角のちの最大値が最も小さくなるように手首の回転角を設定することを特徴とするコンピュータ読み取り可能な記録媒体。
On the computer,
Consisting of event data representing the contents of an event to be generated on a performance manipulator group to be played, time data indicating the timing of occurrence of the event, and finger data designating a finger to be used for generating the event Acquisition procedure for acquiring musical sound and fingering data
A generation step of generating operation control data representing at least the position and the rotation angle of the finger on the performance operator group based on the musical sound / fingering data acquired in the acquisition procedure;
Based on the operation control data from the generation procedure, a display step of displaying a moving image of the finger operating the performance operator group in a moving image,
A computer-readable recording medium recording a program for executing
Wherein the generating step, the computer-readable recording medium characterized by setting the rotational angle of the wrist as the Hare Chino maximum value of the rotational angle of each finger is minimized.
JP2001217443A 2001-07-18 2001-07-18 Performance operation display device and recording medium Expired - Fee Related JP3548825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001217443A JP3548825B2 (en) 2001-07-18 2001-07-18 Performance operation display device and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001217443A JP3548825B2 (en) 2001-07-18 2001-07-18 Performance operation display device and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000085310A Division JP3521838B2 (en) 2000-03-24 2000-03-24 Performance operation display device and recording medium

Publications (2)

Publication Number Publication Date
JP2002091430A JP2002091430A (en) 2002-03-27
JP3548825B2 true JP3548825B2 (en) 2004-07-28

Family

ID=19051762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001217443A Expired - Fee Related JP3548825B2 (en) 2001-07-18 2001-07-18 Performance operation display device and recording medium

Country Status (1)

Country Link
JP (1) JP3548825B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3528003B2 (en) * 1993-07-20 2004-05-17 カシオ計算機株式会社 Performance guiding device
JP3684774B2 (en) * 1996-07-16 2005-08-17 ヤマハ株式会社 Performance instruction device and medium recording program
JP3753798B2 (en) * 1996-07-23 2006-03-08 新日鉄ソリューションズ株式会社 Performance reproduction device
JP3513830B2 (en) * 1997-10-21 2004-03-31 カシオ計算機株式会社 Performance fingering device
JP3454100B2 (en) * 1997-08-21 2003-10-06 ヤマハ株式会社 Performance parameter display

Also Published As

Publication number Publication date
JP2002091430A (en) 2002-03-27

Similar Documents

Publication Publication Date Title
JP3601350B2 (en) Performance image information creation device and playback device
JP2705568B2 (en) Automatic performance device
JP3968975B2 (en) Fingering generation display method, fingering generation display device, and recording medium
EP1575027B1 (en) Musical sound reproduction device and musical sound reproduction program
JP3728942B2 (en) Music and image generation device
JP4702160B2 (en) Musical sound synthesizer and program
JP3521838B2 (en) Performance operation display device and recording medium
JP2007183442A (en) Musical sound synthesizer and program
JP3684774B2 (en) Performance instruction device and medium recording program
JP3622275B2 (en) Automatic performance control data input method and automatic performance apparatus
JP4337288B2 (en) Performance operation display device and program
JP3548825B2 (en) Performance operation display device and recording medium
JP3528051B2 (en) Performance operation display device and recording medium
JP3799711B2 (en) Musical sound generation method and musical sound generator
JP2002099275A (en) Playing action display device and recording medium
JP3700442B2 (en) Performance system compatible input system and recording medium
JP4123242B2 (en) Performance signal processing apparatus and program
JP3654227B2 (en) Music data editing apparatus and program
JP3267226B2 (en) Automatic accompaniment device and medium recording automatic accompaniment control program
JP2002244657A (en) Playing signal processor, storage medium, and method and program for playing signal processing
JP2003029743A (en) Playing action display device, and recording medium
JPH10288987A (en) Electronic musical instrument and musical sound control data generating device
JP2904020B2 (en) Automatic accompaniment device
JP4162766B2 (en) Performance information generating apparatus and automatic performance apparatus
JP2002366148A (en) Device, method, and program for editing music playing data

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040329

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090430

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090430

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100430

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110430

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120430

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120430

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees