JP2013224999A - Program for implementing musical image display method and musical image display device - Google Patents
Program for implementing musical image display method and musical image display device Download PDFInfo
- Publication number
- JP2013224999A JP2013224999A JP2012096421A JP2012096421A JP2013224999A JP 2013224999 A JP2013224999 A JP 2013224999A JP 2012096421 A JP2012096421 A JP 2012096421A JP 2012096421 A JP2012096421 A JP 2012096421A JP 2013224999 A JP2013224999 A JP 2013224999A
- Authority
- JP
- Japan
- Prior art keywords
- video effect
- display
- video
- pointer
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、映像効果を複数記憶し、この複数の映像効果の中から選択されたいずれかの映像効果に基づいて、入力された演奏指示に応じた画面表示を行う音楽画像表示方法を実現するためのプログラムおよび音楽画像表示装置に関する。 The present invention realizes a music image display method for storing a plurality of video effects and performing screen display according to an input performance instruction based on any one of the video effects selected from the plurality of video effects. And a music image display apparatus.
映像効果を複数記憶し、この複数の映像効果の中から選択されたいずれかの映像効果に基づいて、入力された演奏指示に応じた画面表示を行う音楽画像表示装置は、従来から知られている。 2. Description of the Related Art Music image display devices that store a plurality of video effects and perform screen display according to an input performance instruction based on one of the video effects selected from the plurality of video effects are conventionally known. Yes.
このような音楽画像表示装置として、次のように構成されたものがある(たとえば、特許文献1参照)。すなわち、
(A)楽曲の各音楽的要素(メロディ、ハーモニーおよびリズム)にそれぞれ対応する複数の描画パターンを格納するメロディ用描画パターンデータベース、ハーモニー用描画パターンデータベースおよびリズム用描画パターンデータベースを記憶し、
(B)スタイル選択スイッチによって各音楽的要素についての各描画パターンを選択し、
(C)音楽イベント(演奏情報)を入力し、
(D)入力された音楽イベントを解析し、
(E)当該音楽イベントがメロディイベントであれば、メロディ用描画パターンデータベースを参照して、当該音楽イベントに対応する描画パターンの画像データを生成し、
(F)当該音楽イベントがハーモニーイベントであれば、ハーモニー用描画パターンデータベースを参照して、当該音楽イベントに対応する描画パターンの画像データを生成し、
(G)当該音楽イベントがリズムイベントであれば、リズム用描画パターンデータベースを参照して、当該音楽イベントに対応する描画パターンの画像データを生成し、
(H)メロディ表示スイッチ、ハーモニー表示スイッチおよびリズム表示スイッチのうちの2以上のスイッチがオン状態とされているときには、タイル表示スイッチ、重ね合わせスイッチあるいは時分割表示スイッチにより設定されている表示態様で、上記(E)〜(G)で生成した画像データのうち、上記オン状態とされている音楽的要素の画像データを表示する。
As such a music image display device, there is one configured as follows (for example, see Patent Document 1). That is,
(A) storing a drawing pattern database for melody, a drawing pattern database for harmony, and a drawing pattern database for rhythm for storing a plurality of drawing patterns respectively corresponding to each musical element (melody, harmony and rhythm) of the music;
(B) Select each drawing pattern for each musical element with the style selection switch,
(C) Enter a music event (performance information),
(D) Analyzing the input music event,
(E) If the music event is a melody event, refer to the melody drawing pattern database to generate image data of a drawing pattern corresponding to the music event;
(F) If the music event is a harmony event, refer to the harmony drawing pattern database to generate image data of a drawing pattern corresponding to the music event;
(G) If the music event is a rhythm event, the image data of the drawing pattern corresponding to the music event is generated with reference to the rhythm drawing pattern database;
(H) When two or more of the melody display switch, the harmony display switch, and the rhythm display switch are turned on, the display mode is set by the tile display switch, the overlay switch, or the time division display switch. Among the image data generated in the above (E) to (G), the image data of the musical element in the on state is displayed.
しかし、上記従来の音楽画像表示装置では、スタイル選択スイッチによって選択されるスタイルは、演奏あるいは再生対象の楽曲のスタイルであるため、当該楽曲が演奏あるいは再生されている間は、音楽的要素毎に同じ描画パターンの画像データが生成されて表示され、演奏あるいは再生の途中で、他の描画パターンに切り替え、この切り替え後の描画パターンの画像データを生成して表示することはできなかった。その結果、楽曲を再生あるいは演奏している最中に、複数の映像効果の変化を楽しみたいというユーザの要望や、当該変化をユーザに楽しませたいというメーカやクリエータの要望に応えることはできなかった。 However, in the above-described conventional music image display device, the style selected by the style selection switch is the style of the music to be played or played back. Therefore, while the music is being played or played, the style is selected for each musical element. Image data of the same drawing pattern is generated and displayed, and it is not possible to switch to another drawing pattern during performance or playback, and to generate and display image data of the drawing pattern after the switching. As a result, while playing or playing music, we cannot respond to the user's request to enjoy changes in multiple video effects, or the manufacturer or creator's request to make the changes enjoyable for the user. It was.
本発明は、この点に着目してなされたものであり、ユーザ、メーカおよびクリエータの上記要望に応えることができる音楽画像表示方法を実現するためのプログラムおよび音楽画像表示装置を提供することを目的とする。 The present invention has been made paying attention to this point, and it is an object of the present invention to provide a program and a music image display device for realizing a music image display method capable of meeting the above-mentioned demands of users, manufacturers, and creators. And
上記目的を達成するため、請求項1に記載のプログラムは、演奏指示を受け取る受取手順と、所定の条件が成立したときに、記憶手段に記憶された複数の映像効果からなる映像効果組からいずれか1つの映像効果を選択する選択手順と、前記選択手順によって選択された映像効果の表示態様を、前記受取手順によって受け取った演奏指示に応じて変動させて、表示手段に表示させる表示手順とをコンピュータに実行させるためのものであることを特徴とする。 In order to achieve the above object, a program according to a first aspect of the present invention relates to a receiving procedure for receiving a performance instruction and a video effect set comprising a plurality of video effects stored in a storage means when a predetermined condition is satisfied. A selection procedure for selecting the one video effect, and a display procedure for causing the display means to display the video effect selected by the selection procedure by changing the display mode of the video effect according to the performance instruction received by the reception procedure. It is for making a computer perform.
ここで「演奏指示」は、「演奏情報」に限らず、後述する図5のステップS7における「発音指示に応じたタッチ操作」も含む広い概念である。 Here, “performance instruction” is not limited to “performance information”, but is a broad concept including “touch operation in response to a sound generation instruction” in step S7 of FIG. 5 described later.
請求項2に記載のプログラムは、請求項1のプログラムにおいて、前記映像効果組から、選択すべき1つの映像効果を指定する指定情報を取得する取得手順をさらにコンピュータに実行させるものであって、前記選択手順では、前記映像効果組から、前記取得手段によって取得された指定情報によって指定される映像効果を選択することを特徴とする。
The program according to
請求項3に記載のプログラムは、請求項1のプログラムにおいて、前記選択手順では、前記映像効果組からいずれか1つの映像効果を選択するときに、所定の順序に従って選択することを特徴とする。
The program according to
上記目的を達成するため、請求項4に記載の音楽画像表示装置は、請求項1と同様の技術的思想によって実現できる。
In order to achieve the above object, the music image display device according to claim 4 can be realized by the same technical idea as that of
請求項1または4に記載の発明によれば、所定の条件が成立したときに、記憶手段に記憶された複数の映像効果からなる映像効果組からいずれか1つの映像効果が選択され、選択された映像効果の表示態様が、受け取られた演奏指示に応じて変動されて、表示手段に表示されるので、つまり、所定の条件は、楽曲の再生あるいは演奏とは独立して成立するので、楽曲を再生あるいは演奏している最中に、複数の映像効果の変化を楽しみたいというユーザの要望や、当該変化をユーザに楽しませたいというメーカやクリエータの要望に応えることができる。また、複数の映像効果からなる映像効果組を予め用意しておき、その組の中で各映像効果を切り替えるようにしたので、ユーザ、メーカおよびクリエータがその組を用意する際の意図、たとえば、楽曲に合うイメージの映像効果あるいは統一感のある映像効果を集めて組とし、その組の中で各映像効果を切り替えて、映像効果の変化を楽しみたいあるいは楽しませたいという意図を的確に反映させることができる。
According to the invention described in
以下、本発明の実施の形態を図面に基づいて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施の形態に係る音楽画像表示装置を含む音楽システムのシステム構成の一例を示す図である。 FIG. 1 is a diagram showing an example of a system configuration of a music system including a music image display device according to an embodiment of the present invention.
同図に示すように、本実施の形態の音楽画像表示装置は、タッチパネル11を備えた汎用のスレートデバイス(slate device)1(のCPU10)が所定の制御プログラムおよびアプリケーションプログラム(図5を用いて後述する映像効果表示・編集処理のプログラムを含む)を実行することによって実現されている。スレートデバイス1は、アダプタ4を介して直接、電子鍵盤楽器2および外部LCD(liquid crystal display)3と接続されている。
As shown in the figure, in the music image display device of the present embodiment, a general-purpose slate device 1 (CPU 10) having a
アダプタ4は、スレートデバイス1から入力された演奏情報を電子鍵盤楽器2に出力するとともに、電子鍵盤楽器2から入力された演奏情報をスレートデバイス1に出力する。またアダプタ4は、電子鍵盤楽器2から入力されたオーディオ信号をスレートデバイス1に出力する。さらにアダプタ4は、スレートデバイス1から入力された映像信号を外部LCD3に出力する。演奏情報のフォーマットとして、本実施の形態では説明の都合上、MIDI(musical instrument digital interface)形式のデータを採用している。もちろん、MIDIのフォーマットを採らない他のフォーマット、たとえばOSC(Open Sound Control)などの演奏情報であってもよい。
The adapter 4 outputs the performance information input from the
電子鍵盤楽器2は、図示例では、24鍵からなる鍵盤2aと、自動伴奏の各種セクション(“A”〜“D”)を切替指定する複数(4つ)のセクション指定スイッチ2bと、各種設定を行うための複数(6つ)のスイッチ2cと、各種情報を表示する小型のLCD2dと、楽音を発生するスピーカ2eとを備えている。電子鍵盤楽器2は、自動伴奏機能を備え、この自動伴奏機能により、たとえば内蔵メモリ(図示せず)に記憶された自動伴奏データを再生することで伴奏音をスピーカ2eから発生させ、この伴奏音に従って演奏者(ユーザ)が鍵盤2aを押鍵すると、その押鍵音もスピーカ2eから発生させる。そして電子鍵盤楽器2は、この伴奏音および押鍵音の発生とともに、この伴奏音および押鍵音に対応するMIDIデータ(主としてMIDIチャンネルメッセージであるが、SysExメッセージ(システム・エクスクルーシブ・メッセージ)の場合もある)およびオーディオ信号を生成して出力する。電子鍵盤楽器2から出力されたMIDIデータおよびオーディオ信号は、前述のようにアダプタ4を介してスレートデバイス1に送信される。また、ユーザがセクション指定スイッチ2bのいずれかを押すと、電子鍵盤楽器2は、押されたスイッチに割り当てられているセクション名(“A”〜“D”のいずれか)を含むMIDIデータ(この場合は、SysExメッセージ)を生成して出力する。なお、楽音についての各種パラメータ、たとえば、音色、テンポ、ピッチベンド、モジュレーション、アフタータッチ、フットペダル(サスティンペダル、ソフテヌートペダルおよびソフトペダルなど)の操作状態、フィルタ係数(カットオフ・レゾナンスなど)などの値が変更されたときなどにも、電子鍵盤楽器2は、その変更後の値を知らせるために当該パラメータの種類と値を含むMIDIデータを生成して出力する。
In the illustrated example, the
スレートデバイス1は、タッチパネル11上に1種類または複数種類(本実施の形態では、2種類)の映像効果を表示し、その表示態様を、電子鍵盤楽器2からの前記伴奏音および押鍵音に対応するMIDIデータの内容に応じて変動させて表示する。またこのとき、スレートデバイス1は、タッチパネル11に対するユーザのタッチ操作を受け付け、そのタッチ操作に応じた楽音信号を生成して発音するとともに、タッチパネル11上の映像効果の表示態様を当該タッチ操作に応じて変動させて表示するようにも構成されている。さらにスレートデバイス1は、タッチパネル11上に表示される映像効果を外部LCD3にも表示できるように、当該映像効果に対応する映像信号を生成して出力する。外部LCD3は、この映像信号を、アダプタ4を介して入力し、表示する。これにより、スレートデバイス1のタッチパネル11上に表示される映像効果と同様の映像効果が外部LCD3上に表示される。
The
なお本実施の形態では、スレートデバイス1と電子鍵盤楽器2および外部LCD3とは、アダプタ4を介して有線で接続されているが、これに限らず、無線で接続されていてもよい。また両者は、アダプタ4を介して直接1対1で接続される態様ではなく、LAN(local area network)やインターネット、電話回線等のネットワーク5を経由して接続される態様であってもよい。
In the present embodiment, the
また本実施の形態では、スレートデバイス1に電子鍵盤楽器2を外部接続し、伴奏音の生成と押鍵音(演奏音)の生成を電子鍵盤楽器2に任せるようにしたが、これに限らず、電子鍵盤楽器2の当該機能をソフトウェアによってスレートデバイス1内に実現させ、スレートデバイス1が電子鍵盤楽器2と協働して行う機能を、スレートデバイス1単独で行うようにしてもよい。
In the present embodiment, the
図2は、スレートデバイス1の概略構成を示すブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of the
同図に示すように、スレートデバイス1は、デバイス全体の制御を司るCPU(central processing unit)10を備えている。CPU10には、タッチパネル11、操作子12、各種センサ13,メモリ14、タイマ15、アダプタインターフェース(I/F)16、通信インターフェース(I/F)17およびサウンドシステム18が接続されている。
As shown in the figure, the
操作子12は、タッチパネル11上に表示されるソフトウェアボタンではなく、ハードウェアスイッチである。その典型例としては、電源スイッチ12a(図1参照)やリセットスイッチ(図示せず)などを挙げることができる。
The
各種センサ13には、マイクロフォン、地磁気センサ、GPS(Global Positioning System)、重力加速度も検出可能な加速度センサ、超音波センサ、カメラ、赤外線または可視光を検出する光センサなどが含まれる。
The
メモリ14には、CPU10によって実行される制御プログラムや各種アプリケーションプログラム、各プログラムによって画面表示に利用される画像データや発音に利用される音声データを含む各種データ等を記憶するROM(read only memory)と、上記画像データや音声データを含む各種データ、各種入力情報および演算結果等を一時的に記憶するRAM(random access memory)が含まれている。上記制御プログラムや各種アプリケーションプログラム、各種データ等は、本実施の形態では適宜、追加、削除あるいはアップデートできるようにするために、ROMとして、書き換え可能な不揮発性のもの、具体的にはフラッシュメモリを採用している。
The
タイマ15は、図8を用いて後述するタイマ割込み処理における割込み時間や各種時間を計時する。
The
アダプタI/F16は、スレートデバイス1にアダプタ4を接続させ、アダプタ4に接続された外部機器との間で各種データの送受信を行う。
The adapter I /
通信I/F17は、スレートデバイス1を前記ネットワーク5(図1参照)に接続させ、ネットワーク5に接続された他の機器との間で各種データの送受信を行う。他の機器として、サーバコンピュータ(図示せず)が接続された場合、上記プログラム等の追加、削除あるいはアップデートは、サーバコンピュータを介して行うようにしてもよい。この場合、通信I/F17は、サーバコンピュータから各種プログラムや各種データをダウンロードするために用いられる。クライアントとなるスレートデバイス1は、通信I/F17およびネットワーク5を介してサーバコンピュータへとプログラムやデータのダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求されたプログラムやデータを、ネットワーク5を介してスレートデバイス1へと配信し、スレートデバイス1が通信I/F17を介して、これらプログラムやデータを受信してフラッシュメモリに蓄積することにより、ダウンロードが完了する。
The communication I /
サウンドシステム18は、たとえば、DAC(digital-to-analog converter)やアンプ、スピーカ等によって構成される。サウンドシステム18は、CPU10が前記制御プログラムや各種アプリケーションプログラムを実行しているときに生成した楽音信号を音響に変換する。楽音信号は、本実施の形態では、CPU10が音源プログラムを実行することによって生成する、いわゆるソフトウェア音源によって生成する。もちろん、ソフトウェア音源を用いて楽音信号を生成する態様に限らず、ハードウェア音源を用いてもよいし、一部をハードウェアで構成し、残りをソフトウェアで構成した音源を用いてもよい。
The
なお本実施の形態では、音楽画像表示装置としてスレートデバイス1を採用したが、これに限らず、ポインティングデバイス(マウスなど)とディスプレイ装置からなる通常のPC(パーソナルコンピュータ)を採用してもよい。また、汎用的な装置に限らず、本発明を実施できる最小限要素のみから構成した専用装置上に本発明を構築してもよい。
In this embodiment, the
図3は、メモリ14に記憶された各種データ間のつながりを説明するための図である。
FIG. 3 is a diagram for explaining the connection between various data stored in the
同図に示すように、メモリ14のフラッシュメモリには、タッチパネル11上に表示される映像効果の基礎となる単体の映像効果データSEm(m=1,2,3,…)が多数記憶されている。各単体の映像効果データSEmは、たとえば、CPU10によって実行される実行コードと、実行コードが実行される際に利用される画像部品を表すデータとによって構成されている。この単体の映像効果データSEmは、一般的には、前記サーバコンピュータからダウンロードされてフラッシュメモリに記憶されるが、一部は、スレートデバイス1が工場から出荷されるときに予めフラッシュメモリに記憶しておくようにし、それ以外は、ユーザが必要に応じて、サーバコンピュータからダウンロードして追加するようにしてもよい。
As shown in the figure, the flash memory of the
図4は、単体の映像効果データSEmに基づいてタッチパネル11上に表示した映像効果の一例を示す図である。同図(a)〜(d)がそれぞれ、図3の映像効果データSE1〜SE4に対応するものとする。
FIG. 4 is a diagram illustrating an example of a video effect displayed on the
図3に戻り、フラッシュメモリには、複数(本実施の形態では、4つ)の映像効果を1組とする映像効果組#n(n=1,2,3,…)も多数記憶されている。各映像効果組#nは、セクションA〜Dのそれぞれに対応付けられた4つのポインタによって構成されている。各ポインタは、映像効果を指し示すものであるが、ポインタによっては、単体の映像効果データSEmではなく、ポインタ組を指し示すものもある。このポインタ組は、ミキシングされる映像効果MEk(k=1,2,3,…)である。 Returning to FIG. 3, the flash memory also stores a large number of video effect groups #n (n = 1, 2, 3,...) Each having a plurality of video effects (four in this embodiment). Yes. Each video effect group #n is composed of four pointers associated with sections A to D, respectively. Each pointer points to a video effect, but some pointers point to a set of pointers instead of the single video effect data SEm. This set of pointers is a mixed video effect MEk (k = 1, 2, 3,...).
映像効果組#nおよび映像効果MEkは、単体の映像効果データSEmと同様に、サーバコンピュータからダウンロードしてフラッシュメモリに記憶するようにしてもよいし、一部は工場出荷時に予め記憶され、その後、必要に応じて、サーバコンピュータからダウンロードして追加するようにしてもよい。また、映像効果組#nおよび映像効果MEkは、図5を用いて後述する編集モードが選択されたときに、ユーザの編集操作に応じて作成または変更し、フラッシュメモリに保存することもできる。 The video effect group #n and the video effect MEk may be downloaded from the server computer and stored in the flash memory in the same manner as the single video effect data SEm, or some of them are stored in advance at the time of shipment from the factory. If necessary, it may be downloaded from a server computer and added. Also, the video effect group #n and the video effect MEk can be created or changed according to the user's editing operation and stored in the flash memory when an editing mode described later with reference to FIG. 5 is selected.
ユーザがフラッシュメモリに記憶された映像効果組#nの中から、いずれか1つの映像効果組を選択すると、選択された映像効果組、つまり現映像効果組を指し示すポインタ(以下「現映像効果組へのポインタ」という)が、フラッシュメモリから読み出されて、メモリ14の前記RAMのワークエリアに記憶される。図示例では、映像効果組#1が選択され、映像効果組#1へのポインタが、現映像効果組へのポインタとしてRAMに記憶されている。
When the user selects any one of the video effect groups #n stored in the flash memory, a pointer indicating the selected video effect group, that is, the current video effect group (hereinafter, “current video effect group”). Is read from the flash memory and stored in the work area of the RAM of the
いずれか1つの映像効果組#nが選択され、現映像効果組へのポインタがRAMに記憶されているときには、現映像効果組に属する4つの映像効果(へのポインタ)のうちのいずれか1つが常に選択されている。現映像効果組へのポインタがRAMに記憶されていない状態から記憶されたり、他の映像効果組#nが選択されて、現映像効果組へのポインタが変更されたりしたときに、現映像効果組に属する4つの映像効果(へのポインタ)のうち、どの1つが選択されるかであるが、デフォルトで決まっていてもよいし、ユーザの指示を待ってその指示されたものが選択されるようにしてもよい。この選択された映像効果を指し示すポインタを、以下「現映像効果へのポインタ」という。図示例では、現映像効果へのポインタは、現映像効果組へのポインタに属する4つの映像効果へのポインタのうち、セクションBに対応付けられたものが選択されている。 When any one video effect group #n is selected and a pointer to the current video effect group is stored in the RAM, any one of the four video effects (pointer to) belonging to the current video effect group is stored. One is always selected. When the pointer to the current video effect group is stored from a state that is not stored in the RAM, or when another video effect group #n is selected and the pointer to the current video effect group is changed, the current video effect group is changed. Which one of the four video effects belonging to the set (pointer to) is selected, may be determined by default, or the designated one is selected after waiting for the user's instruction. You may do it. The pointer indicating the selected video effect is hereinafter referred to as “pointer to the current video effect”. In the illustrated example, as the pointer to the current video effect, the pointer corresponding to section B is selected from the four video effect pointers belonging to the pointer to the current video effect group.
このように図示例では、フラッシュメモリに記憶された映像効果組#nのうち、映像効果組#1が選択され、さらに映像効果組#1からセクションBに対応付けられた映像効果が選択されている。この選択により、現映像効果へのポインタと現映像効果組へのポインタがRAMに記憶される。
Thus, in the illustrated example, the video
メモリ14内のこの記憶状態で、ユーザがタッチパネル11上への映像効果の表示を指示すると、現映像効果へのポインタは、ミキシングされる映像効果ME1を指し示しているので、この映像効果ME1を構成する2つのポインタ、つまり第1パート(たとえば、メロディパート)および第2パート(たとえば、伴奏パート)にそれぞれ対応付けられた映像効果へのポインタが指し示す単体の映像効果データSE2およびSE4がフラッシュメモリから読み出される。読み出された映像効果データSE2およびSE4は、RAMのワークエリアに記憶される。そして、この映像効果データSE2およびSE4にそれぞれ含まれる前記実行コードがCPU10によって実行され、第1パートおよび第2パートそれぞれのパートの映像効果を表示するための各画像データが生成される。生成された第1パートの画像データは、RAMのワークエリアに設けられた領域(以下「第1パートの表示レイヤ」という)に記憶され、生成された第2パートの画像データは、同ワークエリアに設けられた領域(以下「第2パートの表示レイヤ」という)に記憶される。
When the user instructs display of the video effect on the
なお現映像効果へのポインタは、前述のように、1つの単体の映像効果データSEkを指し示す場合もある。図示例では、映像効果組#1のセクションAに対応付けられた映像効果がこの場合に該当する。この場合に、ユーザがタッチパネル11上への映像効果の表示を指示すると、単体の映像効果データSE2がフラッシュメモリから読み出されて、RAMのワークエリアに記憶される。そして、この映像効果データSE2に含まれる実行コードがCPU10によって実行されて、第1パートの画像データが生成され、上記第1パートの表示レイヤに記憶される。
Note that the pointer to the current video effect may point to one single video effect data SEk as described above. In the illustrated example, the video effect associated with the section A of the video
単体の映像効果データSE2は、映像効果組#1のセクションAおよびセクションBにそれぞれ対応付けられた2つの映像効果へのポインタによって指し示されている。つまり、単体の映像効果データSEkによっては、複数のポインタによって重複して指し示されることもある。
The single video effect data SE2 is indicated by pointers to two video effects respectively associated with the sections A and B of the video
以上のように構成されたスレートデバイス1が実行する制御処理を、まず図3および図4を参照してその概要を説明し、次に図5〜図8を参照して詳細に説明する。
The control process executed by the
前記図3のメモリ14内の記憶状態で、ユーザが図5を用いて後述する映像効果表示・編集処理を開始する指示を行うと、第1パートの表示レイヤと第2パートの表示レイヤとが、現在のミキシング設定に従って演算されてミキシングされ、その演算結果であるミキシング結果がタッチパネル11上に表示される。具体的には、図4(b)の映像効果と図4(d)の映像効果とが重ね合わされて、タッチパネル11上に表示される。ただし、図4の映像効果例は、その表示態様が変動中の映像効果を示しているので、映像効果表示・編集処理が開始された直後に、タッチパネル11上に表示される映像効果とは若干異なっている。
When the user gives an instruction to start a video effect display / editing process (to be described later with reference to FIG. 5) in the storage state in the
このタッチパネル11の表示状態で、電子鍵盤楽器2からMIDIデータが供給されたり、ユーザがタッチパネル11に対して発音のためのタッチ操作をしたりすると、それに応じて、タッチパネル11上の映像効果の表示態様が変動されて表示される。
When MIDI data is supplied from the
次にユーザが、セクション指定スイッチ2bのうち、たとえばセクションAを指定するスイッチを押すと、当該スイッチに割り当てられたセクションの名称、つまり「セクションA」を含むSysExメッセージが生成され、電子鍵盤楽器2からスレートデバイス1に送信される。スレートデバイス1は、現映像効果へのポインタを、現映像効果組へのポインタ内のセクションAに対応付けられたポインタに変更し、前述のように、そのポインタが指し示す単体の映像効果データSE2をフラッシュメモリから読み出して、RAMのワークエリアに記憶する。そしてスレートデバイス1は、映像効果データSE2に含まれる実行コードを実行し、第1パートの映像効果を表示するための画像データを生成して、第1パートの表示レイヤに記憶する。これ以降は、タッチパネル11上の映像効果は、第1パートの表示レイヤに記憶された画像データのみに基づいて表示されるので、図4(d)に対応する映像効果は表示されなくなる。
Next, when the user presses, for example, a switch that designates section A among the
さらにユーザが、他のセクション指定スイッチを押すと、当該セクション指定スイッチに割り当てられているセクションに対応付けられたポインタを介して、対応する1つまたは2つの単体の映像効果データSEkが読み出され、それに基づいて映像効果が切り替えられて、タッチパネル11上に表示される。
Further, when the user presses another section designation switch, the corresponding one or two single image effect data SEk is read out via the pointer associated with the section assigned to the section designation switch. Based on this, the video effect is switched and displayed on the
なお、現映像効果組内での現映像効果の切替選択方法は、上述のように、ユーザがセクション指定スイッチ2bのいずれかを押すことによって特定の1つに切替選択する方法に限らず、所定の時間が経過する毎に、所定の順序で切替選択する方法や、電子鍵盤楽器2から送信されて来るMIDIデータの内容に応じて切替選択する方法等があるが、その詳細は、制御処理の詳細で後述するので、ここではこれ以上説明しない。
Note that the selection method for switching the current video effect within the current video effect group is not limited to the method in which the user switches to a specific one by pressing any one of the section designation switches 2b as described above. There are a method of switching selection in a predetermined order every time elapses of time, a method of switching selection according to the contents of MIDI data transmitted from the
このように本実施の形態では、楽曲を再生あるいは演奏している最中に、複数の映像効果の中から、所定の事象の発生をトリガとしていずれかの映像効果が選択されて切り替えられるので、複数の映像効果の変化を楽しみたいというユーザの要望や、当該変化をユーザに楽しませたいというメーカやクリエータの要望に応えることができる。また、複数の映像効果からなる映像効果組を予め用意しておき、その組の中で各映像効果を切り替えるようにしたので、ユーザ、メーカおよびクリエータがその組を用意する際の意図、たとえば、楽曲に合うイメージの映像効果あるいは統一感のある映像効果を集めて組とし、その組の中で各映像効果を切り替えて、映像効果の変化を楽しみたいあるいは楽しませたいという意図を的確に反映させることができる。 As described above, in the present embodiment, during playback or performance of a song, one of the video effects is selected and switched from among a plurality of video effects as a trigger, It is possible to meet a user's request to enjoy a plurality of changes in the video effect and a manufacturer or creator's request to make the user enjoy the change. In addition, since a video effect set consisting of a plurality of video effects is prepared in advance and each video effect is switched in the set, the intention when the user, manufacturer and creator prepare the set, for example, Collect video effects with an image that matches the music or video effects with a sense of unity into a set, and switch each video effect within the set to accurately reflect the intention to enjoy or enjoy the change in the video effect. be able to.
次に、この制御処理を詳細に説明する。 Next, this control process will be described in detail.
図5は、スレートデバイス1、特にCPU10が実行する映像効果表示・編集処理の手順を示すフローチャートである。
FIG. 5 is a flowchart showing the procedure of the video effect display / editing process executed by the
本映像効果表示・編集処理は、フラッシュメモリに記憶されているアプリケーションプログラムの1つであり、ユーザが、たとえば、タッチパネル11上に表示されたメニュー画像(後述する図8のステップS44参照)内の対応するメニューをタッチ操作することにより、起動される。 This video effect display / editing process is one of the application programs stored in the flash memory, and the user can, for example, in a menu image displayed on the touch panel 11 (see step S44 in FIG. 8 described later). It is activated by touching the corresponding menu.
本映像効果表示・編集処理が起動されると、まずCPU10は、初期設定を行う(ステップS1)。初期設定では、主として
(1)RAMのワークエリアをクリア;
(2)現映像効果組へのポインタおよび現映像効果へのポインタをRAMに記憶;
(3)上記(2)の処理によって記憶された現映像効果へのポインタによって指し示される1つあるいは2つの単体の映像効果データSEmをフラッシュメモリから読み出してRAMに記憶し、記憶した映像効果データSEmに基づいて画像データを生成し、生成した画像データを表示レイヤに記憶;
(4)ミキシング設定、演奏情報とパートとの対応付け、および更新条件をRAMに記憶;
の各処理がなされる。
When the video effect display / editing process is activated, the
(2) storing a pointer to the current video effect group and a pointer to the current video effect in the RAM;
(3) One or two single video effect data SEm indicated by the pointer to the current video effect stored by the processing of (2) above is read from the flash memory, stored in the RAM, and the stored video effect data Generating image data based on SEm and storing the generated image data in the display layer;
(4) Mixing settings, association of performance information and parts, and update conditions are stored in RAM;
Each process is performed.
後述するように、本映像効果表示・編集処理が終了するときに実行される終了処理(ステップS16)により、現映像効果組へのポインタおよび現映像効果へのポインタは、フラッシュメモリの所定領域に保存されるので、上記(2)の処理では、CPU10は、その所定領域に保存された現映像効果組へのポインタおよび現映像効果へのポインタを読み出して、RAMに記憶する。ただし、本映像効果表示・編集処理が一度も起動されていない状態から初めて起動されたり、上記終了処理において現映像効果組へのポインタおよび現映像効果へのポインタが保存されなかったりした場合には、そもそも読み出すべき現映像効果組へのポインタおよび現映像効果へのポインタが存在しないので、その場合には、デフォルトの映像効果組およびその組の中のデフォルトのセクションに対応付けられた映像効果へのポインタを読み出して、現映像効果組へのポインタおよび現映像効果へのポインタとしてRAMに記憶するようにすればよい。
As will be described later, the end process (step S16) executed when the present video effect display / editing process ends, the pointer to the current video effect group and the pointer to the current video effect are placed in a predetermined area of the flash memory. In the process (2), the
上記(3)の処理における「表示レイヤ」には、本実施の形態では前述のように、第1パートの表示レイヤと第2パートの表示レイヤの2種類がある。そして、映像効果組#nを構成するセクション毎の映像効果へのポインタは、前述のように、単体の映像効果データSEmを差し示すものと、ミキシングされる映像効果MEkを差し示すものの2種類がある。前者のポインタは、1つの単体の映像効果データSEmしか指し示さないので、この場合の「表示レイヤ」は、第1パートの表示レイヤまたは第2パートの表示レイヤのいずれか一方、本実施の形態では、第1パートの表示レイヤを意味する。したがって、当該1つの単体の映像効果データSEmに基づいて生成した画像データは、第1パートの表示レイヤに記憶される。一方、後者のポインタは、ミキシングされる映像効果MEkを介して2つの単体の映像効果データSEmを指し示すので、この場合の「表示レイヤ」は、第1パートの表示レイヤおよび第2パートの表示レイヤの両方を意味する。したがって、ミキシングされる映像効果MEkを構成する2つのポインタのうち、第1パートに対応付けられたポインタが指し示す1つの単体の映像効果データSEmに基づいて生成した画像データは、第1パートの表示レイヤに記憶され、第2パートに対応付けられたポインタが指し示す1つの単体の映像効果データSEmに基づいて生成した画像データは、第2パートの表示レイヤに記憶される。 In the present embodiment, there are two types of “display layers” in the process (3) as described above: the first part display layer and the second part display layer. As described above, there are two types of pointers to the video effect for each section constituting the video effect group #n, indicating the single video effect data SEm and indicating the video effect MEk to be mixed. is there. Since the former pointer indicates only one piece of video effect data SEm, the “display layer” in this case is either the display layer of the first part or the display layer of the second part. Then, it means the display layer of the first part. Therefore, the image data generated based on the single video effect data SEm is stored in the display layer of the first part. On the other hand, the latter pointer points to two single image effect data SEm via the mixed video effect MEk. In this case, the “display layer” is the first part display layer and the second part display layer. Means both. Accordingly, the image data generated based on one single video effect data SEm indicated by the pointer associated with the first part among the two pointers constituting the video effect MEk to be mixed is displayed in the first part. Image data generated based on a single piece of video effect data SEm stored in the layer and pointed to by the pointer associated with the second part is stored in the display layer of the second part.
上記(4)の処理における「ミキシング設定」は、前述のように、第1パートの表示レイヤと第2パートの表示レイヤを重ね合わせる際の演算に使用するものである。このミキシング設定の具体例としては、重ね方(第1パートの表示レイヤと第2パートの表示レイヤのどちらを上にするか)、上に重ねられる表示レイヤの透過率、演算方法(AND,OR,XORなど)などを挙げることができる。 As described above, the “mixing setting” in the process (4) is used for calculation when the display layer of the first part and the display layer of the second part are overlapped. Specific examples of the mixing setting include how to overlap (whether the display layer of the first part or the display layer of the second part is on top), the transmittance of the display layer to be overlaid, and the calculation method (AND, OR). , XOR, etc.).
上記(4)の処理における「演奏情報とパートとの対応付け」は、後述する図7のステップS31の「MIDIチャンネルからパートに振り分け」処理で参照されるテーブルデータ(以下「演奏情報・パート対応テーブル」という)であり、第1パートおよび第2パートのそれぞれに対してMIDIチャンネルを重複なく対応付けたものである。ただし、すべてのMIDIチャンネルが常に、第1パートまたは第2パートのいずれかに対応付けられる必要はなく、いずれのパートにも対応付けられないMIDIチャンネルがあってもよい。 The “association of performance information and part” in the process (4) is the table data (hereinafter referred to as “performance information / part correspondence”) referred to in the “assignment from MIDI channel to part” process in step S31 of FIG. Table ") and MIDI channels are associated with each of the first part and the second part without duplication. However, all the MIDI channels do not always need to be associated with either the first part or the second part, and there may be a MIDI channel that is not associated with any part.
上記(4)の処理における「更新条件」は、現映像効果を現映像効果組の中の別の映像効果に変更する処理(後述するステップS6参照)をCPU10に実行させる条件である。なお、更新条件の内容については後述するので、ここではこれ以上説明しない。
The “update condition” in the process (4) is a condition for causing the
上記「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」はいずれも、上記(2)の処理における2つのポインタと同様に、終了処理によってフラッシュメモリの所定領域に保存されるので、上記(4)の処理では、CPU10は、その所定領域に保存された「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」を読み出して、RAMに記憶する。なお、「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」が保存されていないときには、デフォルトの「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」をRAMに記憶するようにすればよい。
Since the “mixing setting”, the “performance information / part correspondence table”, and the “update condition” are all stored in a predetermined area of the flash memory by the end process, like the two pointers in the process (2). In the process (4), the
次に、ユーザが演奏情報とパートとの対応付け、つまり上記「演奏情報・パート対応テーブル」の内容を変更する操作を行ったときには、CPU10は、その操作に応じた内容に演奏情報・パート対応テーブルを変更する(ステップS2)。この変更操作の典型例は、MIDIチャンネルを指定して、変更対象のパートに追加や削除を行う操作であるが、変更可能な演奏情報・パート対応テーブルの候補がいくつか用意されており、ユーザがその中からいずれかを選択指定すると、選択指定されたテーブルが前のものと置き換わるようにしてもよい。
Next, when the user performs an operation of associating the performance information with the part, that is, changing the content of the “performance information / part correspondence table”, the
また、ユーザがミキシング設定の内容を変更する操作を行ったときには、CPU10は、その操作に応じた内容にミキシング設定を変更する(ステップS3)。この変更操作は、上記ステップS2での変更操作と、変更対象が異なるだけで、操作方法は同様にすればよいので、これ以上説明しない。
When the user performs an operation for changing the content of the mixing setting, the
さらに、ユーザが更新条件を変更する操作を行ったときには、CPU10は、その操作に応じた条件に更新条件を変更する(ステップS4)。この変更操作の典型例は、変更可能な更新条件の候補がいくつか(本実施の形態では、後述する2種類)用意されており、ユーザがその中からいずれかを選択指定する操作であるが、更新条件を変更できれば、この操作方法に限らない。
Further, when the user performs an operation for changing the update condition, the
次にCPU10は、更新条件に合致したかどうかを判定し(ステップS5)、更新条件に合致したときには、現映像効果を現映像効果組内の別の映像効果に変更した(ステップS6)後、ステップS7に進む。ここで、更新条件と映像効果の変更方法には、本実施の形態では、
(C1)セクション変更指示の受信:変更が指示されたセクションに対応付けられたポインタが指し示す映像効果に変更;
(C2)所定時間の経過:所定の順序で、次の映像効果に変更;
の2種類があり、ユーザは、そのいずれかを選択できるように構成されている(前記ステップS4参照)。
Next, the
(C1) Reception of section change instruction: Change to the video effect indicated by the pointer associated with the section instructed to change;
(C2) elapse of a predetermined time: change to the next video effect in a predetermined order;
There are two types, and the user can select either one (see step S4).
上記(C1)の更新条件における「セクション変更指示」は、前述のように、SysExメッセージ内にセクションA〜Dのいずれかを埋め込んだものを電子鍵盤楽器2がスレートデバイス1に送信することによって行われる。したがって、上記(C1)の更新条件が選択された場合には、CPU10は、入力されたMIDIデータがSysExメッセージであるかどうか、SysExメッセージであれば、その中にセクションA〜Dのいずれかが埋め込まれているかどうかを判定することにより、更新条件に合致したかどうかを判定する。この判定の結果、更新条件に合致していれば、つまり、SysExメッセージにセクションA〜Dのいずれかが埋め込まれていれば、CPU10は、現映像効果へのポインタを、現映像効果組へのポインタ中、埋め込まれているセクションに対応付けられた映像効果へのポインタに変更する。そしてCPU10は、変更後の現映像効果へのポインタによって指し示される1つまたは2つの単体の映像効果データSEmをフラッシュメモリから読み出してRAMに記憶し、記憶した映像効果データSEmに基づいて画像データを生成し、生成した画像データを対応する表示レイヤに記憶させる。
The “section change instruction” in the update condition (C1) is performed when the
また上記(C2)の更新条件における「所定時間」は、前記タイマ15によって計時される。したがって、上記(C2)の更新条件が選択された場合には、CPU10は、タイマ15に「所定時間」の計時を行わせる。「所定時間」として、たとえば15秒が設定されているとすると、CPU10は、タイマ15が15秒を計時したかどうかを判定することにより、更新条件に合致したかどうかを判定する。この判定の結果、更新条件に合致すれば、つまり、タイマ15が15秒を計時すれば、CPU10は、現映像効果へのポインタを、現映像効果組へのポインタ中、次の映像効果へのポインタに変更する。ここで「次の」とは、「所定の順序」における「次の」である。「所定の順序」の例としては、
(O1)セクションA→B→C→D→A;
(O2)セクションD→C→B→A→D;
(O3)セクションA→B→C→D→C→B→A;
(O4)ランダム;
などを挙げることができる。ただし上記例では、「セクション」によって「所定の順序」を説明しているに過ぎず、実際に上記順序の「セクション」が選択される訳ではなく、「セクション」に対応付けられた映像効果へのポインタが選択される。そしてCPU10は、変更後の現映像効果へのポインタによって指し示される1つまたは2つの単体の映像効果データSEmをフラッシュメモリから読み出してRAMに記憶し、記憶した映像効果データSEmに基づいて画像データを生成し、生成した画像データを、対応する表示レイヤに記憶させる。なお、上記(C2)の更新条件が選択されるときには、「所定時間」も「所定の順序」もユーザが自由に設定できるようにすればよい。もちろんこれに限らず、デフォルトの「所定時間」および「所定の順序」が自動的に設定されるようにしてもよい。
The “predetermined time” in the update condition (C2) is counted by the
(O1) Section A → B → C → D → A;
(O2) Section D → C → B → A → D;
(O3) Section A → B → C → D → C → B → A;
(O4) Random;
And so on. However, in the above example, the “predetermined order” is only described by “section”, and the “section” in the above order is not actually selected, but the video effect associated with the “section” is selected. Is selected. Then, the
一方、ステップS5の判定で、更新条件に合致しないときには、ステップS6をスキップして、ステップS7に進む。 On the other hand, if it is determined in step S5 that the update condition is not met, step S6 is skipped and the process proceeds to step S7.
ステップS7では、CPU10は、発音指示のタッチ操作があったかどうかを判定する。本映像効果表示・編集処理の実行中に、動作モードが編集モードに移行していなければ、タッチパネル11上には現映像効果が表示されている。このタッチパネル11上の現映像効果に対して、ユーザがタッチ操作を行うと、CPU10は、そのタッチ操作を発音指示として検知する。ステップS7の判定は、この発音指示となるタッチ操作があったかどうかを判定する。
In step S <b> 7, the
ステップS7の判定の結果、発音指示のタッチ操作があったときには、CPU10は、発音指示に応じた制御処理を実行した(ステップS8)後、ステップS9に進む一方、発音指示のタッチ操作がなかったときには、CPU10は、ステップS8をスキップしてステップS9に進む。
As a result of the determination in step S7, when there is a touch operation for a sound generation instruction, the
図6は、この発音指示に応じた制御処理の詳細な手順を示すフローチャートである。 FIG. 6 is a flowchart showing a detailed procedure of the control process according to the sound generation instruction.
同図において、CPU10は、タッチパネル11上のタッチ位置から発音すべき楽音の音高を決定し、タッチ強度から当該楽音のベロシティを決定し、タッチの継続時間から当該楽音のデュレーションを決定し、決定された音高、ベロシティおよびデュレーションの楽音が発音されるように音源部に発音を指示する(ステップS21)。ここで、ベロシティを決定する基になる「タッチ強度」は、たとえば、前記各種センサ13に含まれる加速度センサからの出力、つまり、ユーザがタッチパネル11をタッチしたときに発生する振動に応じて加速度センサが出力する信号に基づいて算出される。また音源部は、本実施の形態では前述のように、ソフトウェア音源によって構成されているので、CPU10は、決定された音高、ベロシティおよびデュレーションを音源部に受け渡す。これに応じて、音源部は発音指示された楽音信号を生成し、生成した楽音信号をサウンドシステム18に出力する。
In the figure, the
そしてCPU10は、発音指示に応じて変動させるべき現映像効果の映像態様を決定し、決定された映像態様を第1パートの表示レイヤに反映させた(ステップS22)後、本制御処理を終了する。このステップS22における「現映像効果の映像態様を決定」は、RAMに記憶されている、第1パートの単体の映像効果データSEmに含まれる実行コードを、CPU10がタッチパネル11に対するユーザのタッチ操作に応じたタッチ情報(タッチ位置、タッチ強度およびタッチ継続時間など)に基づいて実行することによって行われる。現映像効果として、たとえば図4(c)の映像効果がタッチパネル11上に表示されているとする。ただし図4(c)の映像効果は、映像態様が変動された状態のものであるので、現映像効果は、映像態様が変動されていないもの、つまり、3本の柱が突き出ていない、5×5個の穴だけが空いているものである。この現映像効果がタッチパネル11上に表示された状態で、ユーザが、柱の位置の穴をタッチすると、タッチ強度に応じた長さの柱が穴から突き出てくる。図4(c)の映像効果例では、この3本の柱が、変動された映像態様である。
Then, the
図5に戻り、次にCPU10は、演奏情報を受信したかどうかを判定する(ステップS9)。この演奏情報は、本実施の形態では、電子鍵盤楽器2が送信したMIDIデータ、特にMIDIチャンネルメッセージである。つまり、同じMIDIデータであっても、SysExメッセージを受信した場合には、CPU10は、演奏情報を受信したとは判定しない。
Returning to FIG. 5, next, the
ステップS9の判定の結果、MIDIチャンネルメッセージを受信したときには、CPU10は、演奏情報に応じた制御処理を実行した(ステップS10)後、ステップS11に進む一方、MIDIチャンネルメッセージを受信しなかったときには、CPU10は、ステップS10をスキップしてステップS11に進む。
As a result of the determination in step S9, when a MIDI channel message is received, the
図7は、この演奏情報に応じた制御処理の詳細な手順を示すフローチャートである。 FIG. 7 is a flowchart showing a detailed procedure of the control process according to the performance information.
同図において、CPU10は、前記演奏情報・パート対応テーブルを参照し、受信したMIDIチャンネルメッセージのMIDIチャンネルが第1パートに対応付けられているか、第2パートに対応付けられているか、あるいはいずれのパートにも対応付けられていないかを判定し、判定結果に応じた処理に振り分ける(ステップS31)。具体的には、当該MIDIチャンネルメッセージが第1パートに対応付けられたものであれば、CPU10は、処理をステップS32に進め、当該MIDIチャンネルメッセージが第2パートに対応付けられたものであれば、CPU10は、処理をステップS33に進め、当該MIDIチャンネルメッセージがいずれのパートにも対応付けられたものでなければ、CPU10は、本制御処理を終了する。
In the figure, the
ステップS32では、CPU10は、当該MIDIチャンネルメッセージから音高、ベロシティおよびデュレーションを抽出し、当該抽出された音高、ベロシティおよびデュレーションに応じて変動させるべき第1パートの現映像効果の映像態様を決定し、決定された映像態様を第1パートの表示レイヤに反映させる。
In step S32, the
ステップS33では、CPU10は、当該MIDIチャンネルメッセージから音高、ベロシティおよびデュレーションを抽出し、当該抽出された音高、ベロシティおよびデュレーションに応じて変動させるべき第2パートの現映像効果の映像態様を決定し、決定された映像態様を第2パートの表示レイヤに反映させる。
In step S33, the
上記ステップS32およびS33の各処理は、前記図6のステップS22の処理とほぼ同様であるので、これ以上説明しない。 Since each process of the said step S32 and S33 is substantially the same as the process of step S22 of the said FIG. 6, it does not explain any more.
図5に戻り、次にCPU10は、別の映像効果組#nが選択指示されたどうかを判定する(ステップS11)。現映像効果組ではない別の映像効果組#nの選択指示は、ユーザがタッチパネル11上に表示されたメニュー画像内の対応するメニューをタッチ操作することによって行うことができるので、ステップS11の判定では、CPU10は、そのメニューに対するタッチ操作があったかどうかを判定する。
Returning to FIG. 5, next, the
ステップS11の判定の結果、別の映像効果組#nが選択指示されたときには、CPU10は、選択指示された映像効果組#nをフラッシュメモリから読み出して、現映像効果組としてRAMに記憶することで、別の映像効果組#nを選択する(ステップS12)。またCPU10は、この現映像効果組を構成する4つの映像効果へのポインタのうち、デフォルトのセクションに対応付けられたポインタを、現映像効果としてRAMに記憶する。さらにCPU10は、現映像効果組および現映像効果に基づいて、前記(3)の処理と同様の処理を実行することにより、1つあるいは2つの単体の映像効果データSEmに基づいて画像データを生成し、対応する表示レイヤに記憶する。
As a result of the determination in step S11, when another video effect group #n is instructed, the
一方、ステップS11の判定の結果、別の映像効果組が選択指示されなかったときには、CPU10は、ステップS12をスキップしてステップS13に進む。
On the other hand, if the result of determination in step S11 is that no other video effect group has been selected, the
ステップS13では、CPU10は、編集モードが指示されたかどうかを判定する。編集モードの指示は、ユーザがタッチパネル11上に表示されたメニュー画像内の対応するメニューをタッチ操作することによって行うことができるので、ステップS13の判定では、CPU10は、そのメニューに対するタッチ操作があったかどうかを判定する。
In step S13, the
ステップS13の判定の結果、編集モードが指示されたときには、CPU10は、ユーザ操作に従って、映像効果組を作成あるいは変更して保存する(ステップS14)。なお、映像効果組を作成あるいは変更する際に、ミキシングされる映像効果を指定することもあるので、編集モードでは、ミキシングされる映像効果も作成あるいは変更して保存できるものとする。
As a result of the determination in step S13, when the editing mode is instructed, the
一方、ステップS13の判定の結果、編集モードが指示されなかったときには、CPU10は、ステップS14をスキップしてステップS15に進む。
On the other hand, if the result of determination in step S13 is that editing mode has not been instructed, the
ステップS15では、CPU10は、終了が指示されたかどうかを判定する。終了の指示は、ユーザがタッチパネル11上に表示されたメニュー画像内の対応するメニューをタッチ操作することによって行うことができるので、ステップS15の判定では、CPU10は、そのメニューに対するタッチ操作があったかどうかを判定する。
In step S15, the
ステップS15の判定の結果、終了が指示されたときには、CPU10は、終了処理を実行した(ステップS16)後、本映像効果表示・編集処理を終了する。終了処理では、CPU10は、現映像効果組へのポインタ、現映像効果へのポインタ、ミキシング設定、演奏情報・パート対応テーブルおよび更新条件などをフラッシュメモリの所定領域に保存する。
If the end is instructed as a result of the determination in step S15, the
一方、ステップS15の判定の結果、終了が指示されなかったときには、CPU10は、処理を前記ステップS2に戻して、ステップS2〜S15の処理を繰り返す。
On the other hand, if the end is not instructed as a result of the determination in step S15, the
図8は、タイマ割込み処理の手順を示すフローチャートである。本タイマ割込み処理は、タイマ15が、たとえば1/30秒を計時する度に、起動される。
FIG. 8 is a flowchart showing the procedure of timer interrupt processing. This timer interruption process is started every time the
図8において、まずCPU10は、現映像効果に応じて、第1パートの表示レイヤあるいは第2パートの表示レイヤの内容を加工する(ステップS41)。「第1パートの表示レイヤあるいは第2パートの表示レイヤ」とは、加工すべき内容が第1パートを対象とするときは第1パートの表示レイヤの内容を加工し、加工すべき内容が第2パートを対象とするときは第2パートの表示レイヤの内容を加工することを意味し、たまたま両パートとも加工の対象としない場合もあれば、一方のパートしか加工の対象としない場合もあり、さらに両パートとも加工の対象とする場合もある。また、このステップS41の処理は、時間の経過に従って表示態様が変化して行く映像効果を生成するためのものであるため、現映像効果の表示態様が時間的に変動しない場合には、このステップS41の処理は実行されない。「現映像効果に応じて」とは、この意味である。図4(a)は、電子鍵盤楽器2から、第1パートに対応付けられたMIDIチャンネルメッセージが送信されて来たときに、タッチパネル11上に表示された映像効果の一例を示している。図示例の映像効果では、たとえば、音名が“E”のMIDIチャンネルメッセージが届くと、そのベロシティに応じた半径の、中心に音名“E”が記載された円が表示され、その円は、時間の経過に従って落下して行く。上記ステップS41の処理は、第1パートの表示レイヤの内容を加工することで、この「落下」の表示態様を生成する。他の例としては、図4(b)の「波紋」を挙げることができる。もちろん、時間の経過に従って変動する表示態様であれば、上記例に限られない。
In FIG. 8, first, the
次にCPU10は、ミキシング設定に応じて、第1パートの表示レイヤと第2パートの表示レイヤとで演算する(ステップS42)。つまり、上記ステップS41までの処理によって用意された第1パートの表示レイヤと第2パートの表示レイヤとの間で、現在のミキシング設定で定められている重ね方、透過率および演算方法(AND,OR,XORなど)などに応じた演算が施される。
Next, the
そしてCPU10は、演算結果を外部LCD3の表示用に出力し(ステップS43)、演算結果にさらにメニュー画像を重ね合わせ、タッチパネル11の表示用に出力する(ステップS44)。
Then, the
なお本実施の形態では、第1パートまたは第2パートへの振り分けは、MIDIチャンネルに基づいて行うようにしたが、これに限らず、複数のMIDIポートのポートや、ポートとチャンネルの組み合わせに基づいて行うようにしてもよい。 In this embodiment, the distribution to the first part or the second part is performed based on the MIDI channel. However, the present invention is not limited to this, and based on a combination of ports of a plurality of MIDI ports or ports and channels. May be performed.
また本実施の形態では、前記図5のステップS9における「演奏情報」を「MIDIチャンネルメッセージ」に限定したが、これは説明を簡単化するためにそうしたに過ぎず、「SysExメッセージ」の中にも「演奏情報」と見なせるものがあるようにしてもよい。たとえば、SysExメッセージ内に、独自形式でチャンネル情報を持たせ、MIDIチャンネルメッセージと同じように扱えるようにしたり、コモンメッセージやリアルタイムメッセージ(SysExメッセージに含まれる)も演奏時の操作に応じて通信するようにし、「演奏情報」と同様に扱うようにしたりしてもよい。さらにコモンメッセージやリアルタイムメッセージは、選択指示の情報として扱うようにしてもよい。 Further, in the present embodiment, the “performance information” in step S9 of FIG. 5 is limited to “MIDI channel message”, but this is merely for the sake of simplicity, and is included in the “SysEx message”. May also be considered as “performance information”. For example, in a SysEx message, channel information is provided in a unique format so that it can be handled in the same way as a MIDI channel message, or a common message or a real-time message (included in the SysEx message) is also communicated according to an operation during performance. Thus, it may be handled in the same manner as the “performance information”. Furthermore, common messages and real-time messages may be handled as selection instruction information.
なお本実施の形態では、映像効果組#n内のポインタ数、ミキシングされる映像効果MEk内のポインタ数、および同時に表示される映像効果のパート数は、それぞれ“4”,“2”および“2”としたが、複数であれば、これに限らないことは言うまでもない。 In this embodiment, the number of pointers in the video effect group #n, the number of pointers in the video effect MEk to be mixed, and the number of parts of the video effect displayed simultaneously are “4”, “2”, and “ Needless to say, the number is not limited to this as long as it is 2 ″.
また本実施の形態では、電子鍵盤楽器2として、鍵盤2aの鍵数が24鍵のものを採用したが、鍵盤の鍵数はこれに限らず、49,61,76,88など、どのような鍵数でもよいし、各種鍵数の電子鍵盤楽器から任意に選択して接続できるようにしてもよい。後者の場合、たとえば49鍵の電子鍵盤楽器が接続されているときには、タッチパネル11の画面全体に映像効果が表示態様を変動しながら適正に表示されていたとしても、その接続が、他の鍵数、たとえば88鍵の電子鍵盤楽器に変更されたときには、映像効果の変動された表示態様の一部がタッチパネル11の画面上からはみ出てしまい、表示されないことがある。この問題に対処するために、接続された電子鍵盤楽器の鍵数に応じて、映像効果を調整(表示範囲の拡大や縮小など)するようにすればよい。このとき、スレートデバイス1は、接続された電子鍵盤楽器の鍵数を取得する必要があるが、その取得方法としては、ユーザに鍵数を入力させる方法や、スレートデバイス1がMIDIデータなどで電子鍵盤楽器に機種を問い合わせ、回答された機種から鍵数を判断する方法などがある。
In the present embodiment, the
さらに本実施の形態では、映像効果の表示態様は、電子鍵盤楽器2から送信されて来たMIDIチャンネルメッセージ(音高、ベロシティおよびデュレーションを含むもの)と、タッチパネル11へのユーザの発音指示のタッチ操作とによって変動するが、これに加えて、他のMIDIチャンネルメッセージ、具体的には、前記楽音についての各種パラメータ(音色、テンポ、ピッチベンド、モジュレーション、アフタータッチ、フットペダル(サスティンペダル、ソフテヌートペダルおよびソフトペダルなど)の操作状態、フィルタ係数(カットオフ・レゾナンスなど)など)を含むMIDIチャンネルメッセージや、各種センサ13からの各種センサ出力によって変動するようにしてもよい。
Furthermore, in the present embodiment, the display mode of the video effect is that the MIDI channel message (including pitch, velocity, and duration) transmitted from the
また本実施の形態では、更新条件と映像効果の変更方法として、前記(C1)および(C2)を挙げて説明したが、これに、
(C11)各種センサ出力:セクションを決定し、決定したセクションに対応付けられたポインタが指し示す映像効果に変更;
(C12)所定のMIDIデータを受信:セクションを決定し、決定したセクションに対応付けられたポインタが指し示す映像効果に変更;
(C21)各種センサ出力:所定の順序で、次の映像効果に変更;
(C22)所定のMIDIデータを受信:所定の順序で、次の映像効果に変更;
を加えるようにしてもよい。
In the present embodiment, (C1) and (C2) have been described as the update condition and the method for changing the video effect.
(C11) Various sensor outputs: determine a section and change to a video effect indicated by a pointer associated with the determined section;
(C12) Receive predetermined MIDI data: determine a section and change to a video effect indicated by a pointer associated with the determined section;
(C21) Various sensor outputs: Change to the next video effect in a predetermined order;
(C22) Receive predetermined MIDI data: Change to the next video effect in a predetermined order;
May be added.
上記(C11)の具体例としては、
例1:センサ毎に閾値とセクションを決めておき、あるセンサが当該閾値を超えると、当該セクションに対応付けられたポインタが指し示す映像効果に変更する;
例2:カメラからの画像を画像し、人が所定のポーズや動作をしたときに、予め決められたセクションを決定し、このセクションに対応付けられたポインタが指し示す映像効果に変更する;
を挙げることができる。
As a specific example of the above (C11),
Example 1: A threshold value and a section are determined for each sensor, and when a sensor exceeds the threshold value, the video effect is changed to a pointer indicated by the section.
Example 2: An image from a camera is imaged, and when a person performs a predetermined pose or motion, a predetermined section is determined and changed to a video effect indicated by a pointer associated with this section;
Can be mentioned.
上記(C12)の具体例としては、
例1:音色切替や伴奏切替(セクション切替ではない)のMIDIデータを受信すると、切り替え後の「音色」や「伴奏」の属するカテゴリを割り出し、そのカテゴリに対応するセクションを決定し、このセクションに対応付けられたポインタが指し示す映像効果に変更する;
を挙げることができる。
As a specific example of the above (C12),
Example 1: When MIDI data for timbre switching or accompaniment switching (not section switching) is received, the category to which the “timbre” or “accompaniment” belongs after switching is determined, the section corresponding to the category is determined, and this section Change to the video effect pointed to by the associated pointer;
Can be mentioned.
上記(C21)の具体例としては、
例1:センサ毎に閾値を決めておき、あるセンサが当該閾値を超えると、所定の順序で、次の映像効果に変更する;
例2:カメラからの画像を認識し、人が所定のポーズや動作をしたときに、所定の順序で、次の映像効果に変更する;
を挙げることができる。
As a specific example of the above (C21),
Example 1: A threshold value is determined for each sensor, and when a certain sensor exceeds the threshold value, it is changed to the next video effect in a predetermined order;
Example 2: Recognizing an image from a camera and changing to the next video effect in a predetermined order when a person performs a predetermined pose or motion;
Can be mentioned.
上記(C22)の具体例としては、
例1:音色切替や伴奏切替(セクション切替ではない)のMIDIデータを受信する度に、所定の順序で、次の映像効果に変更する;
を挙げることができる。
As a specific example of the above (C22),
Example 1: Each time MIDI data for timbre switching or accompaniment switching (not section switching) is received, it is changed to the next video effect in a predetermined order;
Can be mentioned.
また、各種センサ出力とMIDIデータとの組み合わせによって更新条件を決めるようにしてもよいし、あるいは、電子鍵盤楽器2が出力した前記オーディオ信号によって更新条件を決めるようにしてもよい。そして、この更新条件が成立すると、セクションを決定し、決定したセクションに対応付けられたポインタが指し示す映像効果に変更したり、あるいは、所定の順序で、次の映像効果に変更したりすればよい。オーディオ信号によってセクションを決定する場合には、オーディオ信号内に、あるいはすかしで、セクションを指定する情報を埋め込んでおくようにすればよい。なお、スレートデバイス1に入力されたオーディオ信号は、タッチパネル11上に表示される映像効果とともに動画として記録される。また、オーディオ信号の特性は、映像効果の表示態様の変動に用いるようにしてもよい。
Further, the update condition may be determined by a combination of various sensor outputs and MIDI data, or the update condition may be determined by the audio signal output from the
なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。 A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.
この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.
プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、ネットワーク5を介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。
As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from the server computer via the
また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
10…CPU(受取手段、選択手段、制御手段),11…タッチパネル(受取手段、表示手段),14…メモリ(記憶手段),16…アダプタI/F(受取手段)
DESCRIPTION OF
Claims (4)
所定の条件が成立したときに、記憶手段に記憶された複数の映像効果からなる映像効果組からいずれか1つの映像効果を選択する選択手順と、
前記選択手順によって選択された映像効果の表示態様を、前記受取手順によって受け取った演奏指示に応じて変動させて、表示手段に表示させる表示手順と
をコンピュータに実行させるためのプログラム。 A receiving procedure for receiving performance instructions;
A selection procedure for selecting any one video effect from a video effect group consisting of a plurality of video effects stored in the storage means when a predetermined condition is satisfied;
A program for causing a computer to execute a display procedure for causing a display unit to display a display mode of a video effect selected by the selection procedure in accordance with a performance instruction received by the reception procedure.
前記選択手順では、前記映像効果組から、前記取得手段によって取得された指定情報によって指定される映像効果を選択することを特徴とする請求項1に記載のプログラム。 A program for causing a computer to further execute an acquisition procedure for acquiring designation information for designating one video effect to be selected from the video effect group,
The program according to claim 1, wherein in the selection procedure, a video effect designated by the designation information obtained by the obtaining unit is selected from the video effect group.
複数の映像効果からなる映像効果組を記憶する記憶手段と、
所定の条件が成立したときに、前記記憶手段に記憶された映像効果組からいずれか1つの映像効果を選択する選択手段と、
前記選択手段によって選択された映像効果の表示態様を、前記受取手段によって受け取った演奏指示に応じて変動させて、表示手段に表示させるように制御する制御手段と
を有することを特徴とする音楽画像表示装置。 A receiving means for receiving performance instructions;
Storage means for storing a video effect group comprising a plurality of video effects;
Selecting means for selecting any one of the video effects from the video effect set stored in the storage means when a predetermined condition is satisfied;
A music image comprising: control means for controlling the display mode of the video effect selected by the selection means to be changed in accordance with a performance instruction received by the receiving means and to be displayed on the display means. Display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012096421A JP5870831B2 (en) | 2012-04-20 | 2012-04-20 | Program and music image display apparatus for realizing music image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012096421A JP5870831B2 (en) | 2012-04-20 | 2012-04-20 | Program and music image display apparatus for realizing music image display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013224999A true JP2013224999A (en) | 2013-10-31 |
JP5870831B2 JP5870831B2 (en) | 2016-03-01 |
Family
ID=49595097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012096421A Active JP5870831B2 (en) | 2012-04-20 | 2012-04-20 | Program and music image display apparatus for realizing music image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5870831B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015122663A (en) * | 2013-12-24 | 2015-07-02 | パイオニア株式会社 | Operation device, control method of the same, and program |
JP2020008755A (en) * | 2018-07-10 | 2020-01-16 | 有限会社めがね部 | Music-linked image display system |
JP2021099460A (en) * | 2019-12-23 | 2021-07-01 | カシオ計算機株式会社 | Program, method, electronic apparatus, and musical performance data display system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63170697A (en) * | 1987-09-04 | 1988-07-14 | ヤマハ株式会社 | Musical sound image converter |
JP2003099035A (en) * | 2001-09-20 | 2003-04-04 | Yamaha Corp | Automatic playing device, information distributing server device, and program used for them |
-
2012
- 2012-04-20 JP JP2012096421A patent/JP5870831B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63170697A (en) * | 1987-09-04 | 1988-07-14 | ヤマハ株式会社 | Musical sound image converter |
JP2003099035A (en) * | 2001-09-20 | 2003-04-04 | Yamaha Corp | Automatic playing device, information distributing server device, and program used for them |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015122663A (en) * | 2013-12-24 | 2015-07-02 | パイオニア株式会社 | Operation device, control method of the same, and program |
JP2020008755A (en) * | 2018-07-10 | 2020-01-16 | 有限会社めがね部 | Music-linked image display system |
JP2021099460A (en) * | 2019-12-23 | 2021-07-01 | カシオ計算機株式会社 | Program, method, electronic apparatus, and musical performance data display system |
JP7070538B2 (en) | 2019-12-23 | 2022-05-18 | カシオ計算機株式会社 | Programs, methods, electronic devices, and performance data display systems |
Also Published As
Publication number | Publication date |
---|---|
JP5870831B2 (en) | 2016-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4328828B2 (en) | Portable chord output device, computer program, and recording medium | |
JP6171828B2 (en) | Program and sound effect data generating apparatus for realizing sound effect data generating method | |
JP2006243102A (en) | Device and program for supporting performance | |
JP5870831B2 (en) | Program and music image display apparatus for realizing music image display method | |
JP6729052B2 (en) | Performance instruction device, performance instruction program, and performance instruction method | |
JP2006106641A (en) | Electronic musical device | |
JP6583320B2 (en) | Automatic accompaniment apparatus, automatic accompaniment program, and accompaniment data generation method | |
JP3551065B2 (en) | Data setting device | |
JP2014146061A (en) | Electronic music device | |
JP6657866B2 (en) | Sound effect imparting device and sound effect imparting program | |
JP5277814B2 (en) | Electronic music apparatus and program | |
JP6255960B2 (en) | Program and music data generating apparatus for realizing music data generating method | |
JP6186955B2 (en) | Electronic device, program for realizing control method of electronic device, and control method of electronic device | |
JP2011197664A (en) | Music file reproduction device and system | |
JP6394366B2 (en) | Karaoke device and karaoke program | |
JP6901955B2 (en) | Karaoke equipment | |
JP6343921B2 (en) | Program and musical sound generation control method | |
JP5303959B2 (en) | Program for realizing electronic music apparatus and control method thereof | |
JP2000172267A (en) | Playing assistance apparatus and record medium for the same | |
JP4186853B2 (en) | Accompaniment information setting device and program for realizing the control method | |
JP2004220208A (en) | Basic program and recording medium capable of easily switching program environment | |
JP2022155749A (en) | Playback position instruction device, music playback device and playback position instruction program | |
JP2014071215A (en) | Musical performance device, musical performance system, and program | |
JP2015075574A (en) | Musical performance data generation device and program for realizing musical performance data generation method | |
JP5821162B2 (en) | Electronic music apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150630 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5870831 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |